Các lãnh đạo công nghệ liên tục cảnh báo AI có thể quá nguy hiểm để tung ra, như cách công ty Anthropic (Anthropic) mô tả mẫu Claude Mythos có khả năng tìm lỗ hổng an ninh vượt xa con người, có thể gây hệ lụy lớn cho kinh tế, an toàn công cộng và an ninh quốc gia. Một số ý kiến hồ hởi còn dự đoán người dùng phải thay toàn bộ thiết bị để tự vệ, song nhiều chuyên gia an ninh hoài nghi.
Theo các chuyên gia, việc gieo nỗi sợ tận thế giúp đánh lạc hướng khỏi tác hại hiện hữu và nâng giá trị thị trường, đồng thời tạo cảm giác chỉ các công ty mới đủ sức kiểm soát rủi ro. Giáo sư Shannon Vallor tại Đại học Edinburgh (University of Edinburgh) nhận định khung tường thuật siêu hình khiến công chúng cảm thấy bất lực và phải trông chờ vào chính các doanh nghiệp.
Năm 2019, khi còn ở công ty OpenAI (OpenAI), Dario Amodei từng nói không thể phát hành GPT-2 vì lo ngại lạm dụng, nhưng sau đó công ty vẫn công bố. Sam Altman nhiều lần vừa cảnh báo tận thế, vừa thừa nhận lo sợ về ChatGPT; các lãnh đạo như Altman, Amodei, Bill Gates, Demis Hassabis ở bộ phận Google DeepMind (Google DeepMind) ký tuyên bố coi rủi ro tuyệt chủng do AI ngang đại dịch và chiến tranh hạt nhân, trong khi Elon Musk kêu gọi tạm dừng rồi lập công ty xAI (xAI) vài tháng sau. Giáo sư Emily M. Bender tại Đại học Washington (University of Washington) coi đây là mô thức khuếch đại năng lực thiếu chứng cứ, che mờ vấn đề môi trường và lao động.
OpenAI dẫn lời Altman nói sẽ chống lại việc tập trung quyền lực AI vào tay số ít và muốn quyết định về AI thông qua các quy trình dân chủ, bình đẳng, chứ không chỉ do các phòng thí nghiệm AI.
Anthropic khẳng định Mythos đã tìm hàng nghìn lỗ hổng nghiêm trọng và phối hợp hơn 40 tổ chức để vá khẩn cấp. Tuy nhiên, Heidy Khlaaf, nhà khoa học trưởng về AI tại Viện AI Now (AI Now Institute), chỉ ra thiếu chỉ số tỉ lệ báo động sai – thước đo chuẩn của công cụ an ninh – và không đối chuẩn với các công cụ sẵn có; thậm chí có đồn đoán Anthropic thiếu tài nguyên tính toán để phổ cập. Cô cho rằng AI hợp với việc quét mã quy mô lớn, nhưng chưa có chứng cứ để nâng Mythos lên tầm “không thể phát hành”.
Về động cơ, OpenAI từng khởi đầu phi lợi nhuận để ưu tiên an toàn, còn nhóm tách ra lập Anthropic vì cho rằng an toàn chưa đủ; nay cả hai đều hướng tới niêm yết. Vallor lưu ý hành vi công ty đi theo động lực lợi ích: Google bỏ rào đỏ về vũ khí AI, OpenAI đấu pháp lý để thoát khung phi lợi nhuận, Anthropic từ bỏ nguyên tắc không huấn luyện khi chưa bảo đảm an toàn. Bà hoài nghi họ sẽ bỏ cơ hội thống trị thị trường để giữ hình ảnh “người tốt”.
Trong khi đó, loạt hệ quả trước mắt ngày càng rõ: AI trong y tế có nguy cơ chẩn sai; trung tâm dữ liệu chạy nhiên liệu hóa thạch đe dọa phát thải; vấn đề sức khỏe tâm thần, suy giảm nhận thức; deepfake lan rộng. Các công ty nói đang xử lý, nhưng theo Vallor, khung tận thế khiến các vấn đề này trông kém quan trọng và củng cố niềm tin rằng chỉ họ mới bảo vệ được xã hội.
Song song lời cảnh báo diệt vong là viễn cảnh cứu rỗi: Altman dự đoán AI giúp sửa khí hậu, lập thuộc địa không gian, khai mở vật lý; Amodei nói về “đất nước thiên tài trong trung tâm dữ liệu”. Vallor cho rằng cả thiên đường lẫn tận thế đều khiến công cụ quản trị, pháp luật bị xem là bất lực. Dù tên “Mythos” gợi sự kính sợ, đây vẫn là sản phẩm vì lợi nhuận và không nằm ngoài khả năng điều tiết, như các trường hợp hạt nhân hay sinh học. Tác giả nhắc công chúng tỉnh táo trước các “lời tiên tri” kiểu Thung lũng Silicon, từng thổi phồng Metaverse, Bitcoin hay truyền thông xã hội cứu dân chủ, và thừa nhận kết cục vẫn còn bất định.
