Năm 2016, Sam Altman đã xây dựng một căn hầm ở dưới lòng đất ở Wyoming. Với diện tích 1,200 mét vuông, cấu trúc ba tầng, 500kg vàng, 5,000 viên kali iodide, 5 tấn thực phẩm đóng lạnh, và 100,000 viên đạn. Chính trong năm đó, OpenAI mới chỉ thành lập được một tuần.
Mười năm sau, người đứng đầu của công ty trí tuệ nhân tạo mạnh nhất thế giới đã bị tấn công liên tục trong hai cuối tuần liên tiếp, trước tiên là bằng lọ hoả, sau đó là bằng súng. Trong bài đăng trên blog cá nhân, ông nói rằng ông đã nghiêm trọng đánh giá thấp "sức mạnh của câu chuyện". Ông đang nói về câu chuyện của người khác hay của chính mình?
Vào lúc 3:40 sáng ngày 10 tháng 4, trên Phố Chestnut ở San Francisco. Một người đàn ông 20 tuổi tên Daniel Moreno-Gama đã ném một lọ hoả vào cánh cửa rộng bằng kim loại của căn hộ của Sam Altman. Lửa đã lan ra gần cửa ra vào, sau đó anh ta đã bỏ chạy. Khoảng một giờ sau, cùng một người đã xuất hiện tại văn phòng OpenAI ở San Francisco, tiếp tục đe dọa đốt cháy, sau đó bị bắt. Anh ta bị buộc tội bao gồm cố tình giết người và gây cháy.

Hình ảnh giám sát của khu cư trú của Sam Altman ở San Francisco và nghi phạm đốt cháy
Hai ngày sau, vào lúc 1:40 sáng ngày 12 tháng 4, một chiếc xe Honda đã dừng lại bên cạnh nơi cư trú thứ hai của Altman tại núi Nga. Hành khách trong xe đã bắn một phát vào nhà. Video giám sát ghi lại biển số xe, sau đó cảnh sát đã bắt giữ hai người: Amanda Tom (25 tuổi) và Muhamad Tarik Hussein (23 tuổi). Khi kiểm tra nơi ở, họ đã tìm thấy ba khẩu súng, cả hai bị buộc tội bất cẩn dùng súng.
Một cuối tuần, hai vụ tấn công.
Người nghi phạm của vụ án đầu tiên, Daniel Moreno-Gama, là một người theo trường phái bi quan về trí tuệ nhân tạo. Anh ta đã trích dẫn chủ đề con người đấu tranh chống lại máy móc trong "Dune" trên mạng xã hội, viết bài viết lập luận về nguy cơ tồn tại của việc thất bại trong việc định hình trí tuệ nhân tạo, chỉ trích lãnh đạo công nghệ vì họ đặt cược cả số phận của toàn nhân loại vào việc theo đuổi "siêu nhân loại học".
Lập luận của anh ta là gì?
Trong năm qua, một trong những hành động chuẩn bị câu chuyện của OpenAI đã liên tục nhấn mạnh về mức độ "tồn tại" của AGI. Để khiến chính phủ coi trọng các quy định, để khiến các nhà đầu tư hiểu rằng cược của họ lớn đến đâu, và cũng để khiến toàn bộ ngành công nghiệp nhận ra rằng cuộc đua này không thể bỏ lỡ. Bộ câu chuyện này phục vụ mục đích, nó giúp OpenAI đặt ra ba vấn đề cùng một lúc: vừa là nguy hiểm nhất, vừa là trách nhiệm nhất và vì vậy vốn nên thuộc về chúng tôi.
Nhưng câu “Đây là công nghệ nguy hiểm nhất trong lịch sử nhân loại” sau khi được tung ra sẽ không chỉ dừng lại ở giới công nghệ và nhà đầu tư. Nó sẽ lan truyền xuống và ở một số người, nó sẽ trở thành một hướng dẫn hành động theo nghĩa đen. Moreno-Gama đã viết trong một bài đăng trên Ins chia sẻ rằng “Sự tiến bộ theo cấp số nhân cộng với thất bại trong việc canh chỉnh, bằng với nguy cơ diệt vong”. Khung lý luận này có nguồn gốc từ văn kiện chính thống trong lĩnh vực nghiên cứu về an toàn trí tuệ nhân tạo, trong đó có nhiều văn kiện do OpenAI tài trợ hoặc chứng thực.

Tài khoản Mạng xã hội của Daniel Moreno-Gama
Sau vụ tấn công đầu tiên, Ultraman đã viết một bài đăng trên blog của mình. Anh ấy đăng một bức ảnh chung với đứa trẻ và nói rằng anh ấy hy vọng bức ảnh này sẽ ngăn chặn người tiếp theo ném chai xăng vào nhà anh ấy. Anh ấy thừa nhận “quan điểm đạo đức hợp pháp của những người phản đối,” kêu gọi cuộc thảo luận công cộng “ít vẻ bạo lực hơn cả ở nghĩa đen và ẩn dụ.”
Anh ấy cũng đã phản hồi một bài báo sâu sắc từ tạp chí The New Yorker. Bài báo đó đã được công bố chỉ vài ngày trước vụ tấn công, công khai đặt dấu hỏi về sự tin cậy của anh ấy với tư cách là người kiểm soát quyền lực cao nhất trong lĩnh vực trí tuệ nhân tạo. Anh ấy viết, “Tôi đã đánh giá thấp quyền năng của sự diễn giải công cộng và lời nói.”
Hai ngày sau đó, tòa nhà sống của anh ấy đã bị bắn.
Điểm khởi đầu của quỹ đường này đã sớm hơn một năm so với hầu hết mọi người nhận ra.
Ngày 4 tháng 12 năm 2024, New York. Giám đốc điều hành của UnitedHealthcare Brian Thompson bị bắn chết tại khách sạn Hilton. Phần tử nghi phạm Luigi Mangione, tốt nghiệp trường Ivy League, để lại một tuyên bố viết tay chỉ trích ngành bảo hiểm y tế. Vụ việc đã gây ra một phản ứng không bình thường trên mạng xã hội: một lượng lớn người dùng bình thường công khai biểu đạt sự đồng cảm với kẻ giết người, thậm chí tôn anh ta lên như một biểu tượng phản kháng nào đó.
Lúc đó, một số cánh cửa đã được mở ra.
Sau vụ án Thompson, việc an ninh cho các giám đốc điều hành đã chuyển từ “phúc lợi” sang “nhu cầu sinh tồn”. Theo dữ liệu khảo sát được trích dẫn từ tạp chí Fortune, từ năm 2023, tỷ lệ tăng cường tấn công phạm tội trên người các giám đốc điều hành của các công ty lớn đã tăng 225%. Trong số các công ty thành phần của chỉ số S&P 500, 33.8% đã báo cáo chi phí an ninh cho giám đốc điều hành trong báo cáo tài chính năm 2025, con số này là 23.3% vào năm 2020. Công ty cung cấp dịch vụ an ninh trung bình chi phí là 130,000 USD, tăng 20% so với năm trước, và tăng gấp đôi trong vòng 5 năm.
Ngành công nghiệp Trí tuệ Nhân tạo (AI) hiện đang là điểm đón nhận xu hướng mới nhất và nổi bật nhất. Tổng chi phí bảo mật của 10 tên lớn trong ngành Công nghệ vào năm 2024 đã vượt qua mức 45 triệu USD. Mark Zuckerberg chi hơn 27 triệu USD, cao hơn tổng chi phí của CEO của bốn tên lớn khác như Apple, Google. Jensen Huang của NVIDIA vào năm 2025 là 3.5 triệu USD, tăng 59% so với năm trước. Sundar Pichai của Google là 8.27 triệu USD, tăng 22%.
Ngành công nghiệp AI có một điều mà các ngành khác không có, đó chính là ngay cả người xây dựng công nghệ cũng tin rằng công nghệ này có thể phá hủy nền văn minh. Trung tâm Nghiên cứu Pew vào năm 2025 đã tiến hành khảo sát 28,333 người tham gia trên toàn cầu, chỉ có 16% cảm thấy hào hứng với phát triển của AI, 34% cho biết lo lắng. Phát hiện ngược lại nhưng hợp lý hơn là: người có trình độ học vấn càng cao, thu nhập càng cao, thì lo lắng về việc AI mất kiểm soát càng nhiều. Những người hiểu biết nhiều hơn, sợ hãi nó hơn.
Không lâu trước, căn nhà của Hội viên Hội đồng thị trấn Indianapolis Ron Gibson bị một kẻ cầm súng đã bắn liên tiếp 13 phát vào lúc nửa đêm, làm con trai 8 tuổi của ông bị đinh rung giấc. Trước cửa nhà để lại một tờ giấy viết tay với dòng chữ "Không xây dựng trung tâm dữ liệu." FBI đã vào cuộc điều tra. Nghiên cứu viên của Dự án Nghiên cứu Chủ nghĩa Cực đoan tại Đại học George Washington, Jordyn Abrams, chỉ ra rằng trung tâm dữ liệu đang trở thành mục tiêu tấn công của các phần tử cực đoan chống công nghệ và chống chính phủ.

Hiện trường vụ bắn của Ron Gibson
Nỗi sợ hãi này không phải là một bí mật trong ngành, chỉ là không được nói lên to.
Ultraman xây dựng cứ điểm ở Wyoming vào năm 2016. Trong năm đó, OpenAI vừa công bố thành lập, đồng thời đang vẽ ra hình ảnh AI sẽ làm cách nào để mang lại lợi ích cho con người. Hai sự kiện xảy ra đồng thời, ông ta trên sân khấu nói rằng AI là cơ hội lớn nhất của nhân loại, nhưng ở riêng tư, ông ta đang tích trữ đủ đạn để hỗ trợ một lực lượng dân quân vũ trang.
Đây là một cú bắt đôi hợp lý: công khai đặt cược vào việc AI sẽ thành công, riêng tư chuẩn bị cho trường hợp AI trở nên không kiểm soát.
Vào ngày 27 tháng 2 năm nay, OpenAI đã ký kết hợp đồng với Bộ Quốc phòng Hoa Kỳ, cho phép Pentagon triển khai ChatGPT trên mạng lưới bảo mật bí mật, phạm vi sử dụng bao gồm "bất kỳ mục đích hợp pháp nào." Cùng ngày đó, Ultraman cũng công khai thể hiện sự ủng hộ với quan điểm hạn chế về ứng dụng quân sự của Anthropic đối với AI. Sau đó, lượng tải ChatGPT đã tăng vọt 295% trong một ngày, số lượng đánh giá một sao đã tăng 775% trong vòng 24 giờ. Phong trào phản đối QuitGPT được cho là đã có hơn 1.5 triệu người tham gia tổng cộng.
Vào ngày 21 tháng 3, khoảng 200 người biểu tình đã diễu hành ở San Francisco, bao gồm Anthropic, OpenAI và xAI, yêu cầu ba CEO cam kết tạm ngừng phát triển trí tuệ nhân tạo tiên tiến. Đồng thời, London đã chứng kiến cuộc biểu tình chống lại trí tuệ nhân tạo lớn nhất từ trước đến nay.
Hang ổ của ông Ultraman ở Wyoming và lực lượng an ninh mà ông đã thuê đối mặt với hai loại rủi ro khác nhau, một loại từ bên ngoài và một loại từ cái ông đang xây dựng. Ông đã coi trọng cả hai loại rủi ro này trong tư nhân, nhưng chỉ công khai thừa nhận một trong hai loại.
Trùng hợp thay, trong cùng một tuần xảy ra vụ tấn công đầu tiên, tạp chí The New Yorker đăng một bài phóng sự sâu về Ultraman. Các nhà báo Ronan Farrow và Andrew Marantz đã phỏng vấn hơn 100 người có thông tin, với hai từ chính xác: không thể tin tưởng. Bài báo trích dẫn một cựu thành viên Hội đồng Quản trị OpenAI gọi Ultraman là "nhân cách chống đời xã hội," "không bị ràng buộc bởi sự thật." Nhiều đồng nghiệp trước đây mô tả ông ta thay đổi suy nghĩ liên tục về vấn đề an ninh trí tuệ nhân tạo, và cần thiết hiện lại cấu trúc quyền lực khi cần.
Trong phản ứng trên blog của mình, Ultraman thừa nhận mình có "thái độ tránh xung đột." Ultraman đã xây dựng một bản kể công cộng về "AI là mối đe dọa cấp độ tồn tại," là một công cụ trong trò chơi gây quỹ và quản lý. Kết quả của công cụ này đã rơi khỏi tay ông ta, quẹo một vòng và đập trở lại cửa của ông.
Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:
Nhóm Telegram đăng ký: https://t.me/theblockbeats
Nhóm Telegram thảo luận: https://t.me/BlockBeats_App
Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia