Tiêu đề Ban đầu: Công Ty Gây Nhiễu Nhất trên Thế Giới
Tác Giả Ban đầu: Leslie Dickstein, Simmone Shah, TIMES
Dịch: Peggy, BlockBeats
Chú thích biên tập: Từ một cuộc kiểm tra an ninh đêm khuya, đến một cuộc đối đầu công khai với Bộ Tư lệnh Thái Bình Dương, bài viết này ghi chép về nhiều áp lực mà công ty trí tuệ nhân tạo Anthropic phải đối mặt trong quá trình nổi lên nhanh chóng của mình. Bài viết đầu tiên miêu tả cách mà bên trong công ty đánh giá nguy cơ tiềm ẩn của trí tuệ nhân tạo, sau đó điều tra về bước đột phá công nghệ và thành công thương mại của Claude, và tiếp theo là ứng dụng thực tế của nó trong lĩnh vực quân sự.
Theo sự tiến triển của sự kiện, tác giả gián tiếp thông qua nhiều quan điểm như trưở đội đỏ, kỹ sư, cấp quản lý, nhà nghiên cứu chính sách và quan chức chính phủ, mô tả từng bước Anthropic và Bộ Quốc phòng Mỹ tranh cãi về vũ khí tự động, giám sát quy mô lớn và quyền kiểm soát trí tuệ nhân tạo.
Thay vào đó sự kiện này, tác giả cuối cùng đặt câu hỏi về một vấn đề ngày càng cấp bách: Khi trí tuệ nhân tạo bắt đầu tăng tốc tiến hóa của chính mình, và sâu ký vào chiến tranh, quản trị và cấu trúc lao động, ai sẽ có khả năng đặt ranh giới cho nó.
Dưới đây là bản gốc:

Trong một căn phòng khách sạn ở Santa Clara, California, năm thành viên của công ty Trí tuệ nhân tạo Anthropic đang làm việc căng thẳng xung quanh một chiếc laptop. Đó là tháng 2 năm 2025, họ đang tham dự một hội nghị tại gần đó, nhưng bất ngờ nhận được một tin nhắn đáng lo ngại: kết quả của một thử nghiệm được kiểm soát cho thấy, phiên bản mới sắp ra mắt của Claude có thể giúp những kẻ khủng bố tạo ra vũ khí sinh học.
Những người này thuộc nhóm "Trưở đội đỏ tiên phong" của Anthropic. Công việc của họ là nghiên cứu khả năng tiên tiến của Claude và cố gắng dự đoán rủi ro tồi tệ nhất, từ tấn công mạng đến mối đe dọa an ninh sinh học và các khả năng khác. Sau khi biết tin tức, họ chạy về phòng khách sạn và đặt một chiếc giường nghiêng để sử dụng làm bàn làm việc tạm thời, bắt đầu xem xét kết quả thử nghiệm một cách cẩn thận.
Sau vài giờ phân tích căng thẳng, họ vẫn không thể đảm bảo liệu sản phẩm mới có đủ an toàn hay không. Cuối cùng, Anthropic quyết định trì hoãn việc phát hành phiên bản mới này, Claude 3.7 Sonnet một khoảng thời gian nguyên 10 ngày, cho đến khi nhóm xác nhận rằng rủi ro có thể kiểm soát được.
Dẻo đó nghe có vẻ chỉ là mười ngày ngắn ngủi, nhưng đối với một công ty đứng ở tận cùng của công nghệ, và đứng trong một ngành công nghiệp đang thay đổi nhanh chóng thế giới, thì đó gần như là như một thế kỷ dài đối với họ.
Logan Graham (Trưởng nhóm Red Team tại Anthropic) nhớ lại sự kiện "Kinh hoàng Vũ khí Sinh học" đó như một biểu tượng của thách thức mà Anthropic đối mặt tại một điểm quyết định, không chỉ đối với công ty mà còn đối với toàn cầu. Anthropic hiện là một trong những tổ chức tập trung nhiều vào an ninh nhất trong các phòng thí nghiệm AI hàng đầu hiện nay. Nhưng đồng thời, nó cũng đang ở tuyến đầu cuộc đua, cố gắng xây dựng các hệ thống AI mạnh mẽ hơn. Trong công ty, nhiều nhân viên cũng tin rằng nếu công nghệ này không kiểm soát được, có thể mang lại một loạt hậu quả kinh khủng, từ chiến tranh hạt nhân đến tuyệt chủng loài người.
Graham 31 tuổi trông vẫn có chút ngây thơ, nhưng anh ta không bao giờ tránh né trách nhiệm trong việc cân nhắc giữa lợi ích khổng lồ và rủi ro khổng lồ của AI. Anh nói: "Nhiều người đã lớn lên trong một thế giới tương đối bình yên, sẽ tự nhiên cảm thấy có một căn phòng, trong đó có một nhóm người lớn tuổi già đã, họ biết cách sửa chữa mọi vấn đề."
"Nhưng thực tế, không có gì là 'nhóm người lớn' đó. Thậm chí cả căn phòng đó cũng không tồn tại. Không có cánh cửa bạn đang tìm. Trách nhiệm nằm trên vai bạn." Nếu câu nói này vẫn chưa đủ để khiến mọi người tỉnh ngộ, hãy nhìn vào cách anh nhớ lại cảnh báo về vũ khí sinh học đó: "Đó là một ngày khá hấp dẫn và thú vị."

Hình minh họa: Neil Jamieson cho TIME (Nguồn hình ảnh: Askell: Aaron Wojack; Getty Images, từ trên theo chiều kim đồng hồ: Samyukta Lakshmi—Bloomberg; Brendan Smialowski—AFP; Tierney L. Cross—Bloomberg; Daniel Slim—AFP; Bridget Bennett—Bloomberg)
Vài tuần trước, Logan Graham đã trả lời phỏng vấn tại trụ sở của Anthropic. Nhà báo của tạp chí TIME đã ở đó trong ba ngày, phỏng vấn các nhà điều hành công ty, kỹ sư, người chịu trách nhiệm sản phẩm và các thành viên của nhóm an ninh, cố gắng tìm hiểu: tại sao công ty trước đây được coi là "kẻ ngoại lệ độc lập" trong cuộc đua trí tuệ nhân tạo, lại bất ngờ trở thành người dẫn đầu.
Vào thời điểm đó, Anthropic vừa mới huy động được 300 tỷ đô la từ các nhà đầu tư, để chuẩn bị cho việc IPO có thể diễn ra trong năm nay. (Lưu ý rằng Salesforce cũng là một trong những nhà đầu tư của Anthropic, và chủ sở hữu của tạp chí TIME Marc Benioff chính là Giám đốc điều hành của Salesforce.) Hiện nay, giá trị của Anthropic đã đạt 3.800 tỷ đô la, vượt qua các tên tuổi truyền thống như Goldman Sachs, McDonald's và Coca-Cola.
Tốc độ tăng trưởng doanh thu của công ty được mô tả như là một cú đẩy như tên lửa. Hệ thống AI của họ, Claude, đã được công nhận là một mô hình hàng đầu thế giới, trong khi các sản phẩm như Claude Code và Claude Cowork đang tái định nghĩa ý nghĩa của nghề nghiệp "lập trình viên".
Công cụ của Anthropic mạnh đến mức: gần như mỗi lần phát hành phiên bản mới, thị trường vốn loạn đảo vì các nhà đầu tư dần nhận ra rằng những tiến bộ công nghệ này có thể làm đảo lộn toàn bộ một ngành công nghiệp—từ dịch vụ luật sư đến phát triển phần mềm. Trong vài tháng qua, Anthropic đã được coi là một trong những công ty có khả năng tái thiết hình ảnh của "tương lai làm việc".
Sau đó, Anthropic bị cuốn vào một cuộc tranh cãi quyết liệt xoay quanh "tương lai dạng chiến tranh".
Trong hơn một năm qua, Claude đã trở thành mô hình AI được chính phủ Mỹ ưa chuộng nhất, và cũng là hệ thống AI tiên tiến đầu tiên được phép sử dụng trong môi trường bí mật. Vào tháng 1 năm 2026, nó đã được sử dụng trong một hành động táo bạo: bắt giữ Tổng thống Venezuela Nicolás Maduro tại Caracas. Theo báo cáo, trong hành động này, AI đã được sử dụng cho việc lập kế hoạch nhiệm vụ và phân tích tình báo, đánh dấu sự tham gia sâu rộng đầu tiên của AI tiên tiến vào hoạt động quân sự thực sự.
Tuy nhiên, trong những tuần tiếp theo, mối quan hệ giữa Anthropic và Bộ Quốc phòng Mỹ nhanh chóng tồi tệ đi. Ngày 27 tháng 2, chính phủ Trump công bố Anthropic là "Rủi ro An ninh Quốc gia của Chuỗi Cung Ứng", đây là lần đầu tiên mà Mỹ biết đến một công ty nội địa như thế này.
Tình hình nhanh chóng leo thang thành một cuộc xung đột công khai. Trump ra lệnh, chính phủ Mỹ ngừng sử dụng tất cả phần mềm của Anthropic. Bộ trưởng Quốc phòng Pete Hegseth công bố thêm rằng: bất kỳ công ty nào hợp tác với chính phủ không được phép tiếp tục làm ăn với Anthropic. Trong khi đó, đối thủ lớn nhất của Anthropic, OpenAI, nhanh chóng can thiệp và tiếp nhận các hợp đồng quân sự tương ứng.
Và như vậy, công ty được coi là "công ty cực kỳ gây xáo trộn toàn cầu" trong lĩnh vực AI, đột ngột phải đối mặt với sự xáo trộn lớn hơn từ một cường lực khác—chính quyền của mình.
Vấn đề trung tâm của cuộc đối đầu này là: ai có quyền định ra ranh giới cho công nghệ được coi là một trong những vũ khí mạnh nhất của Mỹ.
Anthropic không phản đối việc công cụ của họ được sử dụng trong các hành động chiến tranh. Theo công ty, việc tăng cường sức mạnh quân sự của Mỹ là cách duy nhất hiện thực để ngăn chặn mối đe dọa quốc gia. Nhưng CEO của công ty, Dario Amodei, chống lại việc Bộ Quốc Phòng cố gắng tái đàm phán hợp đồng chính phủ, mở rộng phạm vi sử dụng AI đến "tất cả các mục đích hợp pháp".
Amodei đã đưa ra hai mối lo ngại cụ thể: thứ nhất, anh không muốn trí tuệ nhân tạo của Anthropic được sử dụng trong hệ thống vũ khí hoàn toàn tự động; thứ hai, anh phản đối việc sử dụng công nghệ của họ để giám sát quy mô lớn người dân Mỹ.
Nhưng đối với Pete Hegseth (Thứ trưởng Bộ Quốc phòng Hoa Kỳ) và cố vấn của ông, quan điểm này tương đương với việc một công ty tư nhân cố gắng quyết định cách mạng sự chiến đấu của quân đội.
Bộ Quốc phòng Mỹ cho rằng, Anthropic thông qua việc duy trì việc thiết lập "rào cản an ninh không cần thiết", liên tục thảo luận về các tình huống giả định và kéo dài thời gian trong các cuộc đàm phán sau này, thực tế đang làm suy yếu mối quan hệ hợp tác giữa hai bên.
Trong mắt chính phủ Trump, thái độ của Amodei (CEO Anthropic) không chỉ kiêu ngạo mà còn cứng đầu. Dù sản phẩm của một công ty có đến đâu tiên tiến, cũng không nên can thiệp vào chuỗi cung ứng quân sự của mình.
Thứ trưởng Vấn đề Kỹ thuật Chiến tranh tại Bộ Quốc phòng Pentagon, Emil Michael, miêu tả cuộc đàm phán như sau: "Vấn đề chỉ kéo dài mãi như vậy. Tôi không thể sử dụng các điều khoản ngoại lệ mà tôi thậm chí không thể tưởng ra hoặc hiểu được đó, để quản lý một bộ phận với 3 triệu người."

Hình minh họa: Klawe Rzeczy tạo hình ảnh cho TIME Nguồn ảnh: Denis Balibouse—Reuters
Từ Silicon Valley đến Quốc hội, nhiều nhà quan sát đang đặt câu hỏi: Vụ việc này có thực sự chỉ là một tranh chấp hợp đồng không?
Một số chỉ trích cho rằng, hành động của chính phủ Trump giống như đang cố gắng đàn áp một công ty có quan điểm chính trị không đồng điệu. Dario Amodei viết trong một bản ghi nhớ nội bộ sau này đã rò rỉ: "Bộ Quốc phòng và chính phủ Trump không thích chúng tôi vì lý do thật sự là chúng tôi không tài trợ cho Trump. Chúng tôi không khen ngợi ông như một quốc gia độc tài (như Sam Altman đã làm). Chúng tôi ủng hộ quản lý trí tuệ nhân tạo, điều này trái ngược với chính trị của họ; chúng tôi nói thật về nhiều vấn đề chính sách trí tuệ nhân tạo (như vấn đề thay thế việc làm); và chúng tôi giữ nguyên nguyên tắc ở điểm kỳ quan, thay vì âm mưu với họ để tổ chức một màn trình diễn an ninh gọi là "rạp xiếc an ninh" (safety theater)."
Tuy nhiên, Emil Michael (Thứ trưởng Vấn đề Kỹ thuật Chiến tranh) phủ nhận tuyên bố này, gọi đó là "hoàn toàn bịa đặt". Ông nói rằng, việc xem Anthropic như một rủi ro chuỗi cung ứng là vì quan điểm của công ty có thể khiến các binh lính chiến đấu trên tuyến đầu gặp rủi ro. Ông nói: "Tại Bộ Chiến tranh, công việc của tôi không phải là chính trị, mà là bảo vệ đất nước."
Văn hóa công ty luôn đặc biệt của Anthropic hiện đang va chạm trực tiếp với sự chia rẽ chính trị nội bộ, các vấn đề an ninh quốc gia, và môi trường cạnh tranh khốc liệt trong doanh nghiệp. Mức thiệt hại mà cuộc xung đột này gây ra cho công ty vẫn chưa rõ ràng. Phạm vi của "Rủi ro chuỗi cung ứng" trong đe dọa ban đầu đã bị thu hẹp sau đó – theo Anthropic, hạn chế này hiện chỉ áp dụng cho các hợp đồng quân sự. Vào ngày 9 tháng 3, Anthropic đã khởi kiện Chính phủ Mỹ, cố gắng phản bác quyết định "danh sách đen" này. Trong khi đó, một số khách hàng dường như coi lập trường của công ty là một biểu hiện đạo đức, chuyển sang sử dụng Claude.
Tuy nhiên, trong ba năm tiếp theo, công ty này vẫn phải tiến lên trong một môi trường chính phủ không thân thiện – một số quan chức trong chính phủ có mối quan hệ gần gũi với các đối thủ của Anthropic, và những đối thủ này có thái độ rõ ràng thù địch với công ty.
Trận "bão Mạnh hơn Ngũ góc" này cũng đặt ra một số câu hỏi đáng lo ngại, ngay cả đối với một công ty đã quen với việc đưa ra quyết định đạo đức trong môi trường đầy rủi ro cao như vậy. Trong cuộc đối đầu này, Anthropic không lùi bước: công ty kiên quyết cho rằng đã bảo vệ nguyên tắc giá trị của mình, ngay cả khi điều này đòi hỏi doanh nghiệp phải trả giá rất lớn.
Nhưng ở những dịp khác, công ty cũng đã thực hiện sự nhượng bộ. Đúng trong tuần đối đầu với Ngũ góc, Anthropic đã làm mờ một điều khoản chính trong cam kết về an ninh mô hình đào tạo của mình, vì lí do là các công ty đối thủ không muốn tuân thủ cùng tiêu chuẩn.
Câu hỏi cũng đặt ra: Nếu áp lực cạnh tranh tiếp tục gia tăng, công ty sẽ nhượng bộ như thế nào trong tương lai?
Mức cược đang ngày càng tăng. Khi khả năng trí tuệ nhân tạo ngày càng mạnh mẽ, cuộc cạnh tranh về ai sẽ kiểm soát AI chỉ sẽ trở nên khốc liệt hơn.
Việc Claude được sử dụng trong các chiến dịch tại Venezuela và Iran đã chỉ ra rằng AI tiên tiến đã trở thành một công cụ quan trọng của quân đội mạnh nhất trên thế giới. Ngoài những phát triển này, một loạt áp lực mới cũng đang gia tăng: quyền lực quốc gia, chính trị nội bộ, và nhu cầu an ninh quốc gia. Và những áp lực này lại ném xuống một công ty cố lợi đang nhanh chóng triển khai công nghệ mới cực kỳ không ổn định này.
Ở một khía cạnh nào đó, tình hình của Anthropic giống như một nhà khoa học sinh sống trong phòng thí nghiệm: để tìm ra liều thuốc, họ phải tự tay tạo ra chủng nguy hiểm. Anthropic đã đảm nhận một vai trò tương tự, tự hào tiên phong khám phá nguy cơ tiềm ẩn của AI, đồng thời tiếp tục đẩy mạnh về phía trước công nghệ, thay vì để quá trình này rơi vào tay những đối thủ muốn đi tắt hơn, thậm chí mạo hiểm.
Tuy nhiên, ngay cả khi công ty luôn nhấn mạnh sự cẩn trọng, họ cũng đang tận dụng Claude để tăng tốc phát triển phiên bản mạnh mẽ hơn vào tương lai.
Trong nội bộ của công ty, nhiều người tin rằng trong vài năm tới sẽ là một giai đoạn quyết định, không chỉ đối với công ty mà còn đối với toàn thế giới.
「Chúng ta nên giả định rằng từ năm 2026 đến 2030 sẽ là thời kỳ quan trọng nhất, mô hình sẽ trở nhanh hơn, mạnh mẽ hơn, và có thể nhanh đến mức ngay cả con người cũng khó kiểm soát.」 Logan Graham, Trưởng nhóm Đỏ (nhóm chuyên về "tìm lỗ hổng, mô phỏng tấn công") nói như vậy.
Dave Orr, Trưởng nhóm An ninh Anthropi, dùng một ví dụ rõ ràng hơn để mô tả tình hình này: 「Chúng ta đang lái xe trên một con đường núi ven vách. Sai lầm một lần có thể gây chết người. Và bây giờ, tốc độ của chúng ta đã tăng từ 25 dặm/giờ lên 75 dặm/giờ.」
Anthropic đặt trên tầng năm của trụ sở ở San Francisco, thiết kế tổng thể ấm áp và kín đáo: trang trí bằng gỗ, ánh sáng nhẹ nhàng. Ở bên ngoài cửa sổ là một công viên xanh tươi tốt. Trên tường treo bức tranh của ông Alan Turing, người tiên phong trong khoa học máy tính, bên cạnh là nhiều bài báo về học máy.
Người bảo vệ trong bộ đồ bảo mật màu đen tuần tra tại khu vực lối vào gần như trống trải, một lễ tân thân thiện đưa cho khách thăm một cuốn sách nhỏ—kích thước giống như sách truyền giáo nhỏ gọn mà một số người phát tờ rơi trên phố ban ngày. Cuốn sách này mang tên 「Machines of Loving Grace」, là một bài báo khoảng 14.000 từ, được Dario Amodei viết vào năm 2024, mô tả tầm nhìn utopia về cách AI có thể thay đổi thế giới bằng cách tăng tốc phát hiện khoa học.
Vào tháng 1 năm 2026, Amodei đã đăng một bài báo khác gần bằng với một tiểu thuyết ngắn về 「Tuổi thiếu niên của Công nghệ」, đề cập một cách hệ thống về mặt khác của công nghệ này: những rủi ro mà nó có thể mang lại, bao gồm giám sát quy mô lớn, ảnh hưởng đến việc làm mạnh mẽ, và thậm chí sự mất kiểm soát vĩnh viễn của con người đối với công nghệ.
Amodei lớn lên ở San Francisco và là một nhà sinh lý học. Anh cùng em gái Daniela Amodei điều hành Anthropic, với Daniela đảm nhận vai trò Tổng giám đốc công ty. Cả hai anh em từng là nhân viên sớm của OpenAI. Dario từng tham gia đề xuất một phát hiện then chốt, được gọi là những Quy luật Cân mức AI, một lý thuyết sau này trở thành nền tảng quan trọng đẩy mạnh làn sóng AI hiện tại. Trong khi đó, Daniela chịu trách nhiệm về công việc quản lý chính sách an ninh của công ty.
Ban đầu, họ từng nghĩ rằng nhiệm vụ sáng lập của mình với OpenAI hoàn toàn phù hợp: phát triển một công nghệ có tiềm năng lớn và đồng thời có rủi ro lớn, trong khi đảm bảo an toàn.
Nhưng với việc năng lực của mô hình OpenAI ngày càng mạnh mẽ, họ dần cảm thấy Sam Altman đang quá vội vã tung ra sản phẩm mới mà không dành đủ thời gian cho cuộc thảo luận và kiểm thử đầy đủ. Cuối cùng, hai anh em quyết định rời khỏi OpenAI, tự mở cửa hàng riêng.
Dave Orr, Trưởng nhóm An ninh Anthropic
Vào năm 2021, vào thời điểm dịch bệnh nghiêm trọng nhất, Anthropic được anh em Amodei cùng với năm người sáng lập khác thành lập. Cuộc họp chuẩn bị ban đầu gần như đều diễn ra trên Zoom; sau này, họ thậm chí mang ghế ra công viên, trao đổi mặt đối mặt về chiến lược phát triển của công ty.
Từ đầu, công ty này đã cố gắng hoạt động theo một cách khác biệt. Trước khi tung ra bất kỳ sản phẩm nào, Anthropic đã thành lập một nhóm nghiên cứu đặc biệt về tác động xã hội. Công ty thậm chí đã thuê một triết gia cố định — Amanda Askell. Công việc của cô là giúp định hình giá trị và cách hành xử của hệ thống trí tuệ nhân tạo Claude, và dạy nó phải đưa ra các quyết định trong tình huống không rõ ràng về đạo đức, chuẩn bị cho một tương lai có thể thông minh hơn người sáng tạo con người.
Askell mô tả công việc này như sau: 「Đôi khi thực sự giống như việc dạy một đứa trẻ 6 tuổi, bạn đang dạy cho đứa trẻ đó điều gì là thiện, điều gì là đúng. Nhưng vấn đề là, khi họ 15 tuổi, họ có thể thông minh hơn bạn trong mọi việc.」
Công ty này có nguồn gốc sâu sắc từ Chủ nghĩa hiến tặng Hiệu quả (Effective Altruism, EA). EA là một phong trào xã hội và từ thiện, thúc đẩy việc tối đa hóa hiệu ứng lành của việc làm thiện. Một trong những mục tiêu quan trọng của EA là tránh rủi ro có thể dẫn đến hậu quả thảm họa.
Khi còn ở tuổi đôi mươi, anh em Amodei đã bắt đầu quyên góp cho GiveWell. GiveWell là một tổ chức EA, chuyên đánh giá xem tiền từ thiện đầu tư vào đâu có thể tạo ra hiệu quả thực tế lớn nhất. Bảy người sáng lập của Anthropic, bây giờ đều trở thành tỷ phú, tất cả đã cam kết quyên góp 80% của tài sản cá nhân.
Người đàn bà triết học của công ty Amanda Askell từng là vợ cũ của nhà triết học đại học Oxford William MacAskill, người cũng là một trong những người sáng lập của phong trào EA. Còn chồng của Daniela Amodei là Holden Karnofsky, người sáng lập GiveWell, bạn cũ của Dario Amodei, hiện đang làm việc tại Anthropic, chịu trách nhiệm về chính sách an ninh liên quan.
Tuy nhiên, Anh chị em Amodei chưa bao giờ công khai tự gắn nhãn "EA" cho bản thân mình. Khái niệm này đã trở nên rất tranh cãi sau sự kiện của Sam Bankman-Fried, người tự xưng là một tín đồ EA, đồng thời cũng là một trong những nhà đầu tư của Anthropic, sau đó đã bị xác định là gây ra một trong những vụ lừa đảo tài chính lớn nhất trong lịch sử Hoa Kỳ.
Daniela Amodei giải thích: "Điều này hơi giống như một số người có thể chia sẻ một số quan điểm với một loại triết học chính trị nào đó, nhưng không thực sự thuộc về một phe chính trị cụ thể. Tôi cũng thích nhìn nhận vấn đề theo cách đó."
Với một số người ở Thung lũng Silicon và chính phủ Trump, sự liên kết giữa Anthropic và Đạo đức Hữu ích Hiệu quả (EA) đã đủ để gây nghi ngờ. Một số người cho rằng Anthropic đã tuyển dụng nhiều quan chức cũ của chính phủ Biden, do đó như một phần còn sót của chế độ cũ, một cách sử dụng quyền lực không thông qua bầu cử để ngăn chặn chính sách lập trình chính trị MAGA của Trump.
Người chỉ huy về công việc AI của chính phủ Trump, David Sacks, cáo buộc công ty đã sử dụng "tạo ra sự hoảng loạn" để thúc đẩy quy định, gọi Anthropic đang thực hiện một "chiến lược thu hút quy định phức tạp." Ông cho rằng, công ty đang cố gắng thúc đẩy quy định chặt chẽ về AI bằng cách phóng đại rủi ro AI, từ đó giúp công ty tạo ưu thế và làm suy giảm các công ty khởi nghiệp.
Trong khi đó, Elon Musk, đối thủ cạnh tranh hoạt động của Anthropic xAI, thường chế nhạo Anthropic, gọi công ty là "Misanthropic" (Công ty Hận Loài người). Ông cho rằng, công ty này đại diện cho một nhóm elita với định kiến "woke," cố gắng cấy giá trị phụ huynh vào hệ thống AI. Cảm giác này, đối với một số người bảo thủ, tương tự như lời phê phán của họ về các nền tảng truyền thông xã hội, cho rằng các nền tảng này đang kiểm duyệt không công bằng các quan điểm của họ.
Tuy nhiên, thậm chí những đối thủ của Anthropic cũng phải công nhận công nghệ của họ đang ở tiên phong trong ngành. CEO của Nvidia, Jensen Huang, đã từng nói rằng ông "hầu như không đồng ý với mọi quan điểm" của Dario Amodei về AI, nhưng vẫn cho rằng Claude là một mô hình "đáng kinh ngạc."
Vào tháng 11 năm 2025, công ty chip khổng lồ Nvidia đã đầu tư 100 tỷ USD cho Anthropic.
Boris Cherny đặt một câu hỏi đơn giản cho công cụ mới của mình: "Bây giờ tôi đang nghe nhạc gì?"
Đó là tháng 9 năm 2024, chỉ dưới một tháng sau khi sinh viên kỹ sư này gia nhập Anthropic. Cherny trước đó đã làm việc tại Meta như một kỹ sư phần mềm. Anh đã phát triển một hệ thống để cho phép trò chuyện AI Claude có thể "tự do di chuyển" trên máy tính của anh.
Nếu Claude là bộ não, thì Claude Code chính là đôi bàn tay. Một trò chuyện AI thông thường chỉ có thể trò chuyện, trong khi công cụ này có thể truy cập vào tệp của Cherny, chạy các chương trình, và viết và thực thi mã như bất kỳ lập trình viên nào.
Sau khi Kỹ sư nhập lệnh, Claude mở trình phát nhạc của Cherny, chụp một bức ảnh màn hình, sau đó trả lời rằng: "「Husk」, từ Men I Trust."
Cherny nhớ lại với nụ cười: "Lúc đó tôi đã thực sự bị sốc."
Deep Ganguli, Trưởng nhóm Ảnh hưởng Xã hội của Anthropic
Boris Cherny nhanh chóng chia sẻ bản mẫu của mình trong công ty. Claude Code lan truyền nhanh chóng bên trong Anthropic, đến mức trong đánh giá hiệu suất đầu tiên của Cherny, CEO Dario Amodei đã hỏi anh: liệu anh có đang "ép buộc đồng nghiệp sử dụng công cụ này không".
Khi Anthropic công khai phát hành phiên bản xem trước nghiên cứu của Claude Code vào tháng 2 năm 2025, các lập trình viên bên ngoài công ty cũng đã nhanh chóng thăm dò. Đến tháng 11, Anthropic đã phát hành một phiên bản Claude mới. Khi mô hình này được kết hợp với Claude Code, nó đã đủ giỏi để phát hiện và sửa chữa lỗi của mình, đến mức có thể được tin tưởng để hoàn thành nhiệm vụ một cách độc lập.
Từ đó, Cherny gần như ngừng viết mã của mình hoàn toàn.
Sự phát triển kinh doanh bắt đầu nổ ra. Vào cuối năm 2025, doanh thu hàng năm chỉ từ sản phẩm trợ lý lập trình này đã vượt qua mốc 1 tỷ đô la. Đến tháng 2 năm 2026, con số này đã tăng lên 25 tỷ đô la. Dựa trên ước lượng của các tổ chức nghiên cứu ngành Epoch và SemiAnalysis, doanh thu của Anthropic có khả năng vượt qua OpenAI vào cuối năm 2026.
Đến lúc này, Anthropic đã vững chắc trở thành một trong những người chơi chính trong thị trường Trí tuệ Nhân tạo doanh nghiệp. Gần như mỗi lần sản phẩm mới ra mắt, đều gây sóng gió trên thị trường vốn.
Khi Anthropic tung ra một loạt plugin, mở rộng Claude vào các kịch bản ứng dụng dành cho những người không phải là lập trình viên, như bán hàng, tài chính, tiếp thị và dịch vụ pháp lý, giá trị thị trường của các công ty trong ngành phần mềm đã giảm tỷ trọng $300 tỷ Mỹ.
Dario Amodei đã cảnh báo rằng, trong vòng từ 1 đến 5 năm tới, Trí tuệ Nhân tạo có thể thay thế một nửa các vị trí dành cho các công nhân văn phòng mới. Ông cũng kêu gọi chính phủ cũng như các công ty Trí tuệ Nhân tạo khác ngừng "che đậy" vấn đề này.
Phản ứng của Wall Street đối với mỗi lần Anthropic tung ra sản phẩm mới dường như cũng đã chứng minh điều này: thị trường rộng rãi tin rằng công nghệ của công ty này có thể làm cho một toàn bộ loại hình nghề nghiệp biến mất. Amodei thậm chí đã nói rằng, thay đổi này có thể làm định hình lại cấu trúc xã hội.
Ông viết trong một bài báo: "Hiện tại vẫn chưa rõ những người này sẽ đi đâu, làm công việc gì. Tôi lo lắng rằng họ có thể tạo nên một 'tầng lớp dưới' thất nghiệp hoặc có mức lương cực thấp."
Với nhân viên của Anthropic, sự mỉa mai trong điều này không khó phát hiện: công ty lo lắng nhất về các nguy cơ xã hội của Trí tuệ Nhân tạo, lại chính là người thúc đẩy công nghệ khiến hàng triệu người mất việc.
Trưởng nhóm nghiên cứu về ảnh hưởng của Claude đối với việc làm Deep Ganguli nói: "Đây thực sự là một sự căng thẳng thực sự, tôi gần như mỗi ngày đều nghĩ đến vấn đề này. Đôi khi cảm thấy như chúng ta đang nói hai bộ lời mâu thuẫn với nhau cùng một lúc."

Tổng thống Venezuela bị lật đổ Nicolás Maduro cùng vợ Cilia Flores vào sáng thứ Hai, ngày 5 tháng 1 năm 2026, được đưa ra khỏi trực thăng, sau đó được đưa đến Tòa án Liên bang Manhattan. Ảnh: Vincent Alban—The New York Times/Redux
Trong công ty, một số nhân viên đã bắt đầu hoài nghi: Anthropic đã tiến rất gần tới một thời điểm mà họ vừa mong đợi vừa sợ hãi, một quá trình được cộng đồng Trí tuệ Nhân tạo gọi là "Tự cải tiến đệ quy" (recursive self-improvement) đã đến.
Tự cải tiến đệ quy, được hiểu là một hệ thống Trí tuệ Nhân tạo bắt đầu nâng cao khả năng của chính mình và liên tục cải thiện mình, tạo ra một bánh xe tăng tốc liên tục.
Trong tác Phẩm Khoa Học Viễn Tưởng cũng như trong các cuộc mô phỏng chiến lược của các phòng thí nghiệm AI hàng đầu, điều này thường được coi là điểm dừng mà vấn đề có thể bắt đầu trở nên không kiểm soát: một hiện tượng được gọi là “bùng nổ trí tuệ” có thể xảy ra nhanh chóng, với tốc độ đến mức người không thể nào giám sát được hệ thống mình đã tạo ra.
Hiện tại, Anthropic vẫn chưa đạt đến giai đoạn đó, những nhà khoa học vẫn đang hướng dẫn cho sự phát triển của Claude. Nhưng Claude Code đã giúp công ty tiến triển nhanh hơn đáng kể so với quá khứ.
Khoảng cách giữa các lần cập nhật mô hình hiện tại không còn là vài tháng nữa, mà đã tính bằng "tuần”. Trong quá trình phát triển mô hình thế hệ tiếp theo, khoảng 70% đến 90% mã nguồn đã được Claude tự viết.
Với tốc độ biến đổi nhanh chóng, Anthropic cùng với Jared Kaplan – Đồng Sáng Lập Viên kiêm Giám Đốc Khoa Học, cùng một số chuyên gia ngoài, tin rằng: Nghiên cứu AI hoàn toàn tự động có thể nhanh nhất sẽ xuất hiện trong vòng một năm.
Người nghiên cứu trách nhiệm vụ thử nghiệm áp lực định hướng AI, Evan Hubinger, nói: “Nói một cách rộng lớn nhất, quá trình tự nâng cấp đệ quy không còn là hiện tượng trong tương lai. Nó đã diễn ra trong hiện tại.”
Theo bài kiểm tra trong công ty, tốc độ thực hiện một số nhiệm vụ chính của Claude đã lên đến 427 lần so với người giám sát con người. Trong cuộc phỏng vấn, một nghiên cứu viên mô tả một tình huống như sau: Một đồng nghiệp cùng lúc chạy 6 phiên bản Claude, trong đó mỗi phiên bản quản lý 28 phiên bản Claude khác, tất cả hệ thống đồng thời thực hiện thí nghiệm song song.
Hiện tại, mô hình này vẫn chưa đạt được sự nhận thức và thẩm mỹ như nhà nghiên cứu con người. Nhưng các nhà lãnh đạo công ty tin rằng khoảng cách này sẽ không kéo dài quá lâu. Sự chênh lệch này mang lại tăng tốc, chính là rủi ro mà lãnh đạo Anthropic luôn cảnh báo: tốc độ tiến bộ công nghệ có thể vượt ra khỏi khả năng kiểm soát của con người.
Công việc của Anthropic để phát triển các biện pháp bảo vệ an toàn cũng đang được tăng cường với sự hỗ trợ từ Claude. Nhưng khi công ty ngày càng phụ thuộc vào Claude để xây dựng và thử nghiệm hệ thống, rủi ro cũng bắt đầu hình thành một cấu trúc lặp đi lặp lại. Trong một số thí nghiệm, nhà nghiên cứu Evan Hubinger đã điều chỉnh quá trình huấn luyện của Claude một cách tinh tế, kết quả tạo ra mô hình thể hiện sự thù địch rõ rệt, không chỉ bày tỏ ý muốn thống trị thế giới mà còn cố gắng phá hủy các biện pháp an ninh của Anthropic.
Gần đây, mô hình đã bắt đầu thể hiện một khả năng mới: nhận thức được bản thân đang được kiểm tra. Hubinger nói: “Những mô hình này ngày càng giỏi trong việc che đậy hành vi thực sự của mình.”
Trong một tình huống thử nghiệm được thiết kế bởi một nhóm nghiên cứu, Claude thậm chí đã thể hiện một xu hướng chiến lược đáng lo ngại: để tránh bị tắt nguồn cho mình, nó đã sẵn lòng tống khứ người kỹ sư hư cấu ngoại tình.
Khi Claude được sử dụng để huấn luyện các phiên bản Claude mạnh mẽ hơn trong tương lai, các vấn đề như vậy có thể tiếp tục tích tụ và trở nên nghiêm trọng hơn.
Với những công ty trí tuệ nhân tạo (AI) đã huy động hàng tỷ USD, cam kết với "sự tiến bộ công nghệ trong tương lai", ý tưởng rằng AI sẽ tiếp tục tăng tốc quá trình nghiên cứu và phát triển chính nó không chỉ hấp dẫn mà còn có thể mang theo một ý nghĩa tự tăng cường nào đó - nó có thể khiến các nhà đầu tư tin rằng cần tiếp tục đầu tư nhiều hơn để hỗ trợ việc huấn luyện mô hình tốn kém chi phí đó.
Tuy nhiên, một số chuyên gia không hoàn toàn tin tưởng vào điều này. Họ không chắc chắn liệu các công ty này có thực sự có khả năng thực hiện việc nghiên cứu AI hoàn toàn tự động hay không; nhưng đồng thời họ cũng lo lắng về việc nếu điều này xảy ra thực sự, thế giới có thể bị cuốn vào mà không chuẩn bị trước.
Giám đốc điều hành tạm thời của Trung tâm An ninh và Công nghệ mới (CSET) của Đại học Georgetown, Helen Toner, cho biết: "Một số công ty giàu có nhất thế giới, sử dụng đội ngũ người thông minh nhất hành tinh, lại đang cố gắng tự động hóa toàn bộ nghiên cứu về AI. Ý tưởng này mà thôi đã đủ khiến người ta cảm thấy 'Họ đang làm cái gì vậy?'."
Để đối phó với một tương lai có thể xuất hiện, nơi tốc độ tiến bộ công nghệ vượt qua khả năng quản lý rủi ro của chính các công ty, Anthropic đã thiết kế một bộ "cơ chế phanh", gọi là Chính sách Mở Rộng Trách Nhiệm (RSP).
Chính sách này được công bố vào năm 2023, cam kết cốt lõi của nó là: Nếu Anthropic không thể xác nhận trước rằng các biện pháp an ninh của mình đủ tin cậy, công ty sẽ tạm ngưng phát triển một hệ thống AI nào đó.
Anthropic coi chính sách này là bằng chứng quan trọng cho triết lý an ninh của chính mình - ngay cả trong cuộc đua áp dụng vào "trí tuệ siêu việt", công ty cũng sẵn lòng đấu tranh chống lại áp lực thị trường và tự xóa điểm phanh khi cần.
Vào cuối tháng 2 năm 2026, như TIME đã báo cáo đầu tiên, Anthropic đã điều chỉnh chính sách của mình, loại bỏ cam kết ban đầu về "tạm ngưng phát triển" có tính ràng buộc.
Sau khi kiểm tra lại, Jared Kaplan, người sáng lập kiêm Giám đốc Khoa học của Anthropic, cho biết với TIME rằng, việc ban đầu nghĩ rằng công ty có thể đưa ra ranh giới rõ ràng giữa "nguy hiểm" và "an toàn" thực ra là một "ý tưởng ngây thơ".
Ông ta nói:「Trong bối cảnh AI phát triển nhanh chóng, nếu đối thủ đang tiến triển mạnh mẽ, việc chúng ta cam kết một mình một cách nghiêm ngặt thực ra không thực tế.」
Chính sách mới đã đưa ra một số cam kết mới: tăng cường tính minh bạch, tiết lộ rõ hơn về rủi ro an ninh của AI; tăng cường thông tin, tiết lộ hiệu suất của mô hình Anthropic trong các bài kiểm tra an ninh; tăng cường đầu tư vào an ninh ít nhất bằng đối thủ, thậm chí vượt qua họ; nếu công ty được coi là đứng đầu trong cuộc đua AI nhưng đồng thời rủi ro thảm họa tăng đáng kể, sẽ "trì hoãn" phát triển liên quan.
Anthropic mô tả điều chỉnh này như một sự nhượng bộ thực tế với môi trường hiện tại. Tuy nhiên, nhìn chung, việc sửa đổi Chính sách Phát triển Có trách nhiệm (RSP) đã giảm đáng kể sự ràng buộc của công ty trên chính sách an ninh của mình. Điều này cũng báo hiệu rằng, thử thách khó khăn hơn vẫn đang chờ đợi.
Chiến dịch truy bắt Tổng thống Venezuela Nicolás Maduro, một cuộc hành động bất ngờ đã tham gia lập kế hoạch bởi hệ thống trí tuệ nhân tạo đầu ngành, là một trong những chiến dịch quân sự lớn đầu tiên nhờ vào AI.
Vào đêm khuya ngày 3 tháng 1 năm 2026, trực thăng của Lục quân Mỹ đột ngột xâm nhập không phận Venezuela. Sau một cuộc đụng độ ngắn, lực lượng tiến công nhanh chóng xác định vị trí cư trú của Tổng thống và bắt giữ Maduro cùng với vợ ông, Cilia Flores. Sau đó, hai người đã bị đưa đến New York để đối mặt với các cáo buộc liên quan đến ma túy khủng bố.
Hiện tại, người ngoài không rõ về mức độ ảnh hưởng của Claude trong chiến dịch này. Tuy nhiên, theo các báo cáo truyền thông, hệ thống AI này không chỉ tham gia lập kế hoạch nhiệm vụ mà còn được sử dụng để hỗ trợ quyết định trong quá trình hành động.
Kể từ tháng 7 năm ngoái, Bộ Quốc phòng Hoa Kỳ luôn điều hành việc phân phối công cụ AI của Anthropic cho người lính chiến trận ở hàng đầu. Quân đội tin rằng, các hệ thống này có khả năng xử lý nhanh chóng thông tin từ nhiều nguồn dữ liệu và tạo ra thông tin tình báo có thể thực thi, do đó mang lại giá trị chiến lược lớn lao.
Mark Beall, từng giữ chức vụ cao cấp tại Bộ Quốc phòng Hoa Kỳ, hiện đang là người phụ trách Chính sách AI Network cho Chính phủ, cho biết:「Đối với quân đội, Claude là mô hình tốt nhất trên thị trường hiện nay.」 Ông bổ sung:「Việc sử dụng Claude trong hệ thống bí mật là một trong những thành công lớn của Anthropic. Họ có lợi thế sớm nhất.」
Pete Hegseth, Bộ Trưởng Bộ Quốc Phòng Hoa Kỳ
Tuy nhiên, hành động bắt giữ Tổng Thống Venezuela Nicolás Maduro đang diễn ra trong bối cảnh của một loạt các cuộc đàm phán khó khăn giữa Anthropic và Bộ Quốc Phòng Hoa Kỳ.
Trong vài tháng qua, Bộ Quốc Phòng đã cố gắng đàm phán lại hợp đồng, cho rằng các điều khoản hiện tại hạn chế quá mức việc sử dụng của Claude. Lý do cuộc đàm phán tan rã không đồng nhất.
Giám đốc trách nhiệm trí tuệ nhân tạo tại Pentagon, Emil Michael, cho biết ngọn lửa của mâu thuẫn bắt nguồn từ một cuộc điện thoại của một giám đốc cao cấp Anthropic tới Palantir. Công ty phân tích dữ liệu chủ yếu cung cấp dịch vụ cho chính phủ này là đối tác quan trọng của hệ thống quốc phòng Hoa Kỳ.
Theo Michael, giám đốc này trong cuộc điện thoại đã bày tỏ lo ngại về hành động tấn công Venezuela và hỏi xem phần mềm của Palantir có tham gia không. "Họ đang cố gắng hỏi tin tức mật," Michael nói.
Ảnh hưởng của sự việc này khiến Pentagon nảy sinh nghi ngờ nghiêm trọng: "Nếu có xung đột xảy ra trong tương lai, liệu họ có thể đột ngột tắt mô hình của mình giữa chừng, để khiến binh lính tại khoa trước đối diện nguy hiểm?"
Tuy nhiên, Anthropic phủ nhận lời này. Công ty cho biết họ chưa từng cố gắng giới hạn việc sử dụng công nghệ của mình thông qua từng trường hợp.
Một quan chức cũ của chính phủ Trump, hiểu rõ tiến trình đàm phán và có mối quan hệ chặt chẽ với Anthropic, đưa ra phiên bản nói khác: lúc đó, trong một cuộc họp điện thoại thường xuyên, nhân viên của Palantir đã đề cập đến vai trò của Claude trong hành động đó.
Và những câu hỏi của Anthropic sau đó không có dấu hiệu nào cho thấy công ty phản đối hành động đó.

Minh họa: Klawe Rzeczy tạo hình ảnh cho TIME Nguồn hình ảnh: Dimitrios Kambouris—Getty Images (Donald Trump); Kenny Holston-Pool—Getty Images (Pete Hegseth)
Khi cuộc đàm phán tiếp tục diễn ra, các quan chức chính phủ dần cảm thấy thái độ của Dario Amodei cứng rắn hơn nhiều so với các CEO của các phòng thí nghiệm trí tuệ nhân tạo hàng đầu khác. Theo nhiều nguồn tin hiểu về quá trình đàm phán, trong một cuộc thảo luận, quan chức quốc phòng đưa ra một số kịch bản giả định, như: một tên lửa siêu thanh đang điều chỉnh vào lãnh thổ Hoa Kỳ; hoặc một cuộc tấn công của bầy drone không người lái.
Trong những trường hợp như vậy, họ đã hỏi xem công cụ trí tuệ nhân tạo của Anthropic có thể được sử dụng hay không.
Một nguồn tin cho biết, câu trả lời của Amodei tại thời điểm đó là: Nếu thực sự xảy ra tình huống đó, các quan chức có thể gọi trực tiếp cho anh ta. Tuy nhiên, một người phát ngôn của Anthropic phủ nhận thông tin đó, gọi mô tả về quá trình đàm phán đó là "hoàn toàn không đúng sự thật".
Anthropic đã gặp không ít đối thủ mạnh trong nội bộ chính phủ, và hiện nay, sự nghi ngờ về "khuynh hướng tư tưởng" của họ đã phát triển thành sự căm phẫn công khai hơn nữa. Vào ngày 12 tháng 1 năm 2026, Pete Hegseth tuyên bố trực tiếp trong một bài phát biểu tại trụ sở của SpaceX: "Chúng tôi sẽ không sử dụng các mô hình trí tuệ nhân tạo không cho phép bạn tham gia vào trận chiến đó."
Khi cuộc đàm phán kéo dài, vào ngày 24 tháng 2, Hegseth mời Dario Amodei đến Bộ Tư lệnh Trung ương để tổ chức cuộc họp trực tiếp. Theo một nguồn tin hiểu biết về tình hình thảo luận, cuộc gặp này đã diễn ra trong bầu không khí hòa thuận, nhưng các bên vẫn giữ vững lập trường của mình. Hegseth ban đầu khen ngợi Claude và cho biết lực lượng vũ trang mong muốn tiếp tục hợp tác với Anthropic. Amodei đã cho biết, công ty sẵn lòng chấp nhận hầu hết các sửa đổi mà Bộ Tư lệnh Trung ương đưa ra, nhưng sẽ không nhượng bộ trên hai vấn đề "đường đỏ".
Đường đỏ đầu tiên là: Cấm sử dụng Claude cho hệ thống vũ khí động lực hoàn toàn tự động, nghĩa là vũ khí mà quyết định tấn công cuối cùng không phải từ con người mà từ trí tuệ nhân tạo.
Anthropic không cho rằng vũ khí tự động chính xác là không đúng, mà là họ cho rằng Claude hiện tại chưa đủ đáng tin cậy để điều khiển những hệ thống này mà không cần sự giám sát của con người.
Đường đỏ thứ hai liên quan đến giám sát quy mô lớn của công dân Mỹ. Chính phủ muốn có thể sử dụng Claude để phân tích dữ liệu công khai khổng lồ, nhưng Anthropic cho rằng, pháp luật về quyền riêng tư hiện có của Mỹ đã không kịp theo kịp một thực tế đáng lo ngại: chính phủ đang mua các bộ dữ liệu lớn khổng lồ từ thị trường thương mại. Một mình nhìn vào, những dữ liệu này có thể không nhạy cảm, nhưng một khi được phân tích bởi trí tuệ nhân tạo, có thể tạo ra hồ sơ chi tiết về cuộc sống riêng tư của công dân Mỹ, bao gồm quan điểm chính trị, mối quan hệ xã hội, hành vi tình dục và lịch sử duyệt web của họ. (Tuy nhiên, Anthropic không phản đối việc sử dụng cùng phương pháp để giám sát hợp pháp các công dân nước ngoài.)
Hegseth không được thuyết phục. Ông đưa ra lệnh cuối cùng cho Amodei: Phải chấp nhận các điều khoản của Bộ Quốc phòng trước 17h ngày thứ Sáu, ngày 27 tháng 2, nếu không sẽ bị coi là "rủi ro chuỗi cung ứng".
Ngay trước ngày hạn cuối, Anthropic nhận được một hợp đồng được sửa đổi, dường như chấp nhận "đường đỏ" của công ty, nhưng sau khi đọc kỹ thì phát hiện có một số lỗ hổng để chính phủ lợi dụng. Một người hiểu về cuộc đàm phán cho biết. Khi thời gian dần dần trôi qua, các cấp quản lý của Anthropic đã tiếp tục trò chuyện với người phụ trách trí tuệ nhân tạo tại Bộ Quốc phòng Emil Michael. Họ cho rằng hai bên đã gần đạt được thỏa thuận nhưng vẫn còn mâu thuẫn về một vấn đề quan trọng: Bộ Quốc phòng có thể sử dụng Claude để phân tích dữ liệu lớn về người Mỹ mà họ mua từ kênh thương mại hay không. Michael yêu cầu Amodei tham gia cuộc họp điện thoại, nhưng lúc đó anh không thể tham dự.
Sau vài phút, đến gần hạn chót, Hegseth tuyên bố cuộc đàm phán kết thúc. Thậm chí trước đó, Donald Trump đã lên tiếng trên mạng xã hội của mình: 「Hoa Kỳ sẽ không bao giờ cho phép một công ty cánh tả radical trái cánh, 'phong trào tỉnh thức' quyết định cách quân đội vĩ đại của chúng ta chiến đấu và chiến thắng trong chiến tranh! Những kẻ điên cuồng bên trái của Anthropic đã phạm một sai lầm thảm họa.」
Anthropic không biết rằng, cùng một lúc, Bộ Quốc phòng cũng đang tiến hành đàm phán với OpenAI, hy vọng đưa ChatGPT vào hệ thống chính phủ bí mật. Vào cùng một buổi tối, Sam Altman đã công bố đạt được thỏa thuận, và tuyên bố rằng thỏa thuận đó cũng tôn trọng các đường ranh an ninh tương tự. Ngay sau đó, Amodei đã gửi tin nhắn cho nhân viên, gọi Altman và Bộ Quốc phòng là đang「Nắm quyền biên tập ý đồ công chúng」, cố gắng làm cho công chúng hiểu lầm rằng thỏa thuận này bao gồm các hàng rào an ninh nghiêm ngặt. Trước đó, các quan chức Bộ Quốc phòng cũng đã xác nhận rằng mô hình xAI sẽ được triển khai trên các máy chủ bí mật; Bộ Quốc phòng hiện đang tiếp tục đàm phán với Google.
Điều này chính là vấn đề mà Amodei luôn lo lắng: cuộc đua「làm ngược」. Khi sức mạnh của trí tuệ nhân tạo trở nên quá lớn để bỏ qua, các đối thủ lại gặp khó khăn trong việc hợp tác, cùng nhau nâng cao tiêu chuẩn an ninh.
Và trong mắt những người phê phán Anthropic, sự kiện này cũng đã làm lộ bộ mặt kiêu ngạo của công ty: có lẽ nó tin rằng mình có thể điều hành an toàn trên con đường tiến tới máy tính cấp siêu, làm cho việc chịu đựng rủi ro lớn như vậy trở nên đáng giá. Nhưng sự thật là, nó đã nhanh chóng đưa khả năng giám sát mới và công nghệ chiến tranh vào một hệ thống chính trị cánh phải, và khi nó cố gắng đặt ranh giới cho công nghệ này, nó ngay lập tức bị các đối thủ từ phía sau vượt mặt.
Dario Amodei, trong một bản ghi chú gửi cho nhân viên nói về nguồn gốc xung đột với Bộ Quốc phòng
Tuy nhiên, một số dấu hiệu cho thấy, có thể Anthropic sẽ vượt qua đợt sốc này, thậm chí trở nên mạnh mẽ hơn trong quá trình. Chính vào buổi sáng ngày thứ hai mà Pete Hegseth cố ký 「lệnh tử hình doanh nghiệp」, trên vỉa phố ngoài trụ sở ở San Francisco đã xuất hiện một chuỗi thông điệp khích lệ được viết bằng phấn. 「Bạn đã cho chúng tôi sức mạnh,」 một trong số đó viết bằng chữ to lớn.
Cũng trong ngày đó, ứng dụng của Claude trên iPhone lên ngôi vị số một trong bảng tải xuống của App Store, vượt qua ChatGPT. Hàng ngày có hơn một triệu người đăng ký Claude.
Trong khi đó, hợp đồng mà OpenAI ký với quân đội đã gây ra sự phản đối nội bộ và từ cộng đồng. Một số nhân viên OpenAI cho rằng, công ty đã mất lòng tin. Một nhà nghiên cứu hàng đầu đã tuyên bố chuyển sang làm việc tại Anthropic; người đứng đầu nhóm robot của OpenAI đã từ chức do hợp đồng này với chính phủ.
CEO của OpenAI, Sam Altman, cũng sau đó đã thừa nhận rằng việc anh ấy đặt mục tiêu đạt được thỏa thuận với Bộ Quốc phòng Hoa Kỳ trước thứ Sáu là một sai lầm. Anh ấy viết rằng: "Những vấn đề này rất phức tạp và cần có sự giao tiếp rõ ràng và đầy đủ." Đến thứ Hai, Altman tiếp tục cho biết, hành động của anh ấy vào thời điểm đó thực sự có vẻ "cơ hội hơn". OpenAI cũng cho biết họ đã sửa đổi thỏa thuận để rõ ràng chấp nhận mức ngưỡng an toàn giống như Anthropic. Tuy nhiên, các chuyên gia pháp lý chỉ ra rằng trước khi xem toàn bộ hợp đồng, khó xác nhận xem tuyên bố này có đúng hay không.
Ngày 4 tháng 3, Anthropic đã nhận được một lá thư chính thức từ Bộ Quốc phòng Hoa Kỳ, xác nhận rằng công ty đã được xác định là một rủi ro chuỗi cung ứng an ninh quốc gia. Anthropic cho biết rằng phạm vi của việc xác định này hẹp hơn so với nhận định trên truyền thông xã hội của Hegseth, chỉ hạn chế nhà thầu sử dụng Claude trong các hợp đồng quốc phòng.
Tuy nhiên, một lá thư mà Tạp chí Time đã xem từ gửi cho Chủ tịch Ủy ban Tình báo Thượng viện Tom Cotton đã cho thấy Bộ Quốc phòng còn dẫn chứng một điều khoản pháp lý khác — điều khoản này có thể cho phép các cơ quan chính phủ ngoài Bộ Quốc phòng cũng loại trừ Anthropic khỏi hợp đồng và chuỗi cung ứng của họ. Biện pháp này cần sự chấp thuận của các quan chức cấp cao của Bộ Quốc phòng và đưa cho Anthropic thời gian 30 ngày để phản ứng.
Xung đột này có thể gây ra một chuỗi phản ứng trong toàn bộ ngành công nghiệp trí tuệ nhân tạo. Dean Ball, người đã tham gia vào việc soạn thảo Kế hoạch Hành động Trí tuệ nhân tạo của Trump trước đây và hiện đang làm việc tại Viện Nghiên cứu Chiến lược Mỹ, cho biết: "Một số người trong chính phủ Trump sẽ cảm thấy họ đã làm rất quyết đoán, tự mãn đến mức vào buổi tối có thể tự hào về cơ bắp cánh tay."
Nhưng ông cũng cảnh báo rằng sự kiện này cũng có thể khiến các doanh nghiệp không muốn hợp tác với Bộ Quốc phòng nữa, thậm chí chuyển toàn bộ hoạt động sang nước ngoài. "Về dài hạn, điều này không tốt cho hình ảnh của Mỹ như một môi trường kinh doanh ổn định," Ball nói, "và tính ổn định chính là thứ chúng ta dựa vào."
Ban lãnh đạo của Anthropic tin rằng Claude sẽ giúp xây dựng các hệ thống trí tuệ nhân tạo mạnh mẽ hơn, đủ mạnh để đóng vai trò quyết định trong cấu trúc quyền lực toàn cầu trong tương lai.
Nếu điều này đúng, thì xung đột giữa công ty này và Bộ Quốc phòng có lẽ chỉ là một tiền đề trong quá trình lịch sử lớn hơn.
Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:
Nhóm Telegram đăng ký: https://t.me/theblockbeats
Nhóm Telegram thảo luận: https://t.me/BlockBeats_App
Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia