BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
lang
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
Trang chủ
Cộng đồng
AI AI
Tin nhanh
Bài viết
Sự kiện
Thêm
Thông tin tài chính
Chuyên đề
Hệ sinh thái chuỗi khối
Mục nhập
Podcast
Data
OPRR

解读 "Anthropic" 与 "War Room" 之争,特朗普意欲何为?

Đọc bài viết này mất 26 phút
Trong những thập kỷ tới, sự tự do của chúng ta có thể mềm dẻo hơn chúng ta tưởng.
原文标题:Clawed
原文作者:Dean W. Bal
编译:Peggy,BlockBeats


编者按:Khi trải nghiệm cá nhân về sự sống và cái chết kết hợp với sự thăng trầm của hệ thống quốc gia, câu chuyện chính trị không còn chỉ là cuộc tranh luận trừu tượng về hệ thống mà trở thành một hình thức thấu hiểu cảm xúc sâu sắc. Bài viết bắt đầu với sự ra đi của cha và việc con cái ra đời, mở rộng "cái chết là một quá trình" này từ hiểu biết cá nhân sang sự suy tư về tình trạng hiện tại của cơ cấu cộng hòa Hoa Kỳ. Đối với tác giả, cuộc xung đột hiện nay giữa các công ty trí tuệ nhân tạo và chính phủ không chỉ là một sự kiện đơn lẻ mà là một dạng phản ánh của việc lỏng lẻo của hệ thống trong thời gian dài và mất cân bằng quyền lực.


Bài viết tập trung vào sự tranh cãi giữa Anthropic và hệ thống quốc phòng Hoa Kỳ, từ điều khoản hợp đồng, ranh giới chính sách đến mối đe dọa "nguy cơ chuỗi cung ứng", điều được thảo luận không chỉ là cuộc cạnh tranh giữa doanh nghiệp và chính phủ mà là một vấn đề cốt lõi hơn: trong thời đại trí tuệ nhân tạo tiên tiến, quyền lực nên ở tay ai? Có phải là doanh nghiệp tư nhân, quyền lực hành pháp, hay một cơ chế công cộng chưa trưởng thành nào đó? Khi an ninh quốc gia trở thành lí do mở rộng quyền lực, khi biện pháp chính sách ngày càng phụ thuộc vào sắp đặt tạm thời và bắt buộc, cảm giác luật pháp và tính dự đoán của cơ cấu cộng hòa có đang giảm sút không?


Sự tiến hóa công nghệ và thay đổi cơ cấu có thể xảy ra đồng thời, và sự giao cắt giữa hai yếu tố này thường ảnh hưởng đến hướng đi của một thời kỳ. Tác giả không chỉ đặt câu hỏi về hành vi của chính phủ mà còn lưu giữ hy vọng vào việc xây dựng cấu trúc tương lai, đồng thời nhắc nhở độc giả rằng không nên đơn giản hóa "kiểm soát dân chủ" thành "kiểm soát chính phủ". Trong bối cảnh tiến triển nhanh chóng của trí tuệ nhân tạo và việc tái tạo mô hình quản trị, cuộc tranh luận này có lẽ chỉ là mở đầu. Cách thức để đạt được sự cân bằng mới giữa an ninh, hiệu quả và tự do sẽ trở thành một vấn đề quan trọng mà tương lai phải đối mặt trong thời gian dài.


Dưới đây là bản gốc:


Hơn mười năm trước, tôi ngồi bên cạnh cha, nhìn anh ta ra đi. Sáu tháng trước đây, anh ta vẫn là một người năng động, mạnh mẽ hơn cả người hôm nay, lái xe đạp nhanh hơn nhiều so với hầu hết những người trẻ độ tuổi hai mươi, mạnh mẽ hơn, bền bỉ hơn. Rồi một ngày, anh ta phải phẫu thuật tim, từ đó không còn là người cũ nữa. Linh hồn anh ta dường như bị rút ra, ánh sáng trong đôi mắt mất đi. Đôi khi, anh ta cũng có thể hồi phục một chút, ông cha quen thuộc dường như tái xuất vào cơ thể già yếu của anh ta dần dần già đi, nhưng những khoảnh khắc như vậy càng ngày càng ít đi. Ý thức của anh ta trở nên gián đoạn, giọng nói cũng trở nên yếu đi.


Trong chín sáu tháng đó, anh ta liên tục phải nhập viện. Vào ngày cuối cùng, anh ta được chuyển sang chăm sóc cuối đời. Ngày đó, ông ta gần như không nói một lời nào. Trong những giờ cuối cùng của cuộc sống, anh ta gần như đã rời bỏ thế giới này. Anh ta nằm trên giường bệnh, hơi thở dần chậm lại, giọng nói càng ngày càng yếu đi. Cuối cùng, gần như không thể nghe thấy, chỉ còn lại một loại "âm thanh cuối đời" không an lòng - đó là kết quả của việc cơ thể không còn khả năng nuốt được nữa. Một cơ thể không thể nuốt, cũng không thể ăn hoặc uống nước nữa, ở một khía cạnh, nó đã từ bỏ cuộc chiến.


Mẹ và tôi nhìn nhau, trong lòng hai đứa, chúng tôi đều hiểu nhưng không nói ra sự thật rõ ràng đó, cũng chẳng hỏi những câu hỏi trong lòng. Chúng tôi biết thời gian không còn nhiều. Lúc này, bất kỳ lời nào, câu hỏi nào cũng không thể mang lại thông tin hữu ích; việc thúc giục chỉ làm thêm đau khổ.


Tôi đã từng nhiều lần trò chuyện riêng với ông. Tôi nắm lấy tay ông, cố gắng nói lời tạm biệt. Mẹ quay trở lại căn phòng, ba chúng tôi nắm tay nhau. Cuối cùng, một chiếc máy phát ra một tiếng beep dài, thông báo rằng ông đã vượt qua một ranh giới nào đó — ranh giới mà chỉ những người trong phòng mới nhận ra. Vào tối ngày 26 tháng 12 năm 2014, ông qua đời.


Vài ngày sau, sau mười một năm nữa, vào ngày 30 tháng 12 năm 2025, đứa con trai của tôi ra đời. Tôi chứng kiến cái chết xảy ra, cũng như chứng kiến sự ra đời của cuộc sống. Tôi đã học được rằng: cả hai đều không phải là một sự kiện trong chớp mắt, mà đều là một quá trình triển khai. Sinh là một chuỗi tỉnh táo, chết là một chuỗi ngủ say. Con trai tôi mất vài năm để thực sự "sinh", trong khi ông của tôi mất sáu tháng để thực sự "rời đi". Một số người thậm chí cần vài chục năm để từ từ qua đời.


Ở một thời điểm nào đó trong cuộc đời tôi, chính xác là khi nào tôi không rõ, Hoa Kỳ mà chúng tôi biết đã bắt đầu suy thoái. Giống như hầu hết các cái chết tự nhiên, nguyên nhân của nó phức tạp và lồng lộn. Không có sự kiện, khủng hoảng, cuộc tấn công, Tổng thống, đảng phái, luật pháp, ý tưởng, cá nhân, công ty, công nghệ, lỗi lầm, phản bội, thất bại, sai lầm hoặc đối thủ nước ngoài nào "đơn lẻ" dẫn đến sự bắt đầu của cái chết, mặc dù tất cả những điều này đều đã góp phần vào đó. Tôi không biết chúng ta đã đi đến giai đoạn nào của quá trình này, nhưng tôi biết rằng chúng ta đang ở trong "phòng chăm sóc sau cùng". Tôi đã biết điều này từ lâu, chỉ là đôi khi cũng tự phủ nhận như tất cả những người đau buồn. Tôi không muốn nhiều lời, vì nó thường chỉ mang đến nỗi đau.


Tuy nhiên, nếu không thừa nhận rằng chúng ta đang ngồi bên giường bệnh, hôm nay tôi không thể hoàn thành bài viết với sự phân tích chặt chẽ mà bạn mong đợi. Để thảo luận một cách trung thực về sự phát triển trí tuệ nhân tạo tiên tiến, cũng như về tương lai chúng ta nên xây dựng như thế nào, không thể tránh khỏi sự thực rằng chúng ta biết Hoa Kỳ mà chúng ta biết đang ở trạng thái hái ra đó. Chỉ là, ở đây không có máy móc nào sẽ phát ra tiếng beep cuối cùng cho chúng ta. Chúng ta chỉ có thể nhìn ngắm mà thôi.


Trong lịch sử Hoa Kỳ, nước ta đã từng một lần "chết" rồi "tái sinh". Hoa Kỳ đã trải qua không chỉ một lần "tái lập quốc gia". Có lẽ chúng ta đang đứng trước ngưỡng cửa một sự tái sinh khác, mở ra một chương mới trong quá trình Tự Do tự vẽ lại bản thân. Tôi hy vọng như vậy. Nhưng cũng có thể rằng chúng ta không còn đủ đức ích và trí tuệ để hỗ trợ sự sáng tạo mới, và hiểu biết hiện thực hơn, là chúng ta đang chuyển dần sang một kỷ nguyên quản trị "sau cộng hòa" của Mỹ. Tôi không tự nhận mình biết câu trả lời.


Tiếp theo tôi sẽ viết về một cuộc đụng độ giữa một công ty trí tuệ nhân tạo và chính phủ Mỹ. Tôi không muốn phóng đại vấn đề này. Sự "chết" mà tôi sẽ miêu tả, đã kéo dài hầu như nửa đời của tôi. Sự kiện tôi sẽ viết về đã xảy ra vào tuần trước, và có thể sẽ được giải quyết ở mức độ nào đó trong vài ngày tới.


Tôi không đang nói rằng sự kiện này đã "dẫn đến" cái chết của cộng hòa, cũng không nói rằng nó đã "mở ra một kỷ nguyên mới". Nếu có ý nghĩa gì, đó chỉ là làm cho sự suy thoái đó đang diễn ra trở nên rõ ràng hơn với bản thân tôi, khó có thể phủ nhận hơn. Tôi coi sự kiện tuần trước như một âm thanh "cuối cùng trước lúc chết" của cộng hòa cũ, là âm thanh mà một cơ thể đã từ bỏ sự đấu tranh phát ra.


Theo như tôi biết, câu chuyện diễn ra như sau: trong thời kỳ chính phủ của Biden, công ty Trí tuệ Nhân tạo Anthropic đã ký kết thỏa thuận với Bộ Quốc phòng (Hiện được gọi là "Bộ Chiến tranh", sau đây gọi tắt là DoW), cho phép hệ thống trí tuệ nhân tạo của họ, Claude, được sử dụng trong môi trường bảo mật. Thỏa thuận này đã được mở rộng bởi chính phủ Trump vào tháng 7 năm 2025 (Toàn bộ công bố: vào thời điểm đó, tôi đang làm việc cho chính phủ Trump nhưng không tham gia giao dịch này). Các mô hình ngôn ngữ khác có thể được sử dụng trong các tình huống không bảo mật, nhưng cho đến gần đây, công việc bảo mật, tức là liên quan đến thu thập thông tin tình báo, các hoạt động chiến đấu, chỉ có thể sử dụng Claude.


Thỏa thuận ban đầu được đàm phán giữa nhóm chính trị của Biden và Anthropic, đáng lưu ý là, vài người thiết kế chính sách Trí tuệ Nhân tạo trong chính phủ Biden sau khi kết thúc nhiệm kỳ đã ngay lập tức tham gia vào Anthropic, bao gồm hai hạn chế sử dụng. Đầu tiên, Claude không được sử dụng cho giám sát quy mô lớn đối với người Mỹ. Thứ hai, không được sử dụng để điều khiển vũ khí tự động gây tử vong, nghĩa là vũ khí có khả năng hoàn toàn tự động từ việc xác định, theo dõi đến tấn công mà không cần sự tham gia của con người. Chính phủ Trump có cơ hội xem xét những điều khoản này khi mở rộng thỏa thuận và sau cùng đã chấp nhận chúng.


Các quan chức của Trump cho biết, họ đã thay đổi quan điểm không phải vì muốn thực hiện giám sát quy mô lớn hoặc triển khai vũ khí tự động gây tử vong, mà là phản đối ý niệm về việc doanh nghiệp tư nhân đặt hạn chế cho việc sử dụng công nghệ quân sự. Sự thay đổi trong thái độ của chính phủ đã thúc đẩy họ đưa ra biện pháp chính sách, ý định làm hại hoặc thậm chí phá hủy Anthropic - một trong những công ty tăng trưởng nhanh nhất trong lịch sử tư bản và được coi là nhà lãnh đạo trong lĩnh vực Trí tuệ Nhân tạo toàn cầu hiện nay, trong khi chính phủ một lời một ngôn tuyên bố rằng Trí tuệ Nhân tạo là rất quan trọng cho tương lai quốc gia. Nhưng chúng ta sẽ nói về điều này sau.


Các quan điểm mà chính phủ Trump đưa ra không hẳn không lý, mà là; doanh nghiệp tư nhân đặt hạn chế cho việc sử dụng công nghệ quân sự, nghe có vẻ thực sự không đúng. Tuy nhiên, thực tế, hàng ngàn công ty tư nhân đang làm như vậy. Mỗi giao dịch công nghệ giữa quân đội và công ty tư nhân đều tồn tại dưới hình thức các hợp đồng (và vì vậy được gọi là "nhà thầu quốc phòng"), và các hợp đồng thường bao gồm các hạn chế vận hành (ví dụ như "Hệ thống X không được sử dụng cho quốc gia Y," tương tự như điều khoản thông thường trên Starlink của Musk), hạn chế công nghệ (ví dụ như "Một loại máy bay chiến đấu chỉ được chứng nhận sử dụng trong điều kiện cụ thể"), và hạn chế về quyền sở hữu trí tuệ (""Nhà thầu có quyền sở hữu và tái sử dụng trí tuệ chính liên quan").


Trong một số khía cạnh, các điều khoản của Anthropic tương tự như những hạn chế truyền thống này. Ví dụ, công ty không phản đối vũ khí tự động gây tử vong chính mình, mà họ cho rằng hệ thống Trí tuệ Nhân tạo hàng đầu hiện tại chưa đủ để tự quyết định về sống chết của con người. Điều này khá giống với "hạn chế chứng nhận máy bay chiến đấu".


Tuy nhiên, điểm khác biệt then chốt là, Anthropic áp đặt các hạn chế thông qua hợp đồng, giống như hạn chế chính sách hơn là hạn chế kỹ thuật. Ví dụ, sự khác biệt giữa "máy bay không được chứng nhận để bay đến một độ cao nhất định" và "bạn không thể bay đến một độ cao nhất định". Quân đội có lẽ không nên chấp nhận các điều khoản như vậy, và các công ty tư nhân có lẽ cũng không nên thiết lập. Nhưng chính phủ Biden đã chấp nhận, và chính phủ Trump ban đầu cũng đã chấp nhận, cho đến khi sau đó phản nghịch.


Điều này một mình đã cho thấy: các điều khoản như vậy không phải là hành vi vi phạm ngớ ngẩn. Không có bất kỳ quy định pháp lý nào nói rằng hợp đồng chỉ có thể có hạn chế kỹ thuật mà không thể có hạn chế chính sách. Hợp đồng không vi phạm pháp luật, có lẽ chỉ là không đủ khôn ngoan khi nhìn lại sau này. Ngay cả khi bạn ủng hộ hoặc phản đối quan điểm chống lại giám sát quy mô lớn và vũ khí tự trị gây tổn thương, bạn cũng có thể cho rằng hợp đồng quốc phòng không phải là công cụ tốt nhất để đạt được mục tiêu chính sách. Theo quy tắc thông thường của nước Cộng hòa, cách để thực hiện chính sách mới là thông qua pháp luật.


Tuy nhiên, "thông qua pháp luật" ở Mỹ hiện đại ngày càng trở nên như một trò đùa. Nếu bạn thực sự mong muốn đạt được một kết quả nào đó, việc lập pháp không còn là lộ trình ưu tiên. Quản trị ngày càng không chính thức, tạm thời tăng cường, quyền lực hành pháp mở rộng, các công cụ chính sách và mục tiêu của chúng ngày càng không phù hợp.


Chính phủ Trump gọi đổi quyết định của mình vì hai lý do: thứ nhất, Anthropic có thể rút lại dịch vụ vào thời điểm quan trọng; thứ hai, với tư cách là một nhà thầu phụ, các điều khoản của Anthropic có thể làm hạn chế các nhà thầu khác của quân đội. Cộng thêm việc chính phủ coi Anthropic như đối thủ chính trị (họ có thể đánh giá đúng), quân đội bất ngờ nhận ra mình đang phụ thuộc vào một công ty không đáng tin cậy.


Cách hành động hợp lý, có lẽ nên là huỷ hợp đồng và công khai lý do, đồng thời thông qua các điều khoản giám sát để tránh tình huống tương tự trong tương lai. Nhưng Bộ Quốc phòng vẫn kiên quyết rằng hợp đồng phải cho phép "tất cả các mục đích hợp pháp", và đe dọa sẽ xếp Anthropic vào "rủi ro chuỗi cung ứng". Cái xếp loại này thường chỉ dành cho các doanh nghiệp bị kiểm soát bởi đối thủ nước ngoài, như Huawei. Bộ trưởng Bộ Quốc phòng còn tiến xa hơn, đe dọa sẽ ngăn chặn tất cả các nhà thầu quân đội khác hợp tác với Anthropic về "bất kỳ mối quan hệ thương mại nào".


Điều này gần như tương đương với tuyên bố "giết doanh nghiệp" của một công ty. Ngay cả khi viên đạn không nhất thiết là tử thần, cũng đủ để truyền tín hiệu: làm việc theo điều kiện của chúng tôi, hoặc kinh doanh của bạn sẽ kết thúc.


Điều này đụng vào nguyên lý cốt lõi của Cộng hòa Mỹ: tư hữu tài sản. Nếu quân đội nói với Google rằng "bán dữ liệu tìm kiếm cá nhân hóa toàn cầu, nếu không xem như rủi ro", nguyên tắc này đồng đẳng với hành động hiện tại. Tư hữu tài sản, không qua là tài nguyên có thể được siết cốt lõi dưới danh nghĩa an ninh quốc gia.


Hành động này sẽ làm tăng chi phí vốn cho toàn bộ ngành công nghệ trí tuệ nhân tạo, làm suy yếu uy tín quốc tế của trí tuệ nhân tạo của Mỹ, thậm chí có thể làm tổn thương triển vọng lợi nhuận của ngành công nghiệp trí tuệ nhân tạo.


Khi mỗi lần tổng thống thay đổi, quyết định chính sách của Mỹ trở nên ngày càng không thể dự đoán, thô bạo và tùy tiện hơn. Sự tồn tại của trật tự tự do cuối cùng sẽ bị xói mòn vào lúc nào, khó mà đoán biết.


Ngay cả khi Bộ trưởng Quốc phòng rút lại lời đe dọa, thiệt hại đã xảy ra. Chính phủ đã cho biết: Miễn là bạn từ chối tuân thủ, bạn có thể bị coi là kẻ thù. Điều này gây ra một sự suy thoái sâu hơn đối với văn hóa chính trị của Hoa Kỳ.


Quan trọng hơn, đây là lần đầu tiên tranh luận công khai thực sự xoay quanh việc "quyền kiểm soát AI tiên tiến nên thuộc về đâu". Cơ quan công lý của chúng tôi đã thể hiện sự mất trật tự, cố ý và thiếu rõ ràng về chiến lược. Sự thất bại của elít chính trị không phải là điều mới mẻ mà là một chủ đề ngày càng trầm trọng trong hai thập kỷ qua: "Giống như quá khứ, nhưng rõ ràng là tồi tệ hơn."


Có lẽ quá trình xây dựng lại giai đoạn tiếp theo sẽ chặt chẽ liên quan đến AI tiên tiến. Trong việc xây dựng hệ thống trong tương lai, vui lòng đừng coi "kiểm soát dân chủ" như là "kiểm soát chính phủ". Sự khác biệt giữa hai khái niệm này chưa bao giờ rõ ràng như hiện nay.


Dù tương lai có như thế nào, chúng ta phải đảm bảo rằng giám sát quy mô lớn và vũ khí tự chủ không thể xâm phạm tự do. Tôi đánh giá cao việc AI Lab giữ vững ranh giới. Trong mấy chục năm tới, tự do của chúng ta có thể yếu đến mức không ngờ.


Mọi người đều phải chọn tương lai mà họ sẵn lòng chiến đấu hay bảo vệ. Khi đưa ra quyết định, hãy phớt lờ tiếng ồn "hấp hối trong giây cuối", và giữ vững tư duy độc lập. Bạn đang bước vào một thời đại xây dựng hệ thống hoàn toàn mới.


Nhưng trước khi làm điều đó, hãy dành chút thời gian, để tưởng nhớ về cộng hòa đã từng tồn tại.



Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:

Nhóm Telegram đăng ký: https://t.me/theblockbeats

Nhóm Telegram thảo luận: https://t.me/BlockBeats_App

Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia

举报 Báo lỗi/Báo cáo
Chọn thư viện
Thêm mới thư viện
Hủy
Hoàn thành
Thêm mới thư viện
Chỉ mình tôi có thể nhìn thấy
Công khai
Lưu
Báo lỗi/Báo cáo
Gửi