BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
lang
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
Trang chủ
Cộng đồng
AI AI
Tin nhanh
Bài viết
Sự kiện
Thêm
Thông tin tài chính
Chuyên đề
Hệ sinh thái chuỗi khối
Mục nhập
Podcast
Data
OPRR

Thư Công Khai của Anthropic: Sam Altman Giả Tạo, Thầy Giảng PUA

Đọc bài viết này mất 21 phút
OpenAI đã bày tỏ rất nhiều tuyên bố PR với Bộ Quốc Phòng về những vấn đề này, hoặc là dối trá, hoặc là tạo ra sự nhầm lẫn cố ý. Những sự thật này đã phơi bày một mẫu hành vi, mẫu hành vi mà tôi đã thấy nhiều lần trước đó trong Sam Altman, và hy vọng mọi người có thể nhận ra điều đó.
原文标题:Đọc Thư Memo của CEO Anthropic Chỉ Trích Thông Báo 'Dối Trá' Của OpenAI Về Pentagon
原文作者:The Information
Dịch: Peggy, BlockBeats


Biên tập viên's Note: Ngay trước khi OpenAI công bố một thỏa thuận hợp tác AI với Bộ Quốc phòng, Bộ Quốc phòng mới đây đã hủy bỏ sự hợp tác giữa hai bên, với lý do Anthropic đã đề xuất điều khoản an ninh. Sau đó, CEO của Anthropic, Dario Amodei, đã phát hành một bức thư ghi chú nội bộ có nội dung cực kỳ khắc nghiệt cho nhân viên, trực tiếp chỉ trích rằng hầu hết những gì OpenAI công bố là "biện pháp an ninh" thực ra chỉ là "diễn hành động," và đặt dấu hỏi về quan điểm của OpenAI về vũ khí tự hành và giám sát quy mô lớn.


Trong bức thư dài khoảng 1600 từ này, Amodei không chỉ tiết lộ một số chi tiết của cuộc đàm phán giữa hai bên và hệ thống quốc phòng Mỹ, mà còn trực tiếp chỉ trích CEO của OpenAI, Sam Altman, cáo buộc ông đã che giấu cấu trúc hợp tác thực sự thông qua câu chuyện PR. Cuộc tranh luận xoay quanh việc áp dụng AI vào quân sự, "đường đỏ" an ninh, và mối quan hệ chính trị đang đẩy sự mâu thuẫn giữa hai công ty AI hàng đầu ở Silicon Valley lên thị trường.


Dưới đây là nguyên bản:


Tôi muốn rõ ràng nói về thông tin OpenAI đang phát hành hiện tại, cũng như sự giả dối trong thông tin này. Điều này chính là cách họ thực sự làm, tôi hy vọng mọi người đều nhìn nhận rõ điều này.


Mặc dù có nhiều thông tin chưa biết về hợp đồng mà họ đã ký kết với Bộ Quốc phòng (DoW) (thậm chí chính họ cũng không chắc chắn hoàn toàn, vì các điều khoản trong hợp đồng có thể khá mơ hồ), nhưng có một số điểm có thể chắc chắn: dựa trên mô tả công khai của Sam Altman và Bộ Quốc phòng (dĩ nhiên còn cần phải xem văn bản hợp đồng để xác nhận cuối cùng), mô hình của họ dường như hoạt động như sau: mô hình chính không có bất kỳ ràng buộc về việc sử dụng theo pháp luật nào, nghĩa là được gọi là "mọi mục đích hợp pháp"; đồng thời thiết lập một lớp "tầng an ninh" được gọi là "tầng an toàn". Đối với tôi, lớp "tầng an ninh" này về bản chất sẽ là cơ chế từ chối của mô hình, nhằm ngăn chặn mô hình hoàn thành một số nhiệm vụ hoặc tham gia vào một số ứng dụng.


Cái gọi là "tầng an ninh" cũng có thể ám chỉ đến các đối tác hợp tác (ví dụ: Palantir, đối tác thương mại của Anthropic khi cung cấp dịch vụ cho khách hàng chính phủ Mỹ) mà họ đã cố gắng bày bán trong quá trình đàm phán với chúng tôi. Họ đã đề xuất một bộ phân loại hoặc hệ thống máy học, tuyên bố có thể cho phép một số ứng dụng thông qua, đồng thời chặn một số ứng dụng khác. Ngoài ra, cũng có dấu hiệu cho thấy OpenAI sẽ sắp xếp nhân viên (FDE, nghĩa là kỹ sư triển khai trước) để giám sát việc sử dụng mô hình, để ngăn chặn việc sử dụng không đúng cách.


Đánh giá tổng thể của chúng tôi là: Các giải pháp này không hoàn toàn không hiệu quả, nhưng trong ngữ cảnh của ứng dụng quân sự, khoảng 20% là bảo vệ thực sự, 80% là biểu diễn an toàn.


Nguyên nhân gốc rễ của vấn đề là: liệu mô hình được sử dụng cho giám sát quy mô lớn hay hệ thống vũ khí hoàn toàn tự động, thường phụ thuộc vào ngữ cảnh thông tin rộng lớn hơn. Mô hình chính nó không biết mình đang tồn tại trong hệ thống nào, nó không biết liệu có con người nằm trong "vòng lặp" (human-in-the-loop, tức là vấn đề quan trọng của hệ thống vũ khí tự động); cũng không biết nguồn dữ liệu mà nó đang phân tích là gì. Ví dụ, liệu đó có phải là dữ liệu quốc nội Mỹ hay dữ liệu ngoại vi, liệu đó có phải là dữ liệu mà doanh nghiệp cung cấp sau khi có sự đồng ý của người dùng, hay thông qua các kênh mua dữ liệu không rõ nguồn gốc v.v.


Những người làm việc trong lĩnh vực an ninh đã trải nghiệm sâu sắc về điều này: cơ chế từ chối của mô hình không đáng tin cậy. Các cuộc tấn công vượt ngục rất phổ biến, nhiều lúc chỉ cần gửi dữ liệu gian lận về tính chất của dữ liệu cho mô hình là có thể né qua những hạn chế này.


Ở đây còn một sự khác biệt quan trọng, làm cho vấn đề phức tạp hơn so với bảo vệ an ninh thông thường: xác định xem mô hình có đang thực hiện cuộc tấn công mạng, từ đầu vào và đầu ra thường có thể cho thấy dấu hiệu; nhưng xác định tính chất của cuộc tấn công cũng như ngữ cảnh cụ thể, lại là một vấn đề hoàn toàn khác, và đó chính là khả năng xác định được yêu cầu ở đây. Trong nhiều trường hợp, nhiệm vụ này rất khó khăn, thậm chí không thể thực hiện.


Việc Palantir đang tiếp thị cho chúng tôi "lớp an ninh" (tôi nghĩ họ cũng đã tiếp thị cho OpenAI những giải pháp tương tự) càng tồi tệ hơn. Đánh giá của chúng tôi là, điều này gần như hoàn toàn là một màn trình diễn an toàn.


Lôgic cơ bản của Palantir dường như là như vậy: "Trong công ty của bạn có thể có một số nhân viên không hài lòng, bạn cần phải đưa cho họ một cái gì đó để an ủi họ, hoặc làm cho những gì đang diễn ra không thể nhìn thấy đối với họ. Đó chính là dịch vụ mà chúng tôi cung cấp."


Về việc giám sát trực tiếp bởi nhân viên của Anthropic hoặc OpenAI vấn đề triển khai, chúng tôi đã thảo luận nội bộ về Chính sách Sử dụng Chấp nhận được (AUP) trong môi trường mở rộng cách đây vài tháng. Kết luận rất rõ ràng: phương pháp này chỉ khả thi trong rất ít trường hợp. Chúng tôi sẽ cố gắng hết sức, nhưng nó hoàn toàn không phải là cơ chế bảo vệ cốt lõi có thể dựa vào, trong môi trường mật, điều này trở nên đặc biệt khó thực hiện. Bên cạnh đó, chúng tôi thực sự đã cố gắng làm điều đó nhất có thể, ở điểm này chúng tôi không khác biệt so với OpenAI.


Vì vậy, điều mà tôi muốn nói là: những biện pháp mà OpenAI đang thực hiện cơ bản không thể giải quyết vấn đề.


Lý do thực sự mà họ chấp nhận những giải pháp này, trong khi chúng tôi không, là vì: họ quan tâm đến cách an ủi nhân viên, trong khi chúng tôi thực sự quan tâm đến việc ngăn chặn việc lạm dụng.


Những kế hoạch này không hoàn toàn vô giá trị, chúng tôi cũng đang sử dụng một phần trong số này, nhưng chúng hoàn toàn không đủ để đạt được tiêu chuẩn an ninh cần thiết. Đồng thời, Bộ Chiến tranh đã có vẻ không công bằng trong cách xử lý OpenAI và chúng tôi.


Thực tế, chúng tôi đã cố gắng thêm một số điều khoản an ninh tương tự như của OpenAI vào hợp đồng (như một phần bổ sung của AUP. Theo quan điểm của chúng tôi, AUP mới là phần quan trọng hơn), nhưng Bộ Chiến tranh đã từ chối. Bằng chứng liên quan có trong chuỗi email thảo luận lúc đó. Vì tôi hiện đang bận rộn nhiều công việc, có thể để đồng nghiệp sau này xem xét cụ thể văn bản. Do đó, việc nói rằng "Điều khoản của OpenAI từng được cung cấp cho chúng tôi nhưng đã bị chúng tôi từ chối" không đúng; tương tự, việc nói "Điều khoản của OpenAI có thể ngăn chặn hiệu quả việc giám sát quy mô lớn nội địa hoặc vũ khí hoàn toàn tự hành" cũng không đúng.


Ngoài ra, lời nói của Sam và OpenAI còn ám chỉ rằng ngưỡng mạch mà chúng tôi đưa ra, cụ thể là vũ khí hoàn toàn tự hành và giám sát quy mô lớn nội địa, đã là hành vi vi phạm pháp luật, vì vậy chính sách sử dụng liên quan là dư thừa. Lời nói này gần như giống như lời phát biểu trước đó của Bộ Chiến tranh, đồng thời có vẻ như đã được sắp xếp trước.


Nhưng điều này không phản ánh sự thật.


Như chúng tôi đã giải thích trong tuyên bố hôm qua, Bộ Chiến tranh thực sự có quyền thực hiện giám sát nội địa. Trong quá khứ, trong thời kỳ không có trí tuệ nhân tạo, các quyền lực này tương đối hạn chế, nhưng trong thời đại trí tuệ nhân tạo, ý nghĩa của chúng đã hoàn toàn thay đổi.


Để minh họa: Bộ Chiến tranh có thể hợp pháp mua lượng lớn dữ liệu cá nhân của công dân Mỹ từ các nhà cung cấp (những nhà cung cấp thông thường sử dụng điều khoản đồng ý ẩn cấp quyền bán lại), sau đó sử dụng trí tuệ nhân tạo để phân tích dữ liệu này quy mô lớn, để xây dựng hồ sơ của công dân, đánh giá khuynh hướng chính trị, theo dõi hành vi trong không gian thực tế, dữ liệu mà họ có thể truy cập thậm chí bao gồm thông tin GPS và nhiều hơn nữa.


Một điểm khác cần chú ý: khi đàm phán đã gần kết thúc, Bộ Chiến tranh đề xuất rằng, nếu chúng tôi loại bỏ một điều khoản cụ thể về "phân tích dữ liệu được mua hàng loạt" khỏi hợp đồng, họ sẵn lòng chấp nhận tất cả các điều khoản khác của chúng tôi. Và điều khoản này chính là điều duy nhất trong hợp đồng sao chép chính xác tình huống mà chúng tôi lo lắng nhất. Chúng tôi rất nghi ngờ về điều này.


Về vấn đề vũ khí tự hành, Bộ Chiến tranh tuyên bố "con người ở vòng lặp" là yêu cầu pháp lý. Nhưng điều này không phải là sự thật. Thực tế, đây chỉ là một chính sách của Bộ quốc phòng trong thời kỳ của chính phủ Biden, yêu cầu sự tham gia của con người trong quyết định phóng vũ khí. Và chính sách này có thể được Bộ trưởng Quốc phòng hiện tại Pete Hegseth thay đổi một mình — đây mới là điều làm chúng tôi thực sự lo ngại. Vì vậy, từ góc độ thực tế, đây không phải là một ràng buộc thực sự.


OpenAI và Bộ Quốc phòng đã sử dụng nhiều lời nói công khai về những vấn đề này, nhưng hoặc là đang nói dối, hoặc là có chủ ý gây nhầm lẫn. Những sự thật này tiết lộ một mẫu hành vi, mẫu hành vi mà tôi đã thấy nhiều lần trước đó trên Sam Altman. Tôi hy vọng mọi người có thể nhận ra điều đó.


Sáng nay, anh ấy đã trước hết khẳng định rằng anh ủng hộ "đường kẻ đỏ" của Anthropic, với mục đích để tỏ ra hỗ trợ chúng tôi, từ đó chiếm một phần công lao, đồng thời tránh bị chỉ trích khi họ nhận việc này. Anh ấy cũng cố gắng tạo hình bản thân như một nhân vật mong muốn “制定整个行业制定统一合同标准”的角色 - cũng chính là nhà xây dựng hòa bình và người trung gian giao dịch.


Nhưng sau hậu trường, anh ấy đang ký hợp đồng với Bộ Quốc phòng, chuẩn bị thay thế chúng tôi ngay sau khi chúng tôi bị đánh dấu là một rủi ro chuỗi cung ứng.


Đồng thời, anh ấy phải đảm bảo quá trình này không trông giống như "Trong khi Anthropic giữ đường kẻ đỏ, OpenAI đã bỏ qua đường kẻ cơ bản". Lý do anh ấy có thể làm được điều này là vì:


Thứ nhất, anh ấy có thể ký mọi biện pháp "biểu diễn an toàn" mà chúng tôi từ chối, trong khi Bộ Quốc phòng và đối tác của họ sẵn lòng hợp tác để đóng gói những biện pháp này một cách đủ đáng tin cậy để yên tâm nhân viên của anh ấy.


Thứ hai, Bộ Quốc phòng sẵn lòng chấp nhận những điều khoản mà anh ấy đề xuất, trong khi chúng tôi đã bị từ chối khi đưa ra cùng nội dung.


Chính những điều này đã giúp OpenAI đạt được thoả thuận mà chúng tôi không thể.


Nguyên nhân thực sự mà Bộ Quốc phòng và chính phủ Trump không thích chúng tôi là: chúng tôi không tài trợ chiến dịch chính trị cho Trump (trong khi OpenAI và Greg Brockman tài trợ nhiều); chúng tôi không khen ngợi kiểu độc tài cho Trump (trong khi Sam đã làm); chúng tôi ủng hộ quản lý trí tuệ nhân tạo, điều này vi phạm nên tảng chính trị của họ; chúng tôi chọn nói lời thật về nhiều vấn đề chính sách trí tuệ nhân tạo (ví dụ về vấn đề thay thế công việc bằng trí tuệ nhân tạo); và thực sự, chúng tôi đã giữ đường kẻ đỏ, thay vì hợp tác với họ để tạo ra "biểu diễn an toàn" để an ủi nhân viên.


Bây giờ Sam đang cố gắng mô tả tất cả những điều này như: chúng tôi khó hợp tác, chúng tôi thái độ cứng rắn, chúng tôi thiếu linh hoạt v.v. Tôi hy vọng mọi người sẽ nhận ra rằng, đây chính là một hành vi điển hình của việc Làm cho người khác trở nên bất an (gaslighting).


Cụm từ mơ hồ như "một ai đó khó hợp tác" thường được sử dụng để che đậy những lý do thực sự xấu xí – đó là những lý do mà tôi vừa nêu: tài trợ chính trị, sự trung thành chính trị và biểu diễn an toàn.


Mỗi người đều cần hiểu rằng điều này, và phản đối câu chuyện như vậy khi trò chuyện riêng tư với nhân viên OpenAI.


换句话说,Sam 正在以「支持我们」的姿态削弱我们的立场。我希望大家对此保持清醒:他通过削弱公众对我们的支持,让政府更容易对我们进行惩罚。甚至,我怀疑他可能还在暗中推波助澜,虽然这一点我目前没有直接证据。


在公众和媒体层面,这种话术与操控似乎已经失效。大多数人都认为 OpenAI 与战争部的交易值得警惕,甚至令人不安,同时把我们视为坚持原则的一方(顺便说一句,我们现在已经是 App Store 下载榜第二名了)。


【注:随后 Claude 升至 App Store 第一。】


当然,这套叙事在一些推特上的蠢货那里起了作用,不过这并不重要。我真正担心的是:确保它不会在 OpenAI 的员工内部产生影响。


由于筛选效应,他们本来就是一群相对容易被说服的人。但反驳 Sam 正在向自己员工兜售的这些叙事,依然十分重要。


[原文链接]



Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:

Nhóm Telegram đăng ký: https://t.me/theblockbeats

Nhóm Telegram thảo luận: https://t.me/BlockBeats_App

Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia

举报 Báo lỗi/Báo cáo
Chọn thư viện
Thêm mới thư viện
Hủy
Hoàn thành
Thêm mới thư viện
Chỉ mình tôi có thể nhìn thấy
Công khai
Lưu
Báo lỗi/Báo cáo
Gửi