Theo theo dõi của 1M AI News, người đoạt giải Pulitzer Ronan Farrow và nhà báo của tạp chí New Yorker Andrew Marantz đã công bố bài điều tra dài dằng, dựa trên phỏng vấn hơn 100 người có thông tin, lần đầu tiên tiết lộ hoàn toàn hai tài liệu cốt lõi: một tài liệu bí mật khoảng 70 trang được biên soạn bởi Ilya Sutskever, cựu Giám đốc Khoa học của OpenAI vào mùa thu năm 2023, và hơn 200 trang ghi chú nội bộ được tích luỹ bởi Giám đốc điều hành của Anthropic Dario Amodei trong thời gian làm việc tại OpenAI. Hai tài liệu này trước đây chưa từng được công khai.
Tài liệu của Sutskever bao gồm tin nhắn trên Slack, tài liệu nhân sự và ảnh chụp màn hình bằng điện thoại di động ( được cho là để tránh sự theo dõi của thiết bị công ty), bắt đầu với một danh sách: "Sam thể hiện mẫu ổn định liên tục...", với mục đầu tiên là "Nói dối". Tài liệu bí mật buộc tội ông Altman đã bóp méo sự thật với các nhà quản lý và hội đồng quản trị, và đã lừa dối đồng nghiệp trong quy trình an ninh. Lúc đó, Sutskever đã nói với một thành viên hội đồng khác: " Tôi không nghĩ Sam là người nắm nút ấy."
Ghi chú của Amodei mang tiêu đề "Trải nghiệm của tôi tại OpenAI" (phụ đề "Tài liệu cá nhân, xin đừng chia sẻ"), đã được truyền bá giữa các đồng nghiệp ở Silicon Valley nhưng chưa từng được công khai, nơi mà viết "Vấn đề của OpenAI nằm ở chính Sam", và buộc tội ông Altman đã phủ nhận một số điều khoản đã tồn tại trong hợp đồng khi ký kết thỏa thuận đầu tư trị giá 10 tỷ USD với Microsoft trước mặt mặc dù đã được Amodei đọc chính tả.
Bản báo cáo cũng đã tiết lộ nhiều thực tế trước đây chưa công khai:
1. Hứa hẹn một cuộc điều tra độc lập sau khi Altman trở lại công ty không bao giờ tạo thành một báo cáo viết. Văn phòng luật sư WilmerHale (đã điều hành các cuộc điều tra Enron và Lehman Brothers) chỉ báo cáo bằng lời nói cho hai thành viên mới trong hội đồng, quyết định không tạo ra báo cáo bằng văn bản một phần vì lời khuyên từ luật sư cá nhân của hai thành viên hội đồng này. Những người có thông tin cho biết cuộc điều tra "có vẻ như nhắm vào việc hạn chế sự minh bạch", và một số thành viên hội đồng hiện tại nghĩ vấn đề này có thể dẫn đến "cần phải điều tra lại".
2. Sức mạnh tính toán thực sự mà nhóm Siêu Đối齐 nhận được chỉ khoảng 1%-2% trong số 20% được cam kết công khai, và hầu hết phân bổ trên "cụm máy cũ nhất, chip xấu nhất". Khi một nhà báo yêu cầu phỏng vấn một nhà nghiên cứu đang làm việc về an toàn tồn tại, đại diện của OpenAI đã trả lời: "Bạn nói về 'an toàn tồn tại' là gì vậy? Đó không phải là một thứ gì đó."
3. Khoảng năm 2018, các nhà quản lý đã thảo luận nghiêm túc về một kế hoạch nội bộ được gọi là "Kế hoạch Quốc gia": cho các quốc gia lớn (bao gồm Trung Quốc và Nga) đấu giá mua công nghệ Trí tuệ Nhân tạo. Giám đốc Chính sách lúc đó Jack Clark mô tả mục tiêu của nó là "tạo ra một tình thế không thoát, khiến tất cả các quốc gia đều phải cung cấp tiền cho chúng tôi". Kế hoạch này đã bị hoãn lại sau khi nhiều nhân viên đe dọa từ chức.
4. Nhiều cấp cao Microsoft phản đối mạnh mẽ với Altman. Một cấp cao cho biết "Anh ta bóp méo, biến tấu, đàm phán lại, vi phạm thỏa thuận," và tin rằng "Có một khả năng nhỏ nhưng thực sự, cuối cùng anh ta sẽ được nhớ đến như kẻ chủ mưu của vụ lừa đảo Ponzi Bernie Madoff hoặc như người sáng lập FTX Sam Bankman-Fried."
Sau khi bị sa thải, trong một cuộc trò chuyện với Hội đồng, Altman bị yêu cầu thừa nhận mô hình lừa đảo của mình, anh ta đã lặp đi lặp lại nói "Điều đó quá ngớ ngẩn," sau đó nói "Tôi không thể thay đổi tính cách của mình." Một thành viên Hội đồng hiện diện đã giải thích rằng: "Ý nghĩa của câu này là 'Tôi có tính chất nói dối với người khác và tôi sẽ không ngừng lại.' " Người học viên khóa đầu tiên của Y Combinator, lập trình viên Aaron Swartz qua đời vào năm 2013, đã cảnh báo bạn bè: "Bạn phải hiểu rằng Sam không thể bao giờ được tin tưởng. Anh ấy là một người có tính cách xã hội phản đối, có thể làm bất cứ điều gì." Báo cáo cho biết, không chỉ một người đã tự nguyện sử dụng từ "tính cách xã hội phản đối" trong cuộc phỏng vấn.
Altman đã phủ nhận mạnh mẽ việc lừa đảo cố ý trong hơn mười cuộc trò chuyện với phóng viên, chuyển hướng các cam kết thay đổi liên tục của mình thành "điều chỉnh tốt đẹp" của môi trường biến đổi nhanh, và đặt sự phê bình ban đầu lên tài lỗi "quá tránh va chạm" của chính mình. Khi được hỏi liệu việc điều hành một công ty AI có yêu cầu đạo đức cao hơn không, anh ta bổ sung: "Đúng vậy, nó đòi hỏi mức độ đạo đức cao hơn, tôi cảm nhận trách nhiệm này hàng ngày."
Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:
Nhóm Telegram đăng ký: https://t.me/theblockbeats
Nhóm Telegram thảo luận: https://t.me/BlockBeats_App
Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia