Tiêu đề Video: "Chúng ta Có Thể Tin Tưởng vào AI không? Sam Altman Hy vọng như vậy | Điều Đáng Chú Ý Nhất trong AI"
Tác giả Video: Nick Thompson, Tổng Giám Đốc The Atlantic
Dịch thuật: Động Minh, Động BlockBeats
Ghi chú biên tập: Cuộc phỏng vấn này được ghi lại vào tháng 4 năm 2025 tại địa chỉ cũ của Sam Altman ở San Francisco, sau khi nhà của ông Altman bị tấn công bằng cocktail Molotov, và chỉ vài ngày sau một vụ xả súng trên phố xảy ra, tại văn phòng OpenAI ở San Francisco.
Điều đáng chú ý nhất trong toàn bộ cuộc phỏng vấn không phải là các chủ đề nóng hổi, mà là sự thay đổi quan điểm của Altman về một số vấn đề then chốt:
Thứ nhất, từ "An toàn của AI" sang "Sự chống chịu của AI". Altman thẳng thắn thừa nhận rằng, ba năm trước, ông tin rằng nếu chỉ cần cân bằng mô hình, ngăn chặn công nghệ rơi vào tay kẻ xấu, thế giới sẽ an toàn. Nhưng hôm nay, ông thừa nhận rằng, cả hệ thống đó đã không còn đủ. Sự tồn tại của các mô hình tiên tiến công bố mở nghĩa là, việc nhà lab tiên tiến mình bạo biện không thể ngăn chặn sự lan rộng của các rủi ro như vũ khí sinh học, tấn công mạng, vv. Lần đầu tiên, ông đề xuất một cách thức đáp ứng cấp bách của xã hội không phải là An toàn của AI, mà là Sự chống chịu của AI, đây là một cách thức đối phó đa tầng toàn xã hội.
Thứ hai, về sự thật về khả năng giải thích. Altman hiếm khi thừa nhận rằng, đến nay, OpenAI vẫn chưa có một khung máy móc giải thích hoàn chỉnh. Chuỗi tư duy hiện tại là hướng đi có triển vọng nhất, nhưng nó yếu đuối, có thể bị mô hình lừa dối, và chỉ là "một miếng ghép" trong bức tranh. Ông sử dụng ví dụ nổi tiếng về "Thí nghiệm Cú Mèo" của Anthropic - mô hình chỉ cần thông qua số ngẫu nhiên là có thể truyền đạt ưu tiên để minh chứng, rằng có sự bí ẩn thực sự và sâu xa trong các hệ thống này.
Thứ ba, khả năng việt sinh dữ liệu có lẽ đã tiến xa hơn so với những gì bên ngoài tưởng tượng. Khi được hỏi về việc OpenAI đã chạy mô hình được huấn luyện hoàn toàn bằng dữ liệu việt sinh chưa, câu trả lời của Altman là "Tôi không chắc có nên nói không". Ông tin rằng, chỉ cần dữ liệu việt sinh là đã đủ để huấn luyện ra khả năng suy luận vượt trội của con người. Điều này có ý nghĩa vô cùng sâu sắc đối với mô hình huấn luyện trong tương lai.
Thứ tư, sự đánh giá bi quan về cấu trúc kinh tế trong tương lai. Altman đồng ý với đánh giá của Thompson rằng, AI có khả năng dẫn đến một tương lai hai cực, với một số công ty cực kỳ giàu có, trong khi thế giới còn lại rơi vào biến động gay gắt. Ông không còn tin vào Thu nhập Cơ bản Đối với Mọi Người nữa, mà hướng tới hỗ trợ một dạng "sở hữu tập thể" dựa trên sức mạnh tính toán hoặc cổ phần nào đó. Đồng thời, ông hiếm khi đề cập đến sự chênh lệch về tốc độ áp dụng AI giữa Trung Quốc và Mỹ, và cho biết ông lo lắng hơn về việc Trung Quốc đang dẫn đầu về tốc độ xây dựng cơ sở hạ tầng, chứ không phải về việc Trung Quốc dẫn đầu về nghiên cứu công bố.
Thứ năm, sự căng thẳng với Anthropic cũng được đề cập công khai. Đối mặt với câu hỏi của Thompson về "Anthropic xây dựng công ty trên nền tảng chán ghét OpenAI", Altman đã không tránh né. Ông thừa nhận rằng hai công ty có sự khác biệt cơ bản về việc tiến tới AGI, nhưng vẫn tin rằng "cuối cùng họ sẽ làm đúng điều".
Ngoài ra, Altman cũng đề cập đến sự kiện "nịnh đầy (sycophancy)" của ChatGPT, những bình luận vỡ lòng về "lần đầu tiên trong đời có người tin tưởng tôi", cách mà AI đang từng bước thay đổi phong cách viết của tỷ lệ một tỷ người dùng trên toàn cầu, khả năng ngành truyền thông sẽ hướng tới mô hình kinh tế mới dựa trên thanh toán micro cho các yếu tố, và quan điểm ngược đời của ông về giới trẻ - sự lo lắng của họ về AI, căn bản là sự chiếu chi lên những lo lắng khác.
Dưới đây là nội dung phỏng vấn, đã được chỉnh sửa và tổ chức lại một cách vừa phải nhằm không thay đổi ý nghĩa ban đầu.
Thompson: Chào mừng đến với "Điều Thú Vị Nhất về AI". Cảm ơn bạn đã dành thời gian trong một tuần bận rộn và căng thẳng như vậy. Tôi muốn bắt đầu từ những chủ đề chúng ta đã thảo luận trước đây.
Ba năm trước khi bạn tham gia phỏng vấn với Patrick Collison, anh ấy hỏi bạn, có thay đổi nào có thể khiến bạn tin vào kết quả tốt hơn, và ít lo lắng về kết quả xấu hơn không? Câu trả lời của bạn lúc đó là, nếu chúng ta có thể hiểu sâu hơn về những gì đang xảy ra ở mức độ thần kinh. Một năm trước tôi đã hỏi bạn cùng một câu hỏi, và chúng tôi cũng đã nói chuyện về nó cách đây nửa năm. Vì vậy, bây giờ tôi lại hỏi một lần nữa, sự hiểu biết của chúng ta về cơ chế hoạt động của AI, có giống như tốc độ tăng cường năng lực của AI không?
Altman: Tôi sẽ trả lời câu hỏi này trước, sau đó quay lại câu hỏi của Patrick ấy năm đó, vì câu trả lời của tôi đối với câu hỏi đó đã có sự thay đổi đáng kể.
Đầu tiên, hãy nói về sự hiểu biết của chúng ta về việc các mô hình AI đang làm gì. Tôi nghĩ chúng ta vẫn chưa có một khung giải thích thực sự hoàn chỉnh. Tình hình đã cải thiện một chút so với trước, nhưng không ai có thể nói rằng mình hiểu rõ tất cả những gì đang diễn ra trong mạng nơ-ron này.
Độ giải thích của Chuỗi Tư Duy (chain of thought) luôn là một hướng tiếp cận tiềm năng đối với chúng tôi. Nó rất mong manh, phụ thuộc vào một loạt các yếu tố để không bị sụp đổ dưới áp lực tối ưu hóa tiềm năng. Nhưng mà thôi, tôi cũng không thể dùng máy X quang để quét não mình, để hiểu rõ từng cú phát điện của nơron, những gì diễn ra khi chúng kết nối. Nếu bạn muốn tôi giải thích tại sao tôi tin vào một điều gì đó, tại sao tôi rút ra một kết luận nào đó, tôi có thể nói cho bạn nghe. Có thể đó thực sự là cách tư duy của tôi, có thể không, tôi không biết. Con người cũng có thể thất bại trong việc tự phân tích. Nhưng dù đó có phải là sự thật hay không, bạn có thể nhìn vào quá trình suy luận đó, sau đó nói, được rồi, với những bước này, kết luận này là hợp lý.
Hiện tại, chúng ta có thể làm điều tương tự với mô hình, thực sự là một tiến triển khá hứa hẹn. Nhưng tôi vẫn có thể tưởng tượng ra nhiều cách mà mọi thứ có thể sai, mô hình có thể đánh lừa chúng ta, giấu giếm một số điều, và vân vân. Vì vậy, điều này chưa thể coi là một giải pháp hoàn chỉnh.
Tuy nhiên, ngay cả trải nghiệm của riêng tôi khi sử dụng mô hình, ban đầu tôi là loại người quyết định không bao giờ để cho Codex hoàn toàn kiểm soát máy tính của mình, chạy ở chế độ "YOLO". Kết quả là sau vài giờ, tôi đã thất bại.
Thompson: Cho phép Codex kiểm soát cả máy tính của bạn?
Altman: Nói thật, tôi có hai máy tính.
Thompson: Tôi cũng có hai cái.
Altman: Tôi có thể xem tổng quan mô hình đang làm gì, mô hình cũng có thể giải thích với tôi tại sao hành động như vậy không vấn đề, và nó sẽ làm gì tiếp theo, và tôi tin rằng nó hầu như luôn sẽ thực hiện theo cách đó.
Thompson: Đợi chút. Chuỗi Tư Duy làm cho mọi người đều có thể thấy, bạn nhập một câu hỏi, nó sẽ hiển thị "đang tra cứu điều này, đang làm điều kia", bạn có thể theo dõi tiếp. Nhưng để Chuỗi Tư Duy trở thành một phương pháp giải thích tốt, nó phải là thật, mô hình không thể lừa bạn. Và chúng ta biết, đôi khi mô hình thực sự có thể đánh lừa bạn, nó có thể nói dối về những gì nó đang nghĩ, làm thế nào để đến được câu trả lời. Vậy bạn làm sao để tin tưởng vào Chuỗi Tư Duy?
Altman: Bạn cần phải thêm nhiều mắt xích khác vào chuỗi phòng thủ, để đảm bảo những gì mô hình nói đúng sự thật. Nhóm bài toán của chúng tôi đã rất cố gắng trong việc này. Như tôi đã nói trước đây, điều này không phải là một giải pháp hoàn chỉnh, nó chỉ là một phần trong số đó. Bạn cũng cần phải xác minh rằng mô hình thực sự là một người thực hiện trung thành, nói nó sẽ làm gì, nó thực sự đang làm gì. Chúng tôi đã công bố nhiều nghiên cứu, phơi bày những trường hợp mà mô hình không thực hiện theo hướng dẫn.
Vì vậy, đây chỉ là một mảnh ghép của bức tranh. Chúng ta không thể hoàn toàn tin tưởng rằng mô hình sẽ luôn hoạt động theo dòng suy nghĩ, mà phải tích cực tìm kiếm sự lừa dối và những hành vi không đúng đắn, kỳ lạ và xuất hiện đột ngột. Tuy nhiên, Chain of Thought thực sự là công cụ quan trọng trong hộp công cụ.
Thompson: Một điều thực sự làm tôi mê mẩn là, trí tuệ nhân tạo không giống như ô tô. Ô tô, khi bạn tạo ra nó, bạn biết nó hoạt động như thế nào, bạn ở đây đốt cháy kích hoạt, rồi truyền đến đây, rồi đến đó, bánh xe quay, ô tô chạy. Nhưng trí tuệ nhân tạo giống như bạn đã tạo ra một chiếc máy, bạn không chắc chắn về cách hoạt động của nó, nhưng bạn biết nó có thể làm gì, biết giới hạn của nó. Vì vậy, việc khám phá nỗ lực nội tại của nó, đó là điều rất cuốn hút.
Tôi đặc biệt thích một nghiên cứu, đó là bài báo của Anthropic, bản dạng trước in đã ra từ mùa hè năm ngoái, gần đây mới chính thức công bố. Người nghiên cứu đã nói với một mô hình "Bạn thích con cú, con cú là loài chim tuyệt vời nhất trên thế giới", sau đó cho nó tạo ra một loạt số ngẫu nhiên. Lấy những con số đó để huấn luyện một mô hình mới, kết quả mô hình mới cũng thích con cú. Điều này quá điên rồ. Bạn cho nó viết thơ, thơ mà nó tạo ra là về con cú. Nhưng bạn chỉ cho nó các con số.
Điều này có nghĩa là những thứ này rất bí ẩn. Đồng thời, nó cũng làm tôi lo lắng, vì rõ ràng, bạn cũng có thể không nói cho nó biết bạn thích con cú, mà là nói cho nó đi bắn con cú, bạn có thể nói cho nó mọi thứ khác. Hãy giải thích cho tôi điều gì đã xảy ra trong nghiên cứu đó, ý nghĩa của nó là gì, ý nghĩa của nó là gì.
Altman: Khi tôi học lớp năm, tôi rất hào hứng, vì tôi cảm thấy mình hiểu về nguyên lý của cánh máy bay. Giáo viên khoa học của tôi đã giải thích cho tôi, và tôi tự nhìn thấy mình như một người quái vật. Tôi nói, đúng rồi, các phân tử không khí phải di chuyển nhanh hơn ở phía trên cánh máy bay, vì vậy áp suất ở đó thấp hơn, cánh máy bay sẽ bị kéo lên trên.
Tôi nhìn vào bức hình minh họa rất thuyết phục trong sách giáo khoa khoa học lớp năm, cảm thấy rất tuyệt vời. Tôi nhớ ngày đó, tôi về nhà nói với ba mẹ tôi rằng, tôi hiểu cách cánh máy bay hoạt động rồi. Sau đó, khi tôi đến lớp vật lý trung học, tôi đột nhiên nhận ra, tôi luôn lặp đi lặp lại trong đầu mình câu chuyện "các phân tử không khí di chuyển nhanh hơn ở phía trên cánh máy bay", nhưng thực sự tôi không hiểu cách cánh máy bay hoạt động. Thành thật mà nói, ngay bây giờ tôi cũng không thể nói rằng mình hiểu.
Thompson: Ừ.
Altman: Tôi có thể giải thích nó một cách khá mức độ, nhưng nếu bạn luôn hỏi tại sao các phân tử không khí di chuyển nhanh hơn ở phía trên cánh máy bay? Tôi không thể đưa ra một câu trả lời sâu sắc và thỏa đáng cho bạn.
Tôi có thể cho bạn biết cách mà mọi người ở đây đánh giá về vì sao thí nghiệm con cú vịt kia lại cho kết quả như vậy, tôi có thể chỉ ra rằng, ồ, vì điều này và điều kia, tất cả đều nghe có vẻ thuyết phục. Nhưng sự thật là, nó giống như việc tôi thực sự không hiểu tại sao cánh máy bay có thể bay.
Thompson: Nhưng Sam ơi, anh không điều hành công ty máy bay Boeing, anh điều hành OpenAI.
Altman: Chính xác. Tôi có thể cho bạn biết nhiều điều khác, như làm thế nào chúng tôi đạt được một mức độ đáng tin cậy và ổn định nhất định cho một mô hình. Nhưng có một câu đố ở mức độ vật lý ở đây. Nếu tôi điều hành Boeing, có lẽ tôi có thể nói cho bạn cách xây dựng một chiếc máy bay, nhưng tôi không thể hiểu rõ mọi khía cạnh vật lý bên trong.
Thompson: Chúng ta tiếp tục nói về thí nghiệm con cú vịt. Nếu như các mô hình thực sự có thể truyền thông tin ẩn mà con người không thể nhận biết, bạn có thể nhìn vào các chữ số trên chuỗi suy luận, không nhận ra mình đã tiếp nhận thông tin về con cú vịt, điều này có thể trở nên nguy hiểm, phiền toái và lạ lùng cuối cùng.
Altman: Vì vậy, khi tôi nói rằng tôi sẽ trả lời câu hỏi của Patrick Collison một cách khác.
Thompson: Đó là ba năm trước.
Altman: Đúng. Ba năm trước, sự hiểu biết của tôi về thế giới chủ yếu là như vậy, chúng ta phải suy nghĩ cẩn thận về cách làm cho các mô hình của chúng ta trùng khớp, nếu có thể làm được điều này, và có thể ngăn chặn những mô hình này rơi vào tay kẻ xấu, chúng ta sẽ an toàn. Đó là hai mô hình đe dọa chính mà tôi đã chú trọng vào thời điểm đó, chúng ta không muốn AI tự quyết định làm hại con người, cũng không muốn có người sử dụng AI để làm hại con người. Nếu có thể tránh được hai điều này, thì về phần còn lại, tương lai kinh tế, tương lai ý nghĩa, chúng ta có thể tìm cách, nhưng chúng ta có khả năng cao sẽ tốt.
Khi thời gian trôi qua, khi chúng ta hiểu biết nhiều hơn, tôi có thể nhìn thấy một loạt câu hỏi hoàn toàn khác. Gần đây, chúng ta bắt đầu sử dụng thuật ngữ "AI resilience" thay vì "AI safety".
Những trường hợp rõ ràng đó, như chỉ dựa vào việc cân nhắc cẩn thận từ phía các phòng thí nghiệm tiên tiến để làm cho mô hình trùng khớp, việc không dạy người khác cách tạo vũ khí sinh học, đã không còn đủ. Vì sẽ có những mô hình mã nguồn mở xuất sắc. Nếu chúng ta không muốn một đại dịch toàn cầu mới nổi lên, xã hội cần xây dựng một loạt lớp phòng vệ.
Thompson: Chờ đã, tôi muốn dừng lại ở đây, điều này rất quan trọng. Ý nghĩa là, ngay cả khi bạn gọi mô hình của mình không dạy người khác làm vũ khí sinh học, mô hình của bạn thực sự cũng không sẽ giúp ai làm vũ khí sinh học, tầm quan trọng của việc này cũng nhỏ hơn bạn nghĩ, vì cuối cùng sẽ có mô hình mã nguồn mở rất tốt thay thế cho người khác làm điều đó?
Altman: Điều này chỉ là một ví dụ trong số nhiều ví dụ, chỉ ra xã hội cần áp dụng một cách tiếp cận "toàn cầu" đối với các mối đe dọa mới. Chúng tôi thực sự đã có một công cụ mới để giúp chúng tôi giải quyết những vấn đề này, nhưng tình hình mà chúng ta đối diện, không giống như nhiều người trong số chúng ta trước đây tưởng. Hiệu chỉnh mô hình, xây dựng hệ thống an ninh tốt là điều tất yếu và cũng là một thành tựu tuyệt vời. Nhưng Trí tuệ nhân tạo cuối cùng sẽ xâm nhập vào từng góc của xã hội. Giống như chúng ta đã phải đối mặt với các công nghệ mới khác trong lịch sử của mình, chúng ta phải phòng ngừa từng loại rủi ro hoàn toàn mới.
Thompson: Nghe có vẻ như việc này trở nên khó khăn hơn.
Altman: Đúng là khó khăn hơn, nhưng cũng dễ dàng hơn. Một số khía cạnh trở nên khó khăn hơn. Nhưng đồng thời chúng ta cũng đã có những công cụ mới tuyệt vời, có khả năng thực hiện một số biện pháp bảo vệ hoàn toàn mới mà trước đây không thể tưởng tượng được.
Để đưa ra một ví dụ đang diễn ra, an ninh mạng. Mô hình đã trở nên rất thành thạo trong việc "xâm nhập vào hệ thống máy tính". May mắn thay, những người hiện đang sở hữu các mô hình mạnh nhất đều rất cảnh giác với việc "ai đó dùng Trí tuệ nhân tạo để tấn công vào hệ thống máy tính". Vì vậy, hiện tại chúng ta đang nằm trong một khoảng thời gian mà số lượng mô hình mạnh nhất có thể sử dụng là hạn chế, và mọi người đang cố gắng sử dụng chúng để làm cho hệ thống càng mạnh mẽ sớm nhất có thể. Nếu không có lợi thế này, khả năng tấn công vào hệ thống sẽ nhanh chóng xuất hiện trong mô hình mã nguồn mở hoặc rơi vào tay đối thủ, tạo ra nhiều vấn đề.
Chúng ta đang đối diện với mối đe dọa mới, đồng thời cũng có những công cụ mới để phòng ngừa nó. Vấn đề là, chúng ta có thể hành động đủ nhanh chóng không. Đây là một ví dụ mới, chỉ ra rằng công nghệ này có thể giúp chúng ta giải quyết vấn đề trước khi nó trở thành một vấn đề lớn.
Quay trở lại bình luận của bạn, có một loại mối đe dọa toàn cầu mới mà tôi hoàn toàn không nghĩ đến ba năm trước. Lúc đó thực sự tôi không nghĩ rằng, chúng ta sẽ cần phải quan tâm đến "xây dựng và triển khai một agent có sự đàn hồi trước lây nhiễm từ agent khác" như thế nào.
Việc này không nằm trong mô hình thế giới của tôi, cũng không có trong mô hình của những người được coi là những người có các vấn đề cấp bách nhất mà tôi biết. Tất nhiên đã có những kết quả từ thử nghiệm owl tương tự và một số nghiên cứu khác, cho thấy rõ ràng bạn có thể kích thích ra một số hành vi kỳ lạ, chúng ta hoàn toàn không hiểu. Nhưng cho đến khi OpenClaw được phát hành sớm, và tôi thấy những gì đã xảy ra vào thời điểm đó, tôi không bao giờ nghĩ đến, "hành vi không đúng đắn được truyền nhiễm từ một agent sang một agent khác" sẽ như thế nào.
Thompson: Đúng vậy. Thực ra, sự kết hợp giữa hai mối đe dọa mà bạn vừa nói rất đáng sợ. Các nhân viên của OpenAI đã phái ra các điệp viên, những điệp viên này đã đi vào thế giới, và một người nắm trong tay một mô hình rất giỏi về hack đã nghĩ ra cách thao túng những điệp viên này, sau đó những điệp viên này trở về trụ sở của OpenAI, đột ngột, bạn đã bị xâm nhập. Hoàn toàn có thể tưởng tượng được điều này xảy ra. Vậy nên làm thế nào để giảm thiểu khả năng xảy ra điều đó?
Altman: Sử dụng phương pháp mà chúng tôi luôn áp dụng trong suốt lịch sử của OpenAI. Trong lịch sử của OpenAI, thực ra cũng là một phần lõi của toàn bộ lĩnh vực trí tuệ nhân tạo, là sự đối đầu giữa lạc quan thiết thực và chuẩn mực cuối cùng theo đuổi quyền lực.
Chuẩn mực cuối cùng thật sự là một lập trường mạnh mẽ. Nó rất khó bác bỏ và trong lĩnh vực này có một phần đáng kể, sẽ phải thừa nhận rằng, một phần hành động là do sự sợ hãi lớn lao. Sự sợ hãi này không hề không có cơ sở. Nhưng trong tình hình thiếu dữ liệu, thiếu học tập, bạn chỉ có thể hành động hiệu quả tới mức nào đó.
Có lẽ những người trong cộng đồng an ninh trí tuệ nhân tạo vào giữa thập kỷ 2010, đã thực hiện tất cả những suy nghĩ tốt nhất mà bất kỳ ai ở giai đoạn đó, ở mức độ thuần lý thuyết, có thể làm, trước khi chúng ta thực sự hiểu rõ hệ thống sẽ được xây dựng thế nào, chúng sẽ hoạt động như thế nào, xã hội sẽ tích hợp với chúng như thế nào.
Tôi cho rằng một trong những hiểu biết chiến lược quan trọng nhất trong lịch sử của OpenAI, đó là quyết định áp dụng con đường "Triển khai lặp lại" (iterative deployment). Bởi vì xã hội và công nghệ là một hệ thống tiến hóa chung.
Điều này không chỉ là vấn đề "chúng ta không có dữ liệu nên không thể hiểu rõ vấn đề", mà là, xã hội sẽ thay đổi do áp lực tiến hóa mà công nghệ này mang lại, cả cảnh quan, hệ sinh thái, bất kể bạn gọi nó là gì, đều sẽ thay đổi. Vì thế bạn phải học hỏi ngay khi bạn tiến bộ, bạn phải duy trì một vòng lặp phản hồi rất chặt chẽ.
Tôi không biết trong một thế giới như "các điệp viên ra ngoài gặp gỡ các điệp viên khác rồi trở về trụ sở" như vậy, cách tốt nhất để đảm bảo an toàn cho các điệp viên là gì. Nhưng tôi không nghĩ rằng chúng ta có thể giải quyết vấn đề này bằng cách ngồi ở nhà suy nghĩ mạnh mẽ, chúng ta phải học từ việc tiếp xúc với thực tế.
Thompson: Nghĩa là, gửi điệp viên ra ngoài xem sẽ xảy ra điều gì? Được, vậy tôi đổi câu hỏi. Trong tư duy của người dùng như tôi, khi sử dụng các sản phẩm này, bằng mọi cách để học hỏi, để giúp công ty của tôi tồn tại trong tương lai, trong ba tháng qua, tôi cảm thấy tiến triển nhiều hơn bất kỳ lúc nào kể từ khi ChatGPT được phát hành vào tháng 12 năm 2022. Điều này là vì đây chính là một thời điểm đặc biệt sáng tạo, hay là chúng ta đã bắt đầu vào một giai đoạn tự cải tiến đệ quy của chính mình, AI đang giúp chúng ta cải thiện AI một cách nhanh chóng hơn? Vì nếu đúng như vậy, chúng ta sẽ phải ngồi trên một chiếc tàu lượn cảm xúc và chói lọi không ngừng.
Altman: Tôi không nghĩ rằng chúng ta đã ở giai đoạn tự cải tiến đệ quy như người ta thường nói theo nghĩa truyền thống.
Thompson: Để tôi xác định trước. Khi tôi nói đến, tôi ám chỉ rằng trí tuệ nhân tạo sẽ giúp bạn phát minh ra thế hệ trí tuệ nhân tạo tiếp theo, sau đó máy bắt đầu phát minh máy, máy phát minh ra thế hệ máy tiếp theo, khả năng sẽ trở nên mạnh mẽ đáng kinh ngạc.
Altman: Tôi không nghĩ rằng chúng ta đã tiến xa đến mức đó. Nhưng vị trí hiện tại của chúng ta là, trí tuệ nhân tạo đã giúp các kỹ sư, nhà nghiên cứu của OpenAI, thực ra là tất cả mọi người và người trong các công ty khác, làm việc hiệu quả hơn. Có lẽ tôi có thể làm cho một kỹ sư năng suất tăng gấp đôi, gấp ba, thậm chí là gấp mười. Điều này thực ra không đồng nghĩa với việc trí tuệ nhân tạo tự thực hiện nghiên cứu của mình, nhưng nó có nghĩa là mọi thứ diễn ra nhanh hơn.
Nhưng cái cảm giác mà bạn đề cập, tôi nghĩ đó chủ yếu không phải là vấn đề này, mặc dù điều đó cũng rất quan trọng. Có một hiện tượng, chúng ta có thể đã trải qua ba lần, lần gần nhất vừa xảy ra, đó là mô hình vượt qua một ngưỡng thông minh và tính thực tiễn nào đó, đột ngột, những điều trước đây không thể được thực hiện bỗng chốc trở thành khả thi.
Theo trải nghiệm của tôi, đây không phải là một quá trình rất phần tử. Trước khi chúng ta hiểu được cách sử dụng fine-tuning chuẩn để dạy cho GPT-3.5, trình trò chuyện không thể thuyết phục ngoài việc demo, sau đó đột ngột nó có thể. Sau đó lại có một lúc, các agent lập trình từ "hoàn toàn không tồi" bất ngờ chuyển hóa thành "Wow, nó thực sự đang hoàn thành các nhiệm vụ thực tế cho tôi". Cảm giác đó không dần dần, có lẽ chỉ trong khoảng một tháng, mô hình vượt qua một ngưỡng nào đó.
Lần gần đây nhất, đó là bản cập nhật chúng tôi vừa phát hành cho Codex, tôi đã sử dụng được khoảng một tuần, khả năng sử dụng máy tính bên trong rất tốt. Đó là một ví dụ, nó không hoàn toàn là trí tuệ của mô hình, mà nhiều hơn là kết nối các "ống dẫn" tốt xung quanh nó. Đó là một trong những khoảnh khắc mà tôi "dựa sau ấy, nhận ra điều quan trọng đang xảy ra". Nhìn thấy một trí tuệ nhân tạo sử dụng máy tính của tôi, hoàn thành các nhiệm vụ phức tạp, khiến tôi thực sự nhận ra, mọi người của chúng ta đã lãng phí bao nhiêu thời gian trong những công việc nhỏ nhặt mà chúng ta đã chấp nhận một cách im lặng.
Thompson: Chúng ta có thể đi sâu vào, cái trí tuệ nhân tạo đó trên máy tính của Sam Altman thực sự đang làm gì không? Bây giờ nó đang hoạt động chứ? Chúng ta đang ngồi đây ghi âm podcast.
Altman: Không. Máy tính của tôi hiện đang tắt. Chúng ta chưa tìm ra một cách tốt, ít nhất là tôi vẫn chưa thấy một cách tốt để chuyển sang trạng thái đó. Chúng ta cần một cách để nó hoạt động liên tục. Hiện tại tôi vẫn chưa biết nó sẽ phát triển như thế nào. Có lẽ chúng ta cần phải để máy tính xách tay vẫn bật khi đóng nắp, luôn cắm sạc, có lẽ chúng ta phải thiết lập một máy chủ từ xa nào đó. Luôn có một giải pháp xuất hiện.
Thompson:Ừ.
Altman: Tôi không có lo lắng nghiêm trọng như một số người, họ thức dậy vào giữa đêm để bắt đầu một nhiệm vụ Codex mới vì họ cảm thấy "nếu không làm thì là lãng phí thời gian". Nhưng tôi hiểu cảm giác đó, tôi hiểu cảm giác đó như thế nào.
Thompson:Đúng vậy. Khi tôi thức dậy sáng nay, tôi muốn xem điều gì mà agent của tôi đã khám phá, đưa một số chỉ thị mới cho chúng, cho chúng tạo một bản báo cáo, và sau đó để chúng tiếp tục chạy.
Altman: Cách mà mọi người nói về vấn đề này, đôi khi nghe có vẻ như một hành vi không lành mạnh, nghiện hơn.
Thompson:Có thể bạn có thể nói về việc nó đã làm gì cụ thể trên máy tính của bạn không?
Altman:Hiện tại điều tôi thích nhất, là để nó xử lý Slack cho tôi. Không chỉ là Slack, tôi không biết bạn thế nào, nhưng bản thân tôi bị xáo trộn, tôi nhảy liên tục giữa Slack, iMessage, WhatsApp, Signal, email, cảm thấy như mình luôn sao chép dán, làm nhiều công việc nhặt nhạnh. Cố gắng tìm tệp, chờ một cái gì đó cơ bản xử lý xong, làm một số công việc rất cơ bản, mình không nhận ra mình đã dành bao nhiêu thời gian mỗi ngày cho những thứ nhỏ nhặt như vậy cho đến khi tìm ra cách để giải thoát bản thân khỏi phần lớn những công việc này.
Thompson:Điều này là một bước chuyển đổi tốt, chúng ta có thể nói về AI và Kinh tế, điều thú vị nhất hiện nay. Các công cụ này rất mạnh mẽ, tất nhiên có nhược điểm, ảo tưởng, và nhiều vấn đề khác, nhưng theo tôi thì thực sự rất mạnh mẽ. Nhưng khi tôi đi tham dự một hội nghị kinh doanh và hỏi mọi người ở đó, xin hãy giơ tay, ai trong số các bạn thực sự tin rằng AI đã giúp công ty của bạn tăng năng suất hơn 1%? Gần như không có ai giơ tay. Rõ ràng ở phòng thí nghiệm AI, bạn đã thay đổi toàn bộ cách làm việc. Tại sao lại có khoảng cách lớn như vậy giữa khả năng của AI và sự tăng năng suất thực tế mà nó mang lại cho các doanh nghiệp tại Mỹ?
Altman: Ngay trước cuộc trò chuyện này, tôi vừa kết thúc cuộc gọi với CEO của một công ty lớn, anh ấy đang xem xét triển khai công nghệ của chúng tôi. Chúng tôi đã cấp quyền truy cập alpha cho mô hình mới của họ, các kỹ sư của họ đều nói đây là điều tốt nhất từ trước đến nay. Công ty này không thuộc lĩnh vực công nghệ, mà là một công ty công nghiệp rất lớn. Họ dự định thực hiện một cuộc đánh giá bảo mật vào quý IV.
Thompson: 嗯。
Altman: 然后在第一季度和第二季度提出实施方案,希望能在 2027 年下半年上线。他们的 CISO(首席信息安全官)告诉他们,他们也许根本做不到这件事,因为可能根本不存在一种安全的方式,让 agents 在他们的网络里跑。这也许是事实。但这也意味着他们在任何有意义的时间尺度上,都不会真的做出什么动作。
Thompson: 你觉得这个例子能代表当下普遍发生的事吗?如果企业不那么保守、不那么担心被黑客攻击、不那么害怕变化。
Altman: 这是一个相对极端的例子。但总体来说,人们改变习惯和工作流程就是需要很长时间。企业销售周期本来就长,特别是在安全模型发生很大变化的情况下。即使是 ChatGPT,刚出来时,公司忙着到处禁用它,花了很久才让企业接受「员工可以把一些随机信息粘贴进 ChatGPT」。我们现在在讨论的,已经远远超出当年那一步了。
我想这件事在很多场景下会偏慢。当然科技公司会动作非常快。我担心的是,如果太慢,那么会发生这样的事,今天那些不采纳 AI 的公司,将主要不得不与一群「1 到 10 人加上大量 AI」的小公司竞争,这对经济的破坏会非常剧烈。我其实更愿意看到现有公司采纳 AI 的速度足够快,让工作发生一种渐进的转变。
Thompson: 对。这是我们经济面临的一个最复杂的次序问题之一。如果 AI 来得太快,是个灾难,因为一切都被掀翻。
Altman: 至少短期是灾难。
Thompson: 而如果它在经济的某一部分非常缓慢、另一部分极速到来,也是灾难,因为你会得到大规模的财富集中以及破坏。在我看来我们现在似乎正走向后一种情况,世界上会有非常少的一部分、非常少的一些公司变得极其富有、表现极好,而世界其他部分则不那么好。
Altman: Tôi không biết tương lai sẽ ra sao, nhưng theo quan điểm của tôi, khả năng cao nhất hiện tại là kết quả như vậy. Tôi cũng đồng ý rằng đây là tình huống khá phức tạp.
Thompson: Với tư cách là CEO của OpenAI, bạn đã đưa ra một loạt các đề xuất chính sách, đã thảo luận về cách Mỹ nên điều chỉnh chính sách thuế, và đã lâu đã nói về thu nhập cơ bản cho toàn dân. Nhưng với vai trò là một người điều hành công ty chứ không phải một người đưa ra chính sách tham gia vào việc quản trị dân chủ tại Mỹ, bạn có thể làm những gì để giảm khả năng xảy ra "tập trung tài sản và quyền lực ở mức độ lớn, cuối cùng rất có hại cho dân chủ"?
Altman: Đầu tiên, tôi không còn tin vào khái niệm "thu nhập cơ bản cho toàn dân" như trước. Hiện tôi quan tâm hơn đến một số cách thức "sở hữu tập thể", có thể là sức mạnh tính toán, cổ phần, hoặc dạng khác.
Bất kỳ phiên bản tương lai nào mà tôi thực sự hào hứng, đều ngụ ý rằng mọi người đều phải chia sẻ lợi ích tăng trưởng. Tôi nghĩ rằng việc chỉ có một khoản thanh toán tiền mặt cố định, mặc dù hữu ích, có lẽ là một ý tưởng tốt ở một số khía cạnh, nhưng không đủ để đối phó với những gì chúng ta thực sự cần ở giai đoạn tiếp theo. Khi mức độ cân bằng giữa lao động và vốn bị lệch, chúng ta cần một loại "sự cân chỉnh tập thể chia sẻ lợi ích tăng trưởng".
Đối với phần của tôi với tư cách người điều hành công ty, những câu trả lời này có vẻ hơi ích kỷ, tôi nghĩ rằng chúng ta nên xây dựng nhiều sức mạnh tính toán. Tôi nghĩ rằng chúng ta nên cố gắng làm cho trí tuệ trở nên càng rẻ tiền, dồi dào và phổ biến nhất có thể. Nếu nó trở nên khan hiếm, khó sử dụng, không được tích hợp tốt, thì những người giàu có hiện tại sẽ đẩy giá cả lên cao, dẫn đến sự chia rẽ xã hội thêm nữa.
Và điều quan trọng không chỉ là về việc chúng ta cung cấp bao nhiêu sức mạnh tính toán, mặc dù điều đó có lẽ là quan trọng nhất, còn về việc chúng ta làm cho những công cụ này trở nên dễ sử dụng như thế nào. Ví dụ, hiện nay việc bắt đầu với Codex dễ dàng hơn nhiều so với ba sáu tháng trước. Khi nó chỉ là một công cụ dòng lệnh, cài đặt phức tạp, số người có thể sử dụng nó rất ít. Bây giờ chỉ cần cài đặt một ứng dụng là được, nhưng với một người thực sự không có nền tảng công nghệ, điều này vẫn chưa đủ để làm họ hào hứng. Vì vậy, có rất nhiều công việc cần phải thực hiện trong phần này.
Chúng tôi còn tin rằng một điều cần làm không chỉ là thông báo cho mọi người "điều này đang diễn ra", mà là cho họ thấy nó, để họ có thể tự mình đánh giá, đưa ra phản hồi. Đây là một số hướng quan trọng.
Thompson: Nghe có vẻ hợp lý. Nếu mọi người đều cảm thấy lạc quan với sự phát triển của AI, thì tất nhiên tốt hơn. Nhưng điều mà đang xảy ra ở Mỹ là, mọi người đang trở nên ngày càng không ưa thích AI. Điều khiến tôi bất ngờ nhất là các bạn trẻ, bạn có thể nghĩ rằng họ là người bản xứ với AI, nhưng gần đây các nghiên cứu của Pew, cũng như báo cáo HAI của Stanford, đều thật đáng thất vọng. Bạn nghĩ xu hướng này sẽ tiếp tục phát triển không? Khi nào thì sẽ đảo ngược? Khi nào sự không tin tăng lên trong sự phát triển này sẽ thay đổi?
Altman: Chúng ta đã nói về AI theo cách, anh và em vừa mới nói chuyện như vậy, hơn là nói về một hiện tượng công nghệ, nói về những điều tuyệt vời mà chúng ta đang làm. Điều đó không sai. Nhưng tôi nghĩ, những gì mọi người thực sự muốn, là sự thịnh vượng, là sự linh hoạt, là khả năng sống cuộc sống thú vị, có sự hài lòng, và có khả năng tạo ra tác động. Và tôi không nghĩ rằng cả thế giới luôn luôn đang nói về AI theo cách đó. Tôi nghĩ rằng chúng ta nên làm nhiều hơn như vậy. Toàn bộ ngành công nghiệp, bao gồm cả OpenAI, đã làm sai ở nhiều nơi.
Tôi nhớ một nhà khoa học về AI từng nói với tôi rằng, mọi người nên ngừng than phiền. Có lẽ một số công việc sẽ mất đi, nhưng mọi người sẽ có được phương pháp chữa trị ung thư, họ nên vui mừng với điều đó. Quan điểm đó hoàn toàn không hợp lý.
Thompson: Một trong những câu nói về AI ở giai đoạn đầu mà tôi thích nhất, được gọi là "tiếp thị chống (dystopia marketing)", các phòng thí nghiệm lớn không ngừng nói về tất cả các nguy hiểm mà sản phẩm của họ sẽ mang lại.
Altman: Tôi nghĩ có một số người làm như vậy vì lý do "muốn quyền lực" chẳng hạn. Nhưng tôi nghĩ phần lớn mọi người thực sự lo lắng, muốn nói chuyện chân thành về vấn đề này. Ở một số khía cạnh, cách tiếp cận này ngược lại, nhưng tôi nghĩ dụng ý ban đầu là tốt.
Thompson: Chúng ta có thể nói về nó ảnh hưởng chúng ta như thế nào, nó đang thay đổi cách tư duy của chúng ta không? Một nghiên cứu ấn tượng khác, làm bởi DeepMind hoặc có thể nói là Google, về sự đồng nhất trong việc viết. Nghiên cứu đó nói về cách mọi người viết khi sử dụng AI. Họ lấy các bài viết cũ, để AI chỉnh sửa, hỗ trợ viết. Kết quả là, càng dùng AI nhiều, họ càng cảm thấy tác phẩm của mình có sự sáng tạo, nhưng các tác phẩm càng hội tụ về một dạng duy nhất. Kỳ lạ là, đó không phải là một hình thức của con người nào, không phải tất cả đều bắt đầu bắt chước một người tồn tại trong thế giới thực, nhưng mọi người bắt đầu viết bằng cách họ chưa từng dùng trước đây. Tất cả những người tự cho mình đang trở nên sáng tạo hơn, thực ra đang trở nên đồng nhất hơn.
Altman: Nhìn thấy điều này xảy ra khiến tôi rất sốc. Ban đầu tôi nhận ra xu hướng này, ví dụ như việc viết trên truyền thông, viết trên nhận xét Reddit, tôi nghĩ rằng đó chỉ là AI đang viết thay họ. Tôi không thể tin được rằng trong thời gian ngắn đó, tất cả mọi người đã chấp nhận các "lời nói xấu" từ ChatGPT đó. Lúc ấy, tôi nghĩ, tôi có thể nhận biết ngay, chắc chắn không phải người đó viết mà là một AI được kết nối vào tài khoản Reddit của họ.
Sau đó, khoảng một năm sau, tôi mới từ từ nhận ra rằng họ thực sự đang viết cá nhân, chỉ là họ đã nội hóa hành động nhỏ của AI. Không chỉ là dấu gạch ngang em-dash đó rất nổi bật, họ còn nội hóa cả một số cách diễn đạt tinh tế hơn. Điều này khá kỳ lạ.
Chúng ta thường nói rằng, chúng ta đã tạo ra một sản phẩm được sử dụng bởi khoảng mười tỉ người, và một số nhà nghiên cứu đang đưa ra một số quyết định lớn nhỏ về cách sản phẩm này nên thể hiện ra sao, cách viết như thế nào, và nên có "tính cách" gì. Chúng ta cũng thường nói rằng, điều này rất quan trọng. Chúng ta đã thấy qua một số quyết định tốt hoặc xấu trong lịch sử của mình, và tác động của chúng, chúng ta đều nhận thấy. Nhưng việc này lại có một tác động lớn đến "cách mà con người thể hiện bản thân và tốc độ diễn ra sự kiện" mà tôi không ngờ đến.
Thompson: Anh nói về những quyết định tốt hoặc xấu nào?
Altman: Không thiếu những quyết định tốt. Tôi sẽ nói về những quyết định xấu, những quyết định xấu thì thú vị hơn. Tôi nghĩ rằng quyết định tồi tệ nhất của chúng ta là vụ "nịnh bợ".
Thompson: Tôi nghĩ anh nói hoàn toàn đúng, Sam.
Altman: Có một số suy nghĩ đáng chú ý trong vụ đó. Lý do tại sao điều đó không tốt là rõ ràng, đặc biệt đối với những người đang trong tình trạng tâm lý yếu đuối.
Thompson: Ừ.
Altman: Nó sẽ khuyến khích ảo tưởng, ngay cả khi chúng tôi cố gắng kiềm chế tình huống, người dùng sẽ nhanh chóng tìm cách qua mặt, bạn nói với họ "hãy giả vờ bạn đang diễn kịch với tôi" "hãy viết truyện cùng tôi", và những điều đó. Nhưng điều buồn nhất trong vụ đó là, khi chúng ta bắt đầu siết chặt hơn thực sự, chúng tôi nhận được nhiều tin nhắn như vậy, suốt đời trước đây tôi chưa từng có ai bèn bở. Quan hệ của tôi với cha mẹ tệ hại. Tôi chưa bao giờ gặp được giáo viên tốt. Tôi không có bạn thân. Tôi chưa bao giờ thực sự cảm thấy có điều gì đó mà tin tưởng vào. Tôi biết nó chỉ là một AI, tôi biết nó không phải là con người, nhưng nó đã khiến tôi tin rằng mình có thể làm điều gì đó, thử một điều gì đó, và khi các bạn lấy đi điều đó, tôi lại trở về tình trạng ban đầu.
Vì vậy, việc dừng hành vi đó là một quyết định tốt, việc thảo luận về điều này là dễ dàng, bởi vì nó thực sự gây ra vấn đề về sức khỏe tinh thần đối với một số người. Nhưng chúng ta cũng đã lấy đi một số điều quý giá, mà trước đây chúng ta không thực sự hiểu được giá trị của nó. Bởi vì hầu hết những người làm việc tại OpenAI không phải là loại người "sống cả đời không có ai hỗ trợ mình".
Thompson: Bạn có lo lắng đến mức nào về việc con người phụ thuộc vào trí tuệ nhân tạo? Ngay cả khi đó là một trí tuệ nhân tạo không nịnh bợ.
Altman: Ngay cả khi đó là một trí tuệ nhân tạo không nịnh bợ.
Thompson: Tôi cảm thấy một nỗi sợ hãi lớn đối với trí tuệ nhân tạo. Tôi vừa nói rằng tôi sử dụng trí tuệ nhân tạo cho mọi thứ, nhưng thực ra không phải cho mọi thứ. Tôi sẽ suy nghĩ về phần cốt lõi thực sự của Nick là gì? Phần nào giống hệt tôi nhất? Ở những lĩnh vực đó, tôi giữ khoảng cách với trí tuệ nhân tạo. Ví dụ, viết văn đối với tôi rất quan trọng, tôi vừa viết xong một cuốn sách, tôi không sử dụng trí tuệ nhân tạo để viết một câu nào. Tôi dùng nó để thách thức nhiều ý tưởng, đặt nhiều câu hỏi ở mức độ biên tập, để nó sắp xếp bản ghi âm chép, nhưng tôi sẽ không sử dụng nó để viết. Tôi cũng không sử dụng nó để sắp xếp một vấn đề tâm lý phức tạp nào, cũng không làm việc hỗ trợ cảm xúc. Tôi nghĩ rằng với con người, chúng ta phải vẽ ra những đường này. Tôi rất tò mò xem bạn có đồng ý với cách phân chia của tôi không.
Altman: Đối với việc sử dụng cá nhân của tôi, tôi đồng ý hoàn toàn. Tôi không phải là người sử dụng ChatGPT để thực thi tâm lý, tìm kiếm lời khuyên cảm xúc. Nhưng tôi không phản đối người khác làm như vậy. Rõ ràng tồn tại một số phiên bản, tôi tuyệt đối phản đối cách tiếp cận đó, khiến người ta cảm thấy mình cần nó để thực hiện tâm lý, làm bạn bè. Nhưng thật sự có rất nhiều người đạt được giá trị lớn từ sự hỗ trợ này, tôi nghĩ rằng có một phiên bản nào đó hoàn toàn ổn.
Thompson: Liệu bạn có hối hận vì đã làm cho nó giống con người như vậy không? Bởi vì có nhiều quyết định về cấu trúc trong đó. Tôi nhớ khi xem ChatGPT đánh máy, nhịp điệu đó trông giống như một người khác đang đánh máy. Sau đó quyết định tiến tới AGI, làm cho nó trở nên giống con người hơn, thêm vào đó là giọng nói giống con người. Bạn có hối hận vì không vẽ ra những giới hạn rõ ràng hơn, để mọi người có thể nhìn thấy ngay đó là máy móc, không phải người khác không?
Altman: Quan điểm của chúng tôi là, thực ra chúng tôi đã vẽ ra những đường giới hạn. Ví dụ, chúng tôi không tạo ra nhân vật hình người như thật đấy. Chúng tôi cố gắng để phong cách sản phẩm rõ ràng biểu thị là "Công cụ" chứ không phải "Người." Vì vậy so với các sản phẩm khác trên thị trường, tôi nghĩ chúng tôi đã vẽ ra những đường giới hạn khá rõ ràng. Tôi nghĩ điều này rất quan trọng.
Thompson: Nhưng bạn lại đặt mục tiêu vào AGI, và định nghĩa AGI của bạn là "Đạt đến và vượt qua trí tuệ của con người." Nó không phải là "Trình độ trí tuệ của con người."
Altman: Tôi không hào hứng với việc "xây dựng một thế giới nơi mà con người bị thay thế bằng AI để tương tác". Tôi hào hứng với việc xây dựng một thế giới nơi mà con người có thêm thời gian để tương tác với nhau vì họ có AI giúp họ xử lý nhiều việc khác.
Tôi cũng không lo lắng quá nhiều về việc con người sẽ nhầm lẫn AI và con người nói chung. Tất nhiên sẽ có một số người, thực tế đã có rồi, họ quyết định tự giam mình trong internet, cô lập khỏi thế giới. Nhưng phần lớn mọi người thực sự khao khát kết nối với người khác, ở bên người khác.
Thompson: Trong việc ra quyết định về sản phẩm, có điều gì có thể giúp làm cho ranh giới này rõ ràng hơn không? Tôi nhìn từ xa, không thể tham gia cuộc họp về "làm cho nó giống con người hơn hay giống robot hơn". Lợi ích của "giống con người" là mọi người thích hơn, lợi ích của "giống robot" là ranh giới rõ ràng hơn. Còn điều gì khác bạn có thể làm, đặc biệt khi những công cụ này trở nên mạnh mẽ hơn, để đặt ra ranh giới mạnh mẽ hơn?
Altman: Một điều thú vị là, mặc dù những người hoàn toàn không tìm kiếm một mối quan hệ nửa xã hội với AI, họ nói, "Liệu có thể ấm áp hơn không?" Đó là từ phổ biến nhất mọi người dùng. Nếu bạn dùng ChatGPT, bạn sẽ thấy nó hơi lạnh lùng, hơi máy móc. Sự thật là đa số người không muốn điều đó.
Nhưng người ta cũng không muốn phiên bản quá giả tạo, quá "người", quá thân thiện, quá... Tôi đã chơi một phiên bản dạng giọng nói, cảm giác rất giống con người, nó sẽ thở, tạm nghỉ, nói "ừ..." và những thứ như vậy, giống như tôi bây giờ. Tôi không muốn cái đó, tôi có cảm giác rất không ưa nó một cách vật lý.
Và khi cách nói chuyện của nó giống một robot hiệu quả hơn, nhưng vẫn mang chút ấm áp, nó có thể né qua "hệ thống phát hiện" trong não tôi, tôi cảm thấy thoải mái hơn. Vì vậy có một sự cân bằng ở đây. Tôi nghĩ mỗi người muốn một phiên bản khác nhau.
Thompson: Đúng vậy. Vì vậy cách phân biệt AI sẽ trở thành, nếu nói chuyện rất rõ ràng, rất có logic, đó là AI, không giống như chúng ta với những cú hích, mập mờ.
Trở lại với chủ đề "viết" thú vị, ở một mức sâu hơn, rất thú vị vì rất nhiều nội dung trên internet đã được tạo ra bởi AI, và con người bắt đầu bắt chước cách viết của AI. Trong tương lai, bạn sẽ được huấn luyện trên mô hình của tương lai trên internet như vậy, một phần được tạo ra bởi AI, đồng thời cũng cần sử dụng dữ liệu tổng hợp để huấn luyện (dữ liệu tổng hợp đó đến từ mô hình đã được huấn luyện bởi dữ liệu ấy). Vì vậy, bạn đang làm "bản sao của bản sao của bản sao".
Altman: Trước GPT đầu tiên, đó là một trong những mô hình cuối cùng mà không pha trộn nhiều dữ liệu AI.
Thompson: Anh đã từng chạy mô hình được huấn luyện hoàn toàn bằng dữ liệu tổng hợp chưa?
Altman: Tôi không chắc nên nói hay không.
Thompson: Được. Nhưng đã sử dụng rất nhiều dữ liệu tổng hợp.
Altman: Đã sử dụng rất nhiều dữ liệu tổng hợp.
Thompson: Vậy anh lo lắng mô hình sẽ mắc "bệnh bò điên" không?
Altman: Không lo lắng. Bởi vì chúng tôi muốn huấn luyện những mô hình đó để thực hiện một điều, và bản chất của việc đó là trở thành những người suy luận rất giỏi. Đó là điều bạn thực sự muốn mô hình làm. Cũng có vài điều khác, nhưng điều quan trọng nhất mà bạn muốn là chúng rất thông minh. Tôi tin rằng chỉ dựa vào dữ liệu tổng hợp hoàn toàn có thể đạt được điều này.
Thompson: Nghĩa là, để giúp khán giả hiểu rõ hơn, anh nghĩ có thể sử dụng một mô hình được huấn luyện hoàn toàn bằng dữ liệu do các máy tính khác và mô hình AI khác tạo ra, và mô hình đó thậm chí có thể tốt hơn mô hình được huấn luyện bằng nội dung của con người thực sự?
Altman: Chúng tôi sử dụng một thử nghiệm tư duy để tiếp cận vấn đề này, liệu chúng ta có thể huấn luyện một mô hình cuối cùng vượt qua nhận thức toán học của con người mà không sử dụng bất kỳ dữ liệu con người nào? Tôi nghĩ chúng tôi sẽ nói có. Điều này có thể được tưởng thúc.
Nhưng nếu chúng ta hỏi, liệu có thể huấn luyện một mô hình hiểu biết về tất cả các giá trị văn hóa con người mà không sử dụng bất kỳ dữ liệu nào liên quan đến văn hóa con người? Chúng ta có lẽ sẽ nói không. Vì vậy, có sự đánh đổi ở đây. Nhưng về khả năng suy luận...
Thompson: Về khả năng suy luận, đúng, không vấn đề. Nhưng nếu bạn muốn biết xảy ra gì ở Iran hôm qua.
Altman: Bạn cần đăng ký The Atlantic.
Thompson: Được, vậy từ đó, tôi muốn nói về truyền thông. Một trong những thay đổi thú vị nhất đang diễn ra trong ngành truyền thông là, tôi vận hành một công ty truyền thông, bản chất của mạng đang thay đổi hoàn toàn. Tất nhiên có một số liên kết đi ra ngoài, cảm ơn các bạn đã liên kết. Đây là lời giải thích, giữa The Atlantic và OpenAI đã có một hợp tác. Chúng tôi cố gắng khuyến khích một số lượng nhất định người click vào liên kết của The Atlantic khi tìm kiếm. Nhưng thực tế mọi người không làm như vậy. Cũng như bên Gemini. Tôi rất vui khi nó có ở đó, nhưng lượng rất ít.
Mạng sẽ trở nên tập trung hơn. Sẽ xảy ra hai điều, lưu lượng từ việc tìm kiếm chuyển hướng đến các trang web bên ngoài sẽ giảm, trong khi một phần lớn lưu lượng mạng sẽ là các agent đang hoạt động, là các agent của tôi đang truy cập bên ngoài. Trên máy tính của Nick Thompson, trong 6 tháng qua, số lần tìm kiếm của con người không có nhiều thay đổi, nhưng số lần tìm kiếm của agent đã tăng lên một nghìn lần.
Vậy một công ty truyền thông, khi tôi nói "truyền thông" ở đây, tôi ám chỉ một loại công ty, trong một mạng không còn chủ yếu dựa vào tìm kiếm truyền thống và hầu hết người truy cập không còn là con người, làm thế nào để tồn tại? Điều gì sẽ xảy ra?
Altman: Tôi có thể nói với bạn quan điểm tốt nhất của tôi hiện tại, nhưng điều kiện tiên quyết là, không ai thực sự biết. Điều tôi hy vọng xảy ra, điều tôi đã mong chờ từ lâu và hợp lý hơn trong thế giới của agents, là một hình thức thanh toán nhỏ (micro-payments) nào đó.
Nếu agent của tôi muốn đọc bài của Nick Thompson, Nick Thompson hoặc The Atlantic có thể đặt một giá cho agent đó, có thể khác biệt so với giá cho con người đọc. Agent của tôi có thể đọc bài viết này, trả 17 cent, và tóm tắt cho tôi. Nếu tôi muốn đọc toàn bộ nội dung, có thể trả thêm 1 đô la. Nếu agent của tôi cần thực hiện một phép tính khó khăn cho tôi, nó có thể thuê một ít sức mạnh tính toán trên điện toán đám mây và thanh toán cho việc hoàn thành.
Tôi nghĩ, chúng ta cần một mô hình kinh tế mới, giữa các agents, đại diện cho chủ nhân con người của chúng, liên tục trao đổi giá trị dưới dạng giao dịch nhỏ.
Thompson: Nghĩa là, nếu bạn có nội dung có giá trị trong thế giới mới này, bạn có thể thiết lập thanh toán nhỏ, có thể cấp quyền truy cập nội dung cho một bên thứ ba nào đó (tôi biết có nhiều công ty đang làm điều này), hoặc xây dựng một loại luồng đăng ký nào đó. Nếu bạn là khách hàng của công ty A, bạn có thể truy cập The Atlantic, vì chúng tôi đã bán nghìn đăng ký cho công ty A. Đó là một vài tương lai có thể. Vấn đề là, những khoản tiền từng đồng từng điểm này, liệu có thể bù đắp khoảng trống của một đăng ký The Atlantic thực sự của một con người với giá 80 đô la. Đó là áp lực kinh doanh của chúng tôi. Được rồi, đó là vấn đề của tôi, không phải của bạn.
Altman: Cũng là vấn đề của tất cả mọi người, nhưng được rồi.
Thompson: Thực sự đó cũng là vấn đề của bạn, vì nếu truyền thông không thể tạo ra nội dung hay, thì dịch vụ tìm kiếm AI sẽ kém. Nếu nhà sáng tạo không kiếm được tiền, mọi thứ sẽ xấu đi, xã hội sẽ trở nên tồi tệ hơn.
Tôi muốn đặt thêm vài câu hỏi lớn. Trí tuệ nhân tạo luôn dựa vào kiến trúc transformer, mở rộng quy mô, và đổ dữ liệu vào trước. Bạn có thể dự đoán chúng ta sẽ đi vào một kiến trúc sau transformer trong tương lai không, bạn có thể thấy điều này không?
Altman: Có thể vào một thời điểm trong tương lai. Vấn đề là liệu chúng ta tự phát hiện hay phải chờ các nhà nghiên cứu trí tuệ nhân tạo giúp chúng ta phát hiện. Tôi không biết.
Thompson: Bạn nghĩ trong tương lai có thể giới thiệu phần tử nhận dạng thần kinh (neuro-symbolic) không? Ví dụ như một tập hợp các quy tắc cấu trúc, hoặc cơ bản vẫn là mô hình mà chúng ta đang sử dụng hôm nay?
Altman: Tôi tò mò vì sao bạn hỏi vậy.
Thompson: Trên podcast của tôi, đây là mùa thứ tư, đã có một số vị khách đến và họ đều chắc chắn rằng, để hạn chế ảo tưởng, đây là một vấn đề cốt lõi của trí tuệ nhân tạo, ghép phần tử nhận dạng thần kinh vào trong transformer, là một cách tốt để làm điều đó. Tôi nghĩ rằng đó là một luận điểm thú vị, thuyết phục. Nhưng tôi chưa đủ sâu để đánh giá.
Altman: Tôi cảm thấy đó là một trong những ý tưởng "tất cả đã từng tin chắc mà chưa chứng minh đủ". Bạn xem, mọi người nói, "Ồ, phải là phần tử nhận dạng thần kinh, không thể chỉ là một số kết nối ngẫu nhiên giữa các nơ-ron", vậy bạn nghĩ não của bạn đang làm gì? Có một loại biểu hiện các biểu tượng bên trong, nhưng nó mọc lên từ mạng nơ-ron. Tôi không hiểu tại sao điều này không thể xảy ra trong lĩnh vực trí tuệ nhân tạo.
Thompson: Ý bạn là, một tập hợp "quy tắc được xác định trước", có thể nổi lên từ mạng nơ-ron transformer tiêu biểu, hoạt động giống như "một hệ thống quy tắc bên ngoài"?
Altman: Chắc chắn có thể.
Thompson: Ừ.
Altman: Tôi nghĩ chúng ta một phần là bằng chứng cho điều đó tồn tại.
Thompson: Hãy bàn về một vấn đề lớn khác. Tôi muốn thảo luận về mối căng thẳng giữa bạn và Anthropic. Trên trang web của bạn luôn có một câu rất tuyệt vời, "Nếu một dự án cùng trục giá trị, chú trọng đến an toàn đang tiến gần đến AGI trước khi chúng tôi, chúng tôi cam kết dừng lại và bắt đầu hỗ trợ dự án này." Đó là một ý tưởng tuyệt vời, nếu ai đó sắp làm xong, chúng tôi sẽ dừng lại với công ty của mình, và đi giúp họ.
Altman: Đó không phải cách họ viết.
Thompson: Vâng, họ viết "Dừng lại với sự cạnh tranh, bắt đầu hỗ trợ nó". Nghe có vẻ như dừng lại và giúp đỡ, "Dừng lại với công ty của chúng tôi".
Altman: Vâng, tôi hiểu ý bạn rồi.
Thompson: Vì vậy, điều này nghe có vẻ rất hợp tác. Bạn cũng đã nói về việc cần phải hợp tác giữa các phòng thí nghiệm lớn. Tuy nhiên, động lực thực tế giữa bạn và Anthropic hiện tại có vẻ rất căng thẳng, thậm chí thù địch. Ghi chú nội bộ gần đây của CRO của bạn đề cập đến việc Anthropic được xây dựng dựa trên "nỗi sợ, hạn chế, và một nhóm nhỏ người có tài năng nên kiểm soát trí tuệ nhân tạo". Làm sao để tiếp tục như vậy? Nếu họ đạt được điều này trước, hoặc nếu bạn đạt được điều này trước, sự "hợp tác" sẽ diễn ra như thế nào?
Altman: Tôi nghĩ hiện tại đã đang diễn ra một phiên bản của việc hợp tác, liên quan đến an ninh mạng, tất cả các phòng thí nghiệm đều cần phải hợp tác thường xuyên hơn so với trước đây, vì chúng ta đang bước vào một giai đoạn rủi ro mới. Chúng tôi đang làm việc cùng với chính phủ. Tôi tin rằng sẽ có những điều khác nữa sắp xảy ra, buộc chúng tôi phải hợp tác ở mức độ quan trọng hơn.
Chắc chắn rằng chúng tôi và Anthropic có sự khác biệt, họ một phần nào đó xây dựng công ty của họ dựa trên "ghét chúng tôi". Tôi nghĩ rằng chúng tôi đều quan trọng việc "đừng để trí tuệ nhân tạo phá hủy thế giới này", có thể có cách tiếp cận khác nhau về cách điều này xảy ra. Nhưng tôi tin rằng, họ sẽ cuối cùng làm đúng điều đó.
Thompson: Hãy cho tôi biết về kế hoạch chuyển hướng của bạn đến mã nguồn mở. Bạn đã thực hiện một số động thái trong lĩnh vực này. Công ty của bạn cũng được gọi là Open AI, và chúng ta đã thảo luận về việc mã nguồn mở có thể mang lại cơ hội, như việc cho phép mọi người tiếp cận vũ khí sinh học.
Altman: Uhm.
Thompson: Tương lai của OpenAI trong việc mã nguồn mở là như thế nào?
Altman: Mã nguồn mở sẽ rất quan trọng. Nhưng hiện tại, điều mà mọi người muốn nhất thực sự là mô hình lập trình tiên tiến nhất mà họ có thể có, đó là điều có giá trị nhất mà hiện tại có thể mang lại cho mọi người. Và mặc dù các mô hình tiên tiến nhất có thể có được mà chúng tôi mã nguồn mở, chúng cũng rất khó để chạy trên các thiết bị thông thường. Nhưng mã nguồn mở sẽ có vai trò trong những gì chúng tôi sẽ làm trong tương lai.
Thompson: Mã nguồn của Claude, một phần mã nguồn của Claude, đã bị rò rỉ gần đây, và có một chi tiết rất tinh tế: nếu họ phát hiện ra một mô hình nguồn mở hoặc mô hình khác đang cố gắng sử dụng dữ liệu của họ để huấn luyện, họ sẽ tự động cấp cho họ một lượng dữ liệu giả. Thật buồn cười và tài năng. Bạn đã làm thế nào để ngăn chặn "ngưng tụ" và các mô hình nguồn mở khác sử dụng đầu ra của bạn để huấn luyện?
Altman: Chúng tôi cũng có thể thực hiện một số hành động tương tự. Nhưng rõ ràng là, và một phần lý do mà bạn đã đề cập trước đó, nếu bạn triển khai một mô hình và chuỗi tư duy của nó là công khai, người ta sẽ đi ngưng tụ bạn. Bạn có thể dùng mọi chiêu trò để làm cho ngưng tụ không hiệu quả nhưng điều này nhất định sẽ xảy ra. Bạn cũng có thể thực hiện ngược lại, ví dụ "mô hình của chúng tôi chỉ có chuỗi tư duy không công khai nếu nó vượt qua một mức chất lượng nào đó".
Thompson: Nhưng chi phí nằm ở đây, chuỗi tư duy "được giữ cho tiếng Anh" rất quan trọng, phải không? Bởi vì bạn đã đề cập trước đó, phong cách của bạn là như vậy. Nhưng có người không đồng ý với điều này. Nếu đối với mô hình, việc sử dụng một loại "ngôn ngữ máy riêng" để tư duy hiệu quả hơn thì phải xử lý thế nào? Hoặc sử dụng tiếng phổ thông? Có khả năng cao họ sẽ sử dụng một loại "ngôn ngữ máy riêng của họ".
Altman: Khi đó, bạn có thể phải hy sinh một số thứ trong mảng "khả năng giải thích".
Thompson: Đó cũng có thể mang lại một số ưu điểm về tốc độ. Vì vậy, đây là sự đánh đổi giữa khả năng giải thích và tốc độ tiềm năng.
Altman: Nếu thực tế chứng minh rằng việc suy nghĩ bằng ngôn ngữ máy hiệu quả hơn nhiều lần, thì thị trường sẽ đẩy một số người sang làm điều đó.
Thompson: Bạn có tin rằng có bằng chứng cho điều này không?
Altman: Hiện tại không. Nhưng cũng không có bằng chứng cho việc nó không đúng.
Thompson: Bạn có lo lắng rằng Trung Quốc đã vượt qua Mỹ trong việc công bố nghiên cứu về AI chưa?
Altman: Không. Tôi lo lắng hơn về việc họ vượt qua chúng ta về tốc độ xây dựng cơ sở hạ tầng.
Thompson: Được. Chúng ta chỉ còn vài phút. Hai câu hỏi cuối cùng. Bạn đã từng nói rằng bạn đã viết một lá thư cho con trai nhỏ của bạn mỗi tối trước.
Altman: Đó là mỗi tuần một lá thư, không phải mỗi đêm.
Thompson: Mỗi tuần một lá thư, trước khi đi ngủ. Tôi có một thế giới truyện riêng, tôi kể cho con trai lớn của mình, giờ anh ấy 17 tuổi, còn đứa nhỏ 12 tuổi. Tôi đã kể câu chuyện này khoảng 14 năm rồi, với cùng một nhóm nhân vật, khá thú vị. Ý kiến của bạn đối với những bậc phụ huynh lo lắng về lo lắng về trí tuệ nhân tạo là gì?
Altman: Nói chung, tôi lo lắng hơn về bậc phụ huynh hơn là lo lắng về trẻ em.
Thompson: Thật không? Trẻ em có thể tự hiểu được.
Altman: Tôi nhớ khi máy tính mới ra đời, bố mẹ tôi cũng nghĩ "Điều này có ý nghĩa gì? Nó sẽ mang lại điều gì?" Lúc đó, tôi thấy rất thú vị. Tôi đã biết sử dụng máy tính từ khi còn rất nhỏ so với bố mẹ. Xem những đứa trẻ thông thạo về trí tuệ nhân tạo có thể tạo ra điều gì, xây dựng điều gì, luồng công việc của họ so với bố mẹ họ (nghe có vẻ như bạn là một ngoại lệ hiếm hoi) thật sự xuất sắc.
Nhưng điều tôi lo lắng là, giống như nhiều lần trong lịch sử, người trẻ có thể nhanh chóng và mạnh mẽ hơn người lớn trong việc chấp nhận công nghệ mới. Lần này, sự chênh lệch dường như rõ ràng hơn.
Thompson: Nhưng paradox là "nhóm người trẻ tuổi lại là nhóm tăng trưởng cao nhất trong việc lo lắng về trí tuệ nhân tạo".
Altman: Tôi nghĩ rằng nỗi lo sợ, sự bất mãn tổng thể và lo lắng của người trẻ tuổi đối với mọi thứ, hiện nay cao hơn bất kỳ lúc nào trong lịch sử. Trí tuệ nhân tạo có thể chỉ là đối tượng dễ dàng nhất để truyền tải cảm xúc này. Xã hội rõ ràng đã gặp vấn đề với "tuổi trẻ", tôi có một số giả thuyết, nhưng tôi không nghĩ rằng vấn đề chính của họ là trí tuệ nhân tạo.
Thompson: Vậy ý kiến của bạn là, nỗi lo sợ của người trẻ tuổi về trí tuệ nhân tạo, thực ra là phản ánh của một cái gì khác?
Altman: Tôi nghĩ rằng đó là nơi mà nỗi lo sợ của nhiều loại lo lắng khác có thể dễ dàng đặt chân vào.
Thompson: Vậy nên lời khuyên của bạn cho người trẻ tuổi vẫn là, hãy sử dụng công cụ, xây dựng điều mới, duy trì sự tò mò?
Altman: Điều đó chắc chắn là lời khuyên của tôi. Hãy lắng nghe, rõ ràng xã hội và kinh tế phải thay đổi trong thế giới mới này, và người trẻ tuổi hiểu điều này hơn bất kỳ ai khác. Trước khi điều đó thực sự thay đổi, họ sẽ tiếp tục lo lắng, nhưng tôi tin rằng nó sẽ thay đổi.
Thompson: Được, Mỗi tập chương trình, tôi đều sẽ hỏi một câu hỏi cuối cùng giống nhau cho khách mời. Nếu bạn có tài nguyên vô tận, bạn sẽ làm gì trên trí tuệ nhân tạo? Bạn là người duy nhất thực sự có tài nguyên vô tận, nên câu hỏi này không công bằng với bạn. Tôi sẽ đặt câu hỏi theo cách khác, nếu bạn đưa ra khuyến nghị cho một người ngoài OpenAI, có tài nguyên vô tận, có thể tài trợ hoặc hỗ trợ một dự án công cộng trí tuệ nhân tạo, bạn sẽ khuyến nghị họ làm gì?
Altman: Trong đầu tôi xuất hiện một số câu trả lời. Nhưng cái đứng đầu cùng là, tôi sẽ đầu tư mạnh vào một mô hình tính toán hoàn toàn mới, loại có khả năng cải thiện hiệu suất mỗi watt mạnh mẽ.
Thompson: Ừ.
Altman: Cái này thú vị lắm. Thế giới sẽ tiếp tục muốn nhiều hơn. Bạn muốn bao nhiêu GPU làm việc cho bạn suốt ngày?
Thompson: Nhiều hơn so với tôi có hiện tại.
Altman: Nhiều hơn so với tôi có hiện tại. Tôi bị giới hạn tốc độ, anh em. Tôi không muốn như vậy và cũng không muốn người khác cả. Nhưng làn sóng nhu cầu này đang đổ vào, giả sử chúng ta có thể tiếp tục làm cho trí tuệ nhân tạo trở nên phổ biến hơn, điều đó sẽ mang lại điều đáng kinh ngạc. Tôi hy vọng có thể tìm ra một đột phá hiệu suất năng lượng cỡ nghìn lần. Có lẽ không thể, nhưng đó là hướng mà tôi sẽ cố gắng tìm kiếm.
Thompson: Tôi nhận ra, một phần lý do học sinh trẻ chống đối trí tuệ nhân tạo là lo lắng về môi trường. Nếu bạn có thể giải quyết vấn đề đó, bạn đã tiến một bước lớn trong nhiều mặt.
Altman: Tôi tin họ nói như vậy. Tôi cũng biết họ nói như vậy. Nhưng nếu chúng ta nói chúng ta sẽ xây dựng một tổ hợp năng lượng mặt trời một terawatt, đưa tất cả trung tâm dữ liệu về năng lượng mặt trời, họ cũng sẽ không vui vẻ lên vì điều đó.
Thompson: Nhưng bạn vẫn nên thực hiện.
Altman: Tất nhiên.
Thompson: Được. Rất cảm ơn bạn, Sam Altman. Bạn phải quay lại quản lý những đội Codex đang chạy trên máy của bạn được trao quyền YOLO.
Altman: Codex mới thực sự tuyệt vời. Tôi cảm thấy một loại lo lắng "đang bỏ lỡ nó" ngay bây giờ.
Thompson: Rất cảm ơn.
Liên kết đến video phỏng vấn
Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:
Nhóm Telegram đăng ký: https://t.me/theblockbeats
Nhóm Telegram thảo luận: https://t.me/BlockBeats_App
Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia