BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
lang
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
Trang chủ
Cộng đồng
AI AI
Tin nhanh
Bài viết
Sự kiện
Thêm
Thông tin tài chính
Chuyên đề
Hệ sinh thái chuỗi khối
Mục nhập
Podcast
Data
OPRR

Phỏng vấn Đồng sáng lập OpenAI mới nhất: Sau khi đóng cửa Sora, bước tiếp theo của ChatGPT là gì?

Đọc bài viết này mất 159 phút
OpenAI tập trung vào Ứng dụng Siêu mạnh, AGI chỉ còn một bước cuối cùng
Video Title: Chủ tịch OpenAI Greg Brockman: Chiến lược AI, AGI và Ứng dụng Siêu Khóa
Video Author: Alex Kantrowitz
Biên dịch: Peggy, BlockBeats


Biên tập viên chú ý: Bài viết này được dịch từ cuộc trò chuyện của Chủ tịch và Đồng sáng lập OpenAI Greg Brockman trên Big Technology Podcast. Chương trình này luôn tập trung vào AI, sự thay đổi trong ngành công nghiệp công nghệ và cấu trúc kinh doanh, là cửa sổ quan trọng để quan sát và đánh giá tại hạng mục đầu tiên ở Silicon Valley.



Trong cuộc trò chuyện này, Brockman không chỉ dừng lại ở khả năng của mô hình, mà đi xa hơn: khi khả năng của AI đã được phần nào xác minh, ngành công nghiệp sẽ chọn con đường nào tiếp theo, tái cấu trúc hình dạng sản phẩm và đối phó với các va chạm hệ thống mang lại. Cuộc trò chuyện tập trung vào Chiến lược sản phẩm của OpenAI, ứng dụng "siêu" sắp ra mắt và đánh giá của họ về AI bước vào giai đoạn "tăng tốc".


Cuộc trò chuyện này có thể hiểu được qua ba khía cạnh.


Thứ nhất, là sự hội tụ của con đường.
Từ tạo video đến mô hình suy luận, từ việc đa luồng đến việc lựa chọn chủ động, sự chọn lựa của OpenAI không chỉ là sự đánh giá kỹ thuật đơn giản, mà là sự đáp ứng vào ràng buộc thực tế - sức mạnh tính toán đã trở thành rào cản chính. Dưới điều kiện tài nguyên hạn chế, hướng dẫn kỹ thuật đang bắt đầu hội tụ vào hai hướng có hiệu ứng cần câu: trợ lý cá nhân và giải quyết vấn đề phức tạp. Điều này cũng đồng nghĩa với việc, logic cạnh tranh của AI đang di chuyển từ "có thể làm gì" sang "làm gì trước".


Thứ hai, là tái cấu trúc hình dạng.
Việc giới thiệu "ứng dụng siêu" thực chất là một bước nhảy hình dạng sản phẩm. AI không còn là tổ hợp công cụ rời rạc mà là một cổng truy cập thống nhất: nó hiểu bối cảnh, gọi các công cụ, thực thi nhiệm vụ và liên tục tích lũy ký ức trong các tình huống khác nhau. Từ ChatGPT đến Codex, AI đang dần tiếp quản quá trình làm việc toàn diện, và vai trò của con người cũng dần chuyển từ người thực hiện sang người điều phối - thiết lập mục tiêu, phân công nhiệm vụ và giám sát.


Thứ ba, là sự thay đổi nhịp.
Nếu nói hai năm qua là giai đoạn leo dốc của khả năng, thì điều đang diễn ra bây giờ là "tăng tốc". Một mặt, khả năng của mô hình từ "hỗ trợ khoảng 20% công việc" đã nhảy lên "phủ sóng khoảng 80% nhiệm vụ", trực tiếp kích hoạt tái cấu trúc của quy trình làm việc; mặt khác, AI đang tham gia vào sự tiến hóa của chính mình (tối ưu AI bằng AI), gắn chip, ứng dụng và cộng tác từ phía doanh nghiệp, tạo nên một chu kỳ tăng tốc liên tục. AI không còn là một công nghệ đơn điểm mà bắt đầu trở thành động cơ chính để thúc đẩy tăng trưởng kinh tế.


Tuy nhiên, đồng thời, một nhóm vấn đề khác cũng đang nổi lên đồng thời: sự không tin cậy của công chúng, không chắc chắn về việc làm, tranh cãi về trung tâm dữ liệu, cũng như giới hạn của bảo mật và quản trị. Đối với điều này, câu trả lời mà Brockman đưa ra không hoàn toàn tập trung vào mặt kỹ thuật. Anh ấy nhấn mạnh hai điều: thứ nhất, rủi ro không thể được giải quyết thông qua "kiểm soát tập trung", mà cần xây dựng cơ sở hạ tầng xã hội xung quanh trí tuệ nhân tạo giống như hệ thống điện; thứ hai, khả năng cá nhân đang trải qua sự chuyển đổi - thứ quan trọng thực sự không còn là "có thể hay không sử dụng công cụ" nữa, mà là "có thể sử dụng trí tuệ nhân tạo để đạt được mục tiêu của mình".


Nếu nói rằng vấn đề trong quá khứ là "trí tuệ nhân tạo có thể làm gì", thì vấn đề hiện nay đã trở thành, khi trí tuệ nhân tạo bắt đầu thay bạn thực hiện hầu hết công việc, bạn vẫn cần phải làm gì.


Dưới đây là nội dung gốc (đã được chỉnh sửa để dễ hiểu):


TL;DR


AGI đã bước vào giai đoạn "đường rõ ràng": Greg Brockman (Cộng sự OpenAI) cho rằng, mô hình suy luận dựa trên GPT đã có con đường rõ ràng tới AGI, dự kiến sẽ đạt được trong vài năm tới, nhưng hình thức vẫn sẽ là "không đồng đều" (jagged).


Chú thích: AGI (Trí tuệ Nhân tạo Tổng quát) chỉ Trí tuệ Nhân tạo có khả năng trên hầu hết các nhiệm vụ nhận thức so với con người hoặc thậm chí vượt qua khả năng của con người. Khác biệt với "Trí tuệ Nhân tạo chuyên biệt" hiện tại (như nhận diện hình ảnh, thuật toán đề xuất), AGI nhấn mạnh tính tổng quát và khả năng chuyển giao giữa các nhiệm vụ.


Hội tụ Chiến lược: Từ khám phá đa kênh đến hai ứng dụng lõi: Dưới ràng buộc về sức mạnh tính toán, OpenAI sẽ tập trung tài nguyên vào "Trợ lý Cá Nhân" và "Giải quyết Vấn đề Phức tạp", thay vì cùng một lúc phát triển tất cả các hướng (như tạo video).


"Ứng dụng Siêu" sẽ trở thành hình thức cửa vào AI: Trò chuyện, lập trình, duyệt web và công việc thông tin sẽ được tích hợp vào một hệ thống thống nhất, AI từ công cụ chuyển biến thành "tầng thực thi", người dùng chuyển sang "người điều phối".


Xoay Chuyển Quan trọng: AI bắt đầu tiếp quản luồng công việc thay vì hỗ trợ: Khả năng của mô hình đã từ "hoàn thành 20% nhiệm vụ" nhảy lên "có thể đảm nhận 80%", ép buộc cá nhân và doanh nghiệp tái cấu trúc cách làm việc.


Sức Mạnh Tính Toán Trở thành Rào Cản Thông Lưu và Trọng Điểm Cạnh Tranh: Nhu cầu AI vượt xa cung cấp, tương lai hạn chế không là khả năng mô hình, mà là tài nguyên tính toán, trung tâm dữ liệu và cơ sở hạ tầng trở thành biến số chính.


AI「腾飞」(takeoff)正在发生: 技术自我加速(AI 优化 AI)叠加产业协同(芯片、应用、企业),推动 AI 从工具走向经济增长引擎。


最大风险不在技术,而在治理与使用方式: 安全问题无法靠单一主体解决,需要开放生态与社会基础设施共同承接。


个体核心能力正在转变: 未来竞争力不在「执行」,而在「设定目标+管理 AI 系统」,主动使用 AI 将成为基础能力。


对谈整理:


Alex(主持人):
今天我们请到了 OpenAI 的联合创始人兼总裁 Greg Brockman,一起聊聊 AI 最具潜力的机会、OpenAI 将如何抓住这些机会,以及「超级应用」的构想。Greg 今天也来到了我们的录音室。


Greg Brockman(OpenAI 联创&总裁):
很高兴见到你,谢谢邀请。


为什么关停 Sora?算力不够用


Alex:
现在这个时间点很有意思,OpenAI 正在暂停视频生成的推进,把资源集中到一个「超级应用」上——它会整合商业与编程场景。从外部看(包括我在内),感觉 OpenAI 已经在消费端取得领先,现在却在调整资源配置。到底发生了什么?


注:2026 年 3 月,OpenAI 宣布关闭其视频生成产品 Sora(包括应用与 API),并停止相关商业推进。


Greg Brockman:
过去一段时间,我们一直在开发深度学习这项技术,想验证它是否真的能产生我们一直设想的那种正向影响——是否可以被用来构建真正帮助人们、改善生活的应用。


与此同时,我们也在做另一条线:把这项技术部署出去。一方面是为了支撑业务运转,另一方面也是为了提前积累真实世界的经验,为技术真正成熟的那一刻做准备。


而现在,我们已经走到了一个新的阶段。我们看到这项技术确实是可行的。我们正在从「基准测试」和一些偏抽象的能力展示,转向一个新的阶段——必须把它放到真实世界中,让它参与实际工作,通过用户反馈来继续进化。


Vì vậy, tôi cảm thấy inclined hơn để hiểu sự thay đổi này như một sự chuyển đổi chiến lược được đẩy mạnh bởi sự thay đổi giai đoạn công nghệ.


Điều này không có nghĩa là chúng tôi đang chuyển từ "phía tiêu dùng" sang "phía doanh nghiệp". Đúng hơn, chúng tôi đang đặt ra một câu hỏi: Trong tình huống tài nguyên hữu hạn, ứng dụng nào chúng tôi nên ưu tiên nhất? Bởi vì chúng tôi không thể làm mọi thứ.


Ứng dụng nào có thể thực sự triển khai, tương tác với nhau và mang lại tác động thực tế? Nếu bạn liệt kê tất cả các hướng, phía tiêu dùng có thể chia thành nhiều loại: ví dụ như trợ lý cá nhân, một hệ thống thực sự hiểu bạn, phù hợp với mục tiêu của bạn, có thể giúp bạn đạt được mục tiêu trong cuộc sống; tiếp theo là sáng tạo và giải trí; cũng như nhiều khả năng khác. Còn phía doanh nghiệp, nếu bạn nhìn từ một góc độ cao hơn, thực sự có thể trừu tượng hóa thành một điều: bạn có một任勞完成的複雜任務,AI có thể giúp bạn hoàn thành được không?


Với chúng tôi, ưu tiên hiện tại rất rõ ràng, chỉ có hai điều đứng đầu: thứ nhất, là trợ lý cá nhân; thứ hai, là AI có thể giúp bạn giải quyết các vấn đề phức tạp.


Vấn đề là: năng lực tính toán hiện có của chúng tôi, thậm chí cả hai điều này chúng tôi cũng không thể đáp ứng được. Một khi bạn kết hợp thêm nhiều tình huống ứng dụng khác, thì không thể nào bao phủ hết. Vì vậy, điều này thực sự là một sự đánh giá thực tế: công nghệ đang trở nên chín muôn, tác động sắp bùng nổ, và chúng tôi phải đưa ra sự lựa chọn, chọn hướng quan trọng nhất để thực sự thực hiện ra.


Alex:
Bạn đã từng đề cập đến một phép so sánh, nói rằng OpenAI hơi giống như Disney: có một khả năng cốt lõi, và sau đó có thể mở rộng ra các tình huống khác nhau. Disney có Mickey Mouse, có thể làm phim ảnh, công viên giải trí, Disney+. "Cốt lõi" của OpenAI là mô hình, có thể tạo video, làm trợ lý, ứng dụng doanh nghiệp.


Nhưng bây giờ dường như, liệu bạn có không còn đi theo hướng "mở rộng toàn diện" như vậy, mà phải chọn lựa không?


Greg Brockman:
Thực ra, tôi cảm thấy phép so sánh này hiện tại còn đúng hơn. Nhưng điểm quan trọng nằm ở một điều: từ góc độ công nghệ, Sora (mô hình video) và GPT (mô hình suy luận) thực ra thuộc hai nhánh công nghệ khác nhau. Cách chúng được xây dựng hoàn toàn khác nhau.


Vấn đề ở chỗ, ở giai đoạn hiện tại, việc đẩy mạnh cùng một lúc hai nhánh công nghệ này rất khó khăn, đặc biệt là trong tình huống nguồn lực hữu hạn. Vì vậy, sự lựa chọn chúng tôi đã đưa ra là, ở giai đoạn hiện tại, tập trung nguồn lực chính vào con đường GPT này.


Dĩ nhiên, điều này không có nghĩa là chúng tôi từ bỏ các hướng khác. Ví dụ, trong lĩnh vực robot, chúng tôi vẫn đang tiếp tục nghiên cứu liên quan. Nhưng robot chính thức vẫn đang ở giai đoạn sớm hơn, chưa đến giai đoạn chín muồi bùng nổ thực sự.


So với hiện tại, trong vòng một năm tới, chúng ta sẽ thấy sự bùng nổ thực sự của trí tuệ nhân tạo trong lĩnh vực công việc tri thức.


Điều cần nhấn mạnh là Con đường GPT không chỉ là về “văn bản”. Ví dụ, trao đổi âm thanh song hướng (speech-to-speech) cũng là một phần của con đường công nghệ này, nó sẽ làm cho trí tuệ nhân tạo trở nên linh hoạt và hiệu quả hơn. Những khả năng này về bản chất vẫn nằm trong cùng một hệ thống mô hình, được điều chỉnh theo cách khác nhau.


Nhưng nếu bạn tiến thẳng vào hai nhánh công nghệ hoàn toàn khác nhau, thì trong trường hợp bị hạn chế về sức mạnh tính toán, việc duy trì lâu dài là không dễ. Và sự hạn chế về sức mạnh tính toán chủ yếu vì — nhu cầu quá lớn. Gần như sau mỗi lần một mô hình được phát hành, mọi người đều muốn sử dụng nó để làm nhiều điều hơn.


Alex:
Vậy tại sao anh không tập trung vào Con đường “Mô hình thế giới”? Ví dụ, mô hình video, nó cần hiểu về mối quan hệ giữa các đối tượng, điều này cũng quan trọng cho robot. Và tiến triển của Sora thực sự rất nhanh chóng. Tại sao cuối cùng chọn đặt cược vào GPT?


Lưu ý: “Mô hình thế giới” (World Model) tập trung vào đối chiếu và cảm giác vật lý, điểm cốt lõi là để trí tuệ nhận biết “cách thế giới hoạt động”, không chỉ học “mẫu bề mặt của dữ liệu”. Loại mô hình này thường được sử dụng để mô tả các hệ thống như Sora: nó không chỉ tạo ra hình ảnh hoặc video mà còn mô hình mối quan hệ giữa các đối tượng (như người, xe, ánh sáng), sự thay đổi liên tục của thời gian (sự tiến triển giữa các khung hình), và các quy luật vật lý cơ bản (như chuyển động, che khuất và va chạm). So với đó, GPT thuộc loại mô hình ngôn ngữ và suy luận, tập trung hơn vào khả năng nhận thức trừu tượng và thực hiện nhiệm vụ.


Greg Brockman:
Vấn đề lớn nhất trong lĩnh vực này, thực ra là có quá nhiều cơ hội.


Chúng tôi đã nhận ra từ rất sớm, ở OpenAI, nếu một ý tưởng trên mặt toán học là hợp lý, thì thường nó sẽ hoạt động, và cho kết quả khá tốt. Điều này chứng tỏ khả năng cấp dữ liệu sâu hiện nay rất mạnh mẽ, nó có thể trừu tượng hóa ra các quy tắc sinh ra từ dữ liệu và chuyển giao chúng sang các tình huống mới. Bạn có thể áp dụng điều này trong mô hình thế giới, khám phá khoa học, lập trình và nhiều lĩnh vực khác.


Nhưng câu hỏi quan trọng là: chúng tôi cần phải thực hiện quyết định.


Trong quá khứ, đã luôn có một cuộc tranh luận, mô hình văn bản có thể đi xa tận đâu? Liệu có thể hiểu biết thế giới một cách thực sự không? Theo tôi, bây giờ câu hỏi này đã có câu trả lời, mô hình văn bản có thể đạt được AGI.


Chúng ta đã thấy con đường rõ ràng, năm nay sẽ có nhiều mô hình mạnh mẽ hơn xuất hiện. Và trong nội bộ OpenAI, một trong những nỗi đau lớn nhất của chúng tôi, là làm cách nào để phân phối sức mạnh tính toán — vấn đề này sẽ càng trở nên trầm trọng hơn, thay vì được giảm bớt. Vì vậy, về bản chất, đây không phải là một vấn đề về “con đường nào quan trọng hơn”, mà là vấn đề về thời điểm và trình tự.


Hiện nay, một số ứng dụng mà trước đây chúng ta coi là xa xôi bắt đầu trở nên dễ dàng tiếp cận hơn. Ví dụ như giải quyết các vấn đề vật lý chưa được giải mã. Gần đây, chúng tôi đã có một trường hợp, một nhà vật lý nghiên cứu một vấn đề trong một thời gian dài, đặt vấn đề vào mô hình, sau 12 giờ, chúng tôi có một câu trả lời. Anh ấy nói, đó là lần đầu tiên anh ấy cảm thấy như một mô hình đang "suy nghĩ". Vấn đề này thậm chí có thể là một vấn đề mà con người không bao giờ giải quyết được, nhưng trí tuệ nhân tạo đã làm được.


Khi bạn thấy những điều như vậy, lựa chọn duy nhất của bạn chỉ là: tăng cường đầu tư, tăng cường cam kết gấp đôi. Bởi vì điều này có nghĩa là, chúng ta thực sự có thể giải phóng tiềm năng lớn lao.


Vì vậy đối với tôi, điều này không phải là một cuộc cạnh tranh giữa các hướng khác nhau, mà là nhiệm vụ của OpenAI là gì? Làm thế nào chúng ta có thể đưa Trí tuệ Nhân tạo Tổng thể đến với thế giới? Làm thế nào để nó thật sự mang lại lợi ích cho tất cả mọi người? Và chúng ta đã nhìn thấy con đường đó, chúng ta biết cách thúc đẩy nó.


Đặt Cược vào GPT, Chứ Không Phải Mô Hình Thế Giới: Lựa Chọn Con Đường Đến AGI


Alex:
Được rồi, tôi thực sự muốn quay trở lại với mô hình thế hệ tiếp theo mà bạn vừa đề cập, nhưng trước tiên tôi muốn hỏi thêm về vấn đề này.

Trước đây trong năm, tôi đã nói chuyện với Demis Hassabis từ Google DeepMind. Một điều thú vị là, anh ấy nói với tôi rằng, đối với anh ấy, điều gần giống AGI nhất thực sự là trình tạo ảnh của họ có tên là Nano Banana.


Lưu ý: Demis Hassabis là một trong những nhân vật chính thúc đẩy AI từ nghiên cứu đến ứng dụng đột phá. Anh ấy sáng lập DeepMind, phát triển AlphaGo và năm 2016 đã đánh bại nhà vô địch cờ vây để trở thành một trong những sự kiện biểu tượng trong lịch sử phát triển Trí Tuệ Nhân tạo của con người.

Lý do của anh ấy là: Cho dù là trình tạo ảnh hay trình tạo video, để tạo ra những hình ảnh và video như vậy, về bản chất, bạn phải hiểu được mối quan hệ tương tác giữa các đối tượng, ít nhất là phải có một mức độ hiểu biết về cách thế giới hoạt động.


Vậy liệu điều này có ngụ ý một mức độ rủi ro? Đây là một mức cược lớn — Nếu thực sự như vậy, liệu OpenAI đang bỏ lỡ điều gì khi tiếp tục đầu tư vào một nhánh công nghệ khác?


Greg Brockman:
Nếu thực sự như vậy thì sao? Tôi có hai câu trả lời.


Thứ nhất, dĩ nhiên có khả năng đó. Lĩnh vực này chính là như vậy, cuối cùng bạn phải quyết định, bạn phải đặt cược. Và OpenAI từ đầu đã làm điều này: chúng tôi phải đánh giá xem, chúng tôi tin vào con đường dẫn đến AGI là gì, và sau đó tập trung mạnh mẽ để tiến triển theo con đường đó. Giống như việc cộng các vector ngẫu nhiên, cuối cùng kết quả có thể tiến gần đến không; nhưng nếu bạn căn chỉnh tất cả các vector, chúng sẽ đẩy bạn đi theo một hướng rõ ràng.


Nhưng điều thứ hai là, việc tạo hình ảnh thực ra cũng là một khả năng rất phổ biến trong ChatGPT, và chúng tôi vẫn đang tiếp tục đầu tư, tiếp tục ưu tiên phát triển. Lý do chúng tôi có thể làm điều này là vì thực tế nó không thuộc về nhánh công nghệ "mô hình thế giới" hay "mô hình truyền bá", mà nó thực sự được xây dựng trên cơ sở kiến trúc GPT. Vì vậy, mặc dù nó đối diện với phân phối dữ liệu khác nhau, nhưng ở tầng công nghệ cốt lõi hơn, thực tế vẫn là cùng một hệ thống.


Điều này chính là một trong những điều đáng ngạc nhiên nhất về AGI: Đôi khi, các ứng dụng hoàn toàn khác nhau như chuyển đổi giọng nói thành văn bản, tạo ảnh, xử lý văn bản, cũng như ứng dụng của văn bản chính trong nghiên cứu khoa học, lập trình, thông tin sức khỏe cá nhân v.v. trong các bối cảnh khác nhau thực tế cũng có thể được tích hợp vào cùng một khung công nghệ.


Do đó, từ góc độ công nghệ, điều mà tôi và công ty luôn suy nghĩ là làm thế nào để đồng nhất hướng phát triển của chúng tôi càng tối đa. Bởi vì chúng tôi thực sự tin rằng, công nghệ này sẽ mang lại cải tiến tổng thể, thậm chí có thể nâng cao toàn bộ hệ thống kinh tế.


Và vấn đề này rất lớn. Chúng tôi tất nhiên không thể làm tất cả mọi việc, nhưng chúng tôi có thể hoàn thành phần của chúng tôi.


Alex:
Đó chính là ý nghĩa của chữ "tổng quát" trong Trí tuệ Nhân tạo Tổng quát (AGI).


Greg Brockman:
Đúng vậy, đó chính là cái G, nó thực sự là ý nghĩa đó.


Alex:
Nói về "đồng nhất", thì ứng dụng siêu cấp này sẽ như thế nào cuối cùng?


Greg Brockman:
Theo quan điểm của tôi, ứng dụng siêu cấp sẽ là -


Alex:
Nó sẽ tích hợp chất lượng, lập trình, trình duyệt, cũng như những thứ như ChatGPT lại với nhau, phải không?


Greg Brockman:
Đúng. Chúng tôi muốn tạo ra một ứng dụng dành cho người dùng cuối, giúp bạn thực sự trải nghiệm sức mạnh của AGI, cũng chính là "tính tổng quát" của nó.


Nếu bạn nghĩ về các sản phẩm trò chuyện hiện nay, tôi nghĩ rằng nó sẽ dần dần chuyển hóa thành trợ lý cá nhân của bạn, API cá nhân của bạn, một trợ lý trí tuệ nhân tạo thực sự cho bạn. Nó hiểu bạn rất nhiều, biết rất nhiều về thông tin của bạn, thống nhất với mục tiêu của bạn, đáng tin cậy và có thể đại diện cho bạn một cách nào đó trong thế giới kỹ thuật số này.


Về Codex, bạn có thể hiểu rằng: hiện tại nó vẫn là một công cụ chủ yếu dành cho kỹ sư phần mềm, nhưng nó đang dần trở thành "Codex dành cho mọi người".


Bất kỳ ai muốn sáng tạo, muốn xây dựng điều gì đó, đều có thể sử dụng Codex để cho máy tính hoàn thành những gì họ muốn. Và đó không chỉ còn là "viết phần mềm" nữa, nó giống như "sử dụng máy tính" chính. Ví dụ, đôi khi tôi quên cách thiết lập góc nóng (hot corners), tôi chỉ cần yêu cầu Codex làm, nó thực sự đã thực hiện.


Đây mới chính là hình ảnh tự nhiên của máy tính, nó nên phải thích ứng với con người, chứ không phải để con người phải thích ứng với nó.


Vì vậy, bạn có thể tưởng tượng một ứng dụng như thế này: Mọi việc bạn muốn máy tính thực hiện, bạn đều có thể trực tiếp yêu cầu nó. Trong đó sẽ tích hợp khả năng "sử dụng máy tính" và "tương tác trình duyệt", cho phép trí tuệ nhân tạo thực sự có thể thao tác trên trang web, đồng thời bạn cũng có thể giám sát xem nó đang làm gì. Và, cho dù tương tác của bạn là trò chuyện, viết mã, hay công việc tri thức chung, tất cả các cuộc trò chuyện đó sẽ được tổng hợp trong một hệ thống duy nhất. Trí tuệ nhân tạo sẽ có bộ nhớ, sẽ hiểu bạn.


Đó chính là điều chúng tôi đang xây dựng.


Nhưng thực tế, nói thẳng ra, thực chất đó chỉ là một phần nhỏ của tảng băng, chỉ là phần bị lộ trên mặt nước. Đối với tôi, điều thực sự quan trọng hơn là sự thống nhất ở tầng công nghệ cơ bản.


Chúng tôi đã đề cập đến sự thống nhất ở tầng mô hình cơ bản, nhưng những năm gần đây điều thực sự thay đổi là: hiện nay không chỉ là vấn đề của "mô hình" chính nó nữa, mà quan trọng hơn là "hệ thống chứa". Nghĩa là, mô hình làm thế nào để có được ngữ cảnh? Nó kết nối với thế giới thực như thế nào? Nó có thể thực hiện những hành động nào? Khi ngữ cảnh mới liên tục xuất hiện, cơ chế lặp lại tương tác với người dùng làm việc như thế nào?


Những điều như vậy trước đây chúng tôi thực sự có nhiều hệ thống triển khai khác nhau, hoặc ít nhất là một số triển khai khác nhau một chút. Nhưng bây giờ chúng tôi đang hội tụ chúng thành một hệ thống duy nhất. Cuối cùng, chúng tôi sẽ có một tầng trí tuệ nhân tạo thống nhất, sau đó một cách rất nhẹ nhàng, chúng tôi sẽ định hướng nó vào các tình huống ứng dụng cụ thể khác nhau.


Tất nhiên, bạn vẫn có thể tạo một plug-in nhỏ, giao diện người dùng nhỏ, phục vụ đặc biệt cho tài chính, phục vụ đặc biệt cho luật pháp, nhưng trong hầu hết các trường hợp, bạn thậm chí cũng không cần, vì ứng dụng siêu việt này sẽ đủ phổ biến, đủ rộng lớn.


Alex:
Ứng dụng này đồng thời hướng đến cả kịch bản doanh nghiệp và cá nhân?


Greg Brockman:
Đúng, thực sự đó chính là lõi của nó. Giống như một chiếc máy tính, chẳng hạn chiếc laptop của bạn, nó cuối cùng là cho mục đích cá nhân, hay mục đích công việc? Câu trả lời thực sự là: Cả hai đều đúng. Nó trước hết là thiết bị của bạn, là cánh cửa để bạn nhập vào thế giới kỹ thuật số. Và đó cũng chính là điều chúng tôi muốn làm.


Alex:
Vậy từ góc nhìn phi thương mại, nếu tôi sử dụng ứng dụng siêu việt này trong cuộc sống cá nhân của mình, tôi sẽ làm gì với nó? Cuộc sống của tôi sẽ thay đổi như thế nào?


Greg Brockman:
Tôi hiểu như sau: Trong cuộc sống cá nhân, điều đầu tiên mà nó sẽ làm là mở rộng cách bạn đang sử dụng ChatGPT hiện tại.


Bạn đang sử dụng ChatGPT như thế nào hiện nay? Thực ra, mọi người đã sử dụng nó để hoàn thành rất nhiều nhiệm vụ đa dạng và đáng kinh ngạc. Đôi khi chỉ cần nói đơn giản, “Tôi phải phát biểu tại đám cưới, bạn có thể giúp tôi viết phần này không?” hoặc “Bạn có thể xem xét ý tưởng này giúp tôi không?” hoặc “Tôi đang làm một công việc nhỏ, bạn có thể cho tôi một số ý tưởng không?”


Những tình huống này một phần là cá nhân, một phần đã bắt đầu làm mờ ranh giới giữa cá nhân và công việc. Quan điểm của tôi là: tất cả những câu hỏi như vậy đều nên được giao cho ứng dụng siêu phàm xử lý.


Greg Brockman:
Nhưng nếu bạn nhìn lại quá trình phát triển của ChatGPT, nó thực sự đã đang dần thay đổi.


Nó trước đây không có khả năng ghi nhớ, phải không? Đối với mỗi người, nó đều là cùng một trí tuệ nhân tạo, mỗi lần đều bắt đầu từ đầu, gần như như bạn đang nói chuyện với một người lạ. Nhưng nếu nó có thể nhớ những tương tác trước đây của bạn, nó sẽ mạnh mẽ hơn nhiều. Nếu nó còn có thể truy cập thêm bối cảnh, nó cũng sẽ mạnh mẽ hơn nhiều.


Ví dụ, nó kết nối với hộp thư điện tử của bạn, lịch của bạn, thực sự hiểu biết sở thích của bạn, có một bộ thông tin nền về quá khứ của bạn, sau đó sử dụng thông tin đó để giúp bạn đạt được mục tiêu. Ví dụ khác là hiện tại trong ChatGPT đã có một tính năng gọi là Pulse, nó sẽ hàng ngày gửi cho bạn nội dung mà bạn có thể quan tâm dựa trên hiểu biết về bạn.


Do đó, ở mức độ sử dụng cá nhân, ứng dụng siêu phàm sẽ bao gồm tất cả điều này và sẽ thực hiện một cách sâu hơn, phong phú hơn.


Alex:
Bạn dự định tung ra nó khi nào?


Greg Brockman:
Cách hiểu chính xác hơn là, trong vài tháng tới, chúng tôi sẽ tiến triển theo hướng này từng bước một. Tầm nhìn toàn diện mà chúng tôi đề cập sẽ dần được triển khai, nhưng không phải một lần toàn bộ, mà sẽ xuất hiện theo từng giai đoạn.


Ví dụ, ứng dụng Codex ngày hôm nay thực sự đã chứa hai lớp: một lớp là hệ thống mang tải trí tuệ chung (agent harness) có thể sử dụng các công cụ; lớp khác là một tác nhân trí tuệ giỏi viết phần mềm.


Và hệ thống mang tải trí tuệ chung này thực sự có thể được sử dụng trong nhiều tình huống khác. Bạn kết nối nó với bảng tính, với tài liệu Word, nó sẽ giúp bạn xử lý công việc kiến thức.


Doanh nghiệp của chúng tôi đang hướng đến bước đầu tiên: tối ưu hóa ứng dụng Codex để làm việc với kiến thức tổng quát dễ dàng hơn. Vì chúng tôi đã thấy người ta tự giác bắt đầu sử dụng nó nội bộ tại OpenAI.


Điều này sẽ là bước khởi đầu, và sẽ còn nhiều bước phía trước.


Alex:
Điều mà tôi rất thích khi nghe thấy là trường hợp như vậy. Đó chính là cách mà chúng ta hy vọng hệ thống này có thể hoạt động. Điều thú vị là: Ứng dụng hiện tại của Codex ban đầu được thiết kế cho các kỹ sư phần mềm, vì vậy đối với người không phải là lập trình viên, tính sẵn có hiện tại của nó thực sự không cao. Vì trong quá trình cấu hình, có rất nhiều vấn đề nhỏ xuất hiện.


Các nhà phát triển có thể hiểu ý nghĩa của nó ngay lập tức, và biết cách sửa chữa; chúng tôi đã quen với điều đó. Nhưng nếu bạn không phải là nhà phát triển, khi bạn nhìn thấy những điều này, bạn sẽ tự hỏi: "Đây là thứ gì vậy? Tôi chưa bao giờ thấy qua."


Tuy vậy, chúng tôi vẫn thấy nhiều người chưa từng viết code đã bắt đầu sử dụng nó để xây dựng trang web, hoặc làm những việc như bạn đã nói - tự động hóa tương tác giữa các phần mềm khác nhau, từ đó nhận được hiệu suất lớn. Ví dụ, trong nhóm giao tiếp của chúng tôi, có người đã liên kết nó với Slack và email, để nó xử lý lượng phản hồi lớn và tạo ra tổng kết và phân tích khá tốt.


Vì vậy, tình hình hiện tại là: những người rất năng động đã sẵn lòng vượt qua những rào cản này, và sau đó nhận được lợi ích rất lớn.


Thậm chí có thể nói rằng phần khó nhất chúng tôi đã hoàn thành - chúng tôi đã tạo ra một trí tuệ nhân tạo thực sự thông minh, có khả năng, và có thể thực sự hoàn thành nhiệm vụ.


Điều tiếp theo cần làm, là phần tương đối "dễ dàng" đó: biến nó trở thành thực sự hữu ích cho công chúng, và từng chút một loại bỏ các rào cản đối với người dùng.


Alex:
So với cạnh tranh, Anthropic hiện đã có ứng dụng Claude, với cả Chatbot lẫn Claude Code. Ở một mức độ nào đó, họ cũng đã có "siêu ứng dụng" riêng của họ.


Bạn nghĩ sao về việc Anthropic vì sao đã đi nhanh hơn vào bước này? Và bạn nghĩ khả năng mà OpenAI bắt kịp là bao nhiêu?


Greg Brockman:
Nếu bạn quay trở lại thời điểm 12 đến 18 tháng trước, thực ra chúng tôi luôn coi "lập trình" như một lĩnh vực chính và luôn đạt kết quả xuất sắc trong các cuộc thi lập trình kiểu "trong sáng" như vậy. Nhưng điều mà chúng tôi không đầu tư đủ nhiều vào vào thời điểm đó, đó là sự sử dụng cuối cùng.


Điều đó có nghĩa là, chúng tôi chưa đủ chú ý vào vấn đề này: AI đã rất thông minh, có thể giải quyết các bài toán lập trình khó mà nó từng thấy, nhưng nó chưa bao giờ gặp phải thư viện mã nguồn của thế giới thực — thư viện mã nguồn thế giới thực thường rối ren, hoàn toàn không giống như môi trường "sạch sẽ" mà nó quen thuộc.


Ở điểm này, chúng tôi quả thực đã tụt lại. Nhưng khoảng từ giữa năm ngoái, chúng tôi bắt đầu mạnh mẽ tập trung vào việc bù đắp điều này. Chúng tôi đã thành lập một nhóm chuyên biệt để xem xét tất cả các khoảng trống này, những rối loạn, những phức tạp trong thế giới thực mà chúng tôi trước đây chưa bao giờ tiếp xúc thực sự.


Ví dụ, làm sao xây dựng dữ liệu huấn luyện? Làm sao thiết lập môi trường huấn luyện? Làm sao để cho AI thực sự trải nghiệm "làm kỹ sư phần mềm" — cảm giác như thế nào khi bị gián đoạn, gặp phải vấn đề kỳ lạ, mọi tình huống không lý tưởng, v.v.


Theo tôi, đến thời điểm hiện tại, chúng tôi đã bắt kịp. Khi người dùng thực sự so sánh chúng tôi với các đối thủ, nhiều người sẽ ưu tiên chọn chúng tôi.


Tất nhiên, chúng tôi cũng nhận thức được khoảng cách về trải nghiệm người dùng cuối, chúng tôi sẽ bù đắp phần đó. Nhưng nhìn chung, đây chính là hướng đi của chúng tôi vào thời gian này: không chỉ tạo ra một mô hình, rồi bao bọc thêm một lớp sản phẩm; mà là từ đầu đã coi đó như một sản phẩm toàn diện. Khi nghiên cứu, chúng tôi đồng thời đã nghĩ ngay: điều này sẽ được sử dụng như thế nào cuối cùng? Đó là một sự chuyển mình đang diễn ra bên trong OpenAI trong thời gian qua.


Theo quan điểm của tôi, chúng tôi sẽ sớm chứng kiến một đợt nâng cấp mô hình cực mạnh. Chỉ cần nhìn vào lộ trình của năm nay, tôi đã cảm thấy rất phấn khích, có thể làm được rất nhiều việc.


Cùng lúc đó, chúng tôi cũng đang tập trung mạnh mẽ vào việc bù đắp sự sử dụng cuối cùng.


Alex:
Kể từ năm 2022, OpenAI dường như luôn là người dẫn đầu không thể tranh cãi trong lĩnh vực này. Rõ ràng, cạnh tranh hiện tại không còn chỉ là cạnh tranh về kết quả kiểm tra nữa. Mới đây, bạn cũng đã sử dụng câu "chúng tôi đã bắt kịp" cho mình.


Môi trường nội bộ của công ty có thay đổi không? Nghĩa là, giờ đây không còn cảm giác như trong quá khứ, khi chúng tôi vượt trội rõ ràng trong các sản phẩm như ChatGPT nữa, mà thực sự đã bước vào một cuộc cạnh tranh.


Một số báo cáo từ bên ngoài cũng cho thấy sự thay đổi này — ví dụ như cuộc họp nội bộ của công ty, nhấn mạnh rằng OpenAI không còn "công việc phụ" nào nữa, tất cả mọi người đều phải tập trung vào hướng chính này. Vậy bây giờ môi trường và tâm trạng bên trong đã thay đổi như thế nào?


Greg Brockman:
Tôi sẽ nói, đối với tôi cá nhân, thời điểm mà OpenAI làm tôi cảm thấy không ổn nhất, chính là sau khi chúng tôi phát hành ChatGPT.


Tôi nhớ lúc đó tại buổi tiệc tại công ty, không khí tràn ngập cảm giác "chúng ta đã chiến thắng". Trước đây, tôi chưa bao giờ trải qua cảm giác đó. Phản ứng của tôi lúc đó là: Không, chúng ta không phải là người như vậy, chúng ta là bên yếu thế.


Và chúng tôi luôn là như vậy. Đối thủ trong lĩnh vực này, hầu hết đều là các công ty lớn đã tồn tại, có nhiều vốn, nhiều nhân lực, nhiều dữ liệu, hầu hết tất cả tài nguyên đều phong phú hơn.


Vậy sao OpenAI vẫn có thể tham gia tranh đua? Ở một mức độ nào đó, câu trả lời chính là: chúng tôi không bao giờ tự tin. Chúng tôi luôn xem mình như một kẻ thách thức.


Trong thực tế, đối với tôi, thấy thị trường bắt đầu thể hiện rõ mẫu cạnh tranh này, thấy các đối thủ khác cũng bắt đầu xuất hiện và làm tốt, thì thực sự là điều rất khỏe mạnh.


Vì theo tôi, bạn không bao giờ nên tập trung quá nhiều vào đối thủ cạnh tranh. Nếu bạn chỉ nhìn mỗi họ đang ở đâu, khi bạn đến đó, họ đã tiến xa hơn rồi.


Và tôi nghĩ, thời gian qua thực ra đã ngược lại: nhiều người luôn nhìn chăm chú vào vị thế chúng tôi đang có, trong khi chúng tôi vẫn tiếp tục tiến lên. Điều này đem lại cho chúng tôi cảm giác thống nhất nội bộ và tinh thần đoàn kết.


Tôi đã nói trước đó, trước đây chúng tôi hầu như xem "nghiên cứu" và "triển khai" là hai khái niệm khác biệt; nhưng bây giờ, chúng tôi thực sự muốn kết hợp chúng. Đối với tôi, điều này thật tuyệt vời.


Vì vậy, tôi nghĩ, giai đoạn chúng tôi đang ở hiện tại, không phải là giai đoạn mà tôi cảm thấy chúng tôi từng "vững chãi", hoặc bây giờ đột ngột gặp khó khăn. Bạn biết đấy, đánh giá từ bên ngoài về bạn, thường không giống như họ nói về bạn giỏi, cũng không giống như họ nói về bạn tồi tệ.


Tôi nghĩ, tổng thể, thực ra chúng tôi luôn ổn định. Và đối với vấn đề cốt lõi như việc phát triển mô hình, tôi rất tin tưởng vào lộ trình của chúng tôi, vào sự đầu tư nghiên cứu chúng tôi đã thực hiện điều này. Còn về mặt sản phẩm, tôi nghĩ chúng tôi hiện tại có một năng lượng rất tốt, mọi người đang hội tụ lại, đưa những điều này thật sự đến trước mặt thế giới.


Alex:
Bạn đã nhắc đến điều này nhiều lần, sẽ có một số mô hình mới mạnh mẽ. Vậy thì nó là gì chính xác?


Thông tin từ The Information cho biết, bạn đã hoàn thiện việc "Spud" được huấn luyện trước; và Sam Altman cũng nói với nhân viên OpenAI rằng, trong vài tuần tới họ sẽ thấy một mô hình rất mạnh. Đó là chỉ vài tuần trước. Nội bộ nhóm tin rằng, nó có thể thậm chí thúc đẩy kinh tế tăng tốc thực sự, mọi việc diễn ra nhanh hơn so với nhiều người dự đoán.


Vậy, "Spud" thực sự là gì?


Greg Brockman:
Đó là một mô hình tốt. Nhưng theo tôi, điểm chính không phải ở một mô hình cụ thể.


Quy trình nghiên cứu và phát triển của chúng tôi khoảng như sau: Đầu tiên là tiền huấn luyện, nghĩa là tạo ra một mô hình cơ bản mới, sau đó mọi cải tiến tiếp theo sẽ dựa trên mô hình cơ bản này. Và bước này thường đòi hỏi nhiều nhóm trong công ty đầu tư rất nhiều công sức. Thực tế, trong 18 tháng qua, hầu hết thời gian của tôi đã dành ở đây: chủ yếu liên quan đến cơ sở hạ tầng GPU, hỗ trợ các nhóm phát triển framework huấn luyện, thực sự chạy các nhiệm vụ huấn luyện quy mô lớn này.


Sau đó là giai đoạn reinforcement learning. Nghĩa là để AI đã học được một lượng lớn kiến thức về thế giới, bắt đầu áp dụng những kiến thức này một cách thực tế.


Sau đó là quá trình huấn luyện tiếp theo. Ở giai đoạn này, bạn sẽ thực sự cho nó biết - ok, bây giờ bạn đã biết làm cách nào để giải quyết vấn đề, vậy thì hãy thực hành ở nhiều tình huống khác nhau.


Cuối cùng, còn có một giai đoạn "métrắng cuối cùng" liên quan đến hành vi và sự sẵn có.


Vì vậy, tôi sẽ xem Spud như một nền tảng mới, một mô hình tiền huấn luyện mới. Và trên nó, có thể nói rằng nghiên cứu của chúng tôi trong khoảng hai năm qua đã bắt đầu thật sự cho ra kết quả. Điều đó sẽ rất là thú vị.


Tôi nghĩ rằng, điều mà thế giới bên ngoài cuối cùng cảm nhận được sẽ là sự nâng cao tổng thể về khả năng. Nhưng đối với tôi, đó chưa bao giờ chỉ là một vấn đề của việc phát hành một lần. Bởi vì khi phiên bản này ra mắt, thực sự chỉ là một phiên bản sớm của những tiến triển tiếp theo của chúng tôi. Chúng tôi sẽ tiếp tục làm nhiều hơn ở mỗi giai đoạn cải tiến này.


Nên tôi nghĩ rằng, hiện tại chúng ta giống như đang sở hữu một động cơ tiến triển không ngừng, và Spud chỉ là một điểm dừng trên con đường này.


Alex:
Vậy bạn nghĩ rằng, nó có thể làm những điều mà các mô hình hiện nay không thể thực hiện được?


Greg Brockman:
Tôi nghĩ rằng, nó sẽ có khả năng giải quyết những vấn đề khó khăn hơn và trở nên tinh tế hơn. Nó sẽ hiểu rõ hơn yêu cầu và ngữ cảnh.


Mọi người đôi khi nói về một cảm giác gọi là "big model smell" - ý nghĩa là, khi mô hình thực sự thông minh hơn, có khả năng hơn, bạn sẽ có thể cảm nhận rõ ràng. Nó sẽ đi theo ý định của bạn, phản ánh nhu cầu của bạn.


Khi bạn đặt một câu hỏi mà AI không thực sự hiểu ý của bạn, cảm giác đó vẫn khiến bạn thất vọng. Bạn sẽ không thể kiềm chế cảm xúc rằng: Điều này, nó nên tự mình hiểu được mà.


Vì vậy, tôi sẽ nói rằng, ở một khía cạnh nào đó, điều này sẽ là kết quả của sự tích luỹ của nhiều “tiến triển nhỏ” dẫn đến “đột phá lớn” đó. Một mặt, mọi chỉ số sẽ được cải thiện đáng kể; mặt khác, sẽ xuất hiện những tình huống hoàn toàn mới: trước đây bạn có thể lười biếng không sử dụng AI vì không đủ tin cậy, nhưng bây giờ bạn sẽ sử dụng nó mà không cần suy nghĩ.


Tôi nghĩ đây sẽ là một cuộc biến đổi toàn diện. Tôi đặc biệt mong đợi xem, nó sẽ làm thế nào để tiếp tục đẩy cao giới hạn về khả năng. Chúng ta đã thấy nó hoạt động hiệu quả trong những tình huống như nghiên cứu về vật lý, tôi cảm thấy rằng tiếp theo nó sẽ có khả năng giải quyết nhiều vấn đề mở, vấn đề kéo dài thời gian hơn.


Đồng thời, tôi cũng rất mong đợi xem nó làm thế nào để nâng cao giới hạn dưới của khả năng — cụ thể, bất kỳ điều gì bạn muốn làm, nó sẽ hữu ích hơn nhiều so với ngày hôm nay.


Alex:
Nhưng với người dùng thông thường, đôi khi cảm nhận được sự thay đổi này không phải lúc nào cũng dễ dàng. Ví dụ, trước khi GPT-5 được phát hành, thực tế thế giới đã có rất nhiều sự kỳ vọng trước đó; nhưng khi nó thực sự ra mắt, phản ứng ban đầu từ công chúng một phần nào đó lại có phần thất vọng. Sau đó, mọi người dần dần nhận ra rằng, trong một số nhiệm vụ cụ thể, nó thực sự rất mạnh mẽ.


Vậy đối với thế hệ tiếp theo của các mô hình, bạn nghĩ rằng chúng sẽ chủ yếu được cảm nhận rõ rệt trong một số tình huống nghề nghiệp cụ thể, hay nó sẽ trở thành một cải thiện mà ai cũng có thể cảm nhận được một cách tổng quát?


Greg Brockman:
Tôi nghĩ câu chuyện có lẽ sẽ tương tự như vậy. Sau khi mô hình ra mắt, chắc chắn sẽ có những người khi sử dụng lần đầu đã cảm thấy: đây hoàn toàn khác biệt so với những gì họ đã từng thấy trước đây. Nhưng cũng sẽ có những tình huống ứng dụng, nơi hạn chế không nằm ở “sự thông minh”. Vì vậy nếu bạn chỉ làm cho mô hình thông minh hơn, có thể trong những nơi như thế, người dùng không nhất thiết sẽ cảm nhận thấy sự khác biệt ngay lập tức.


Tuy nhiên, theo thời gian, tôi nghĩ cuối cùng mọi người đều sẽ cảm nhận được sự thay đổi. Vì thật sự sự thay đổi xảy ra ở chỗ: bạn sẽ bắt đầu phụ thuộc vào hệ thống này đến mức độ nào.


Nếu bạn nghĩ về cách chúng ta tương tác với AI hiện tại, thực ra mỗi người trong chúng ta đều có một mô hình tâm lý về “nó có thể làm gì”. Và mô hình tâm lý này không thay đổi nhanh chóng. Thường thì nó đi kèm với việc tích lũy kinh nghiệm, và đôi khi nó thay thế bạn hoàn thành một công việc đặc biệt kỳ diệu, bạn mới nhận ra: thật không ngờ nó có thể làm được điều này, trước đây bạn hoàn toàn không ngờ đến.


Chẳng hạn như trong tình huống tìm kiếm thông tin y tế, chúng ta đã thấy điều tương tự. Tôi có một người bạn, đã sử dụng ChatGPT để tìm hiểu về các phương pháp điều trị khác nhau cho bệnh ung thư của mình. Bác sĩ trước đó đã thông báo với anh ta rằng, đây là giai đoạn muộn, không có cách nào khác để giúp anh ta. Nhưng anh ta đã sử dụng ChatGPT để nghiên cứu nhiều phương pháp khác nhau, và cuối cùng thực sự tìm thấy phương pháp điều trị.


Trong trường hợp như vậy, điều kiện tiên quyết thực sự là: Bạn phải có một mức độ niềm tin nào đó vào khả năng hỗ trợ của trí tuệ nhân tạo trong bối cảnh này, bạn mới sẵn lòng bỏ ra nhiều nỗ lực để đào sâu giá trị từ hệ thống đó.


Cho nên, tôi nghĩ rằng, tiếp theo chúng ta sẽ thấy là: Trong bất kỳ bối cảnh ứng dụng tương tự nào, việc mà trí tuệ nhân tạo có thể giúp bạn sẽ trở nên rõ ràng hơn đối với tất cả mọi người.


Do đó, điều này không chỉ đồng nghĩa với việc công nghệ chính mạnh mẽ lên, mà còn là chúng ta đang thay đổi, đang bắt kịp với việc hiểu biết về công nghệ.


Alex:
Đó có nghĩa là, bạn sẽ ngày càng phụ thuộc vào nó. Trong OpenAI, bạn đang phát triển một nhà nghiên cứu trí tuệ nhân tạo tự động, được cho là sẽ ra mắt vào mùa thu năm nay. Vậy thực sự đó là gì?


Trí tuệ Nhân tạo Đã Bước Vào Giai Đoạn "Tăng Tốc"


Greg Brockman:
Tôi nghĩ rằng, dưới góc độ tổng thể, hiện nay chúng ta đang ở giai đoạn đầu của sự tăng tốc công nghệ này.


Alex:
"Tăng tốc" có ý nghĩa gì?


Greg Brockman:
"Tăng tốc" đề cập đến việc trí tuệ nhân tạo đang ngày càng mạnh mẽ theo một đường cong số mũ. Một phần lý do của việc này là: Chúng ta đã có thể sử dụng trí tuệ nhân tạo để giúp chúng ta cải thiện chính trí tuệ nhân tạo, do đó quá trình nghiên cứu ngày càng được tăng tốc.


Tuy nhiên, tôi nghĩ rằng, "tăng tốc" không chỉ là vấn đề ở mặt công nghệ, nó cũng đồng nghĩa với việc giải phóng ảnh hưởng trong thế giới thực. Việc phát triển của nhiều công nghệ đều theo một đường cong S; và nếu bạn nhìn vào nhiều đường cong S đó trong một định nguyên thời gian dài hơn, chúng cuối cùng sẽ hội tụ thành một hình dạng tăng trưởng gần như số mũ.


Tôi nghĩ rằng chúng ta hiện đang ở giai đoạn như vậy. Nghĩa là, công nghệ đang tiến triển nhanh hơn, chiếc động cơ phát triển này đang ngày càng tích luỹ động lực.


Đồng thời, trong thế giới bên ngoài, cũng có rất nhiều yếu tố hỗ trợ đang hình thành: các nhà sản xuất chip đang nhận được nhiều nguồn lực hơn; rất nhiều người đang làm các ứng dụng ở tầng cao, thử nghiệm việc nhúng trí tuệ nhân tạo vào các bối cảnh khác nhau, tìm kiếm điểm phù hợp giữa nó và các nhu cầu cụ thể.


Tất cả năng lượng này đều đang tích luỹ và cùng nhau thúc đẩy trí tuệ nhân tạo vào một giai đoạn "tăng tốc", biến nó từ một tồn tại lề ra, dần trở thành động cơ chính thúc đẩy tăng trưởng kinh tế.


Và vấn đề này không chỉ xảy ra trong vài bức tường của chúng ta. Nó liên quan đến toàn bộ thế giới, toàn bộ hệ thống kinh tế, cách mà chúng ta cùng nhau thúc đẩy công nghệ này, và cách mà tính ứng dụng của nó đang ngày càng phát triển.


Alex:
Vậy nhà nghiên cứu này cụ thể sẽ làm gì?


Greg Brockman:
The so-called "Researcher" essentially refers to: as the proportion of tasks that AI can take over increases, we should allow it to operate more autonomously.


Of course, there are many things behind this that need to be carefully considered. It does not mean: we let it out, let it run on its own for a while, and come back later to see if it has produced any good results.


I think that we will still be very involved in its management. Just like now, if you have a junior researcher, if you leave him alone for too long, he is likely to go down a path that doesn't have much value. But if there is a senior researcher, or someone who truly has a sense of direction leading the way, they may not even need to personally master all the specific operational skills, but they can still provide continuous feedback on what the person is producing, review it, and provide directional guidance: what exactly I hope you will accomplish.


So in my understanding, this system is a mechanism that we are building, which will significantly increase the speed of our model output, drive new research breakthroughs, and make these models more useful and usable in the real world. And all of this will happen at an increasingly faster pace.


Alex:
What exactly will it do? Will you directly tell it, "Go find AGI," and then it will try on its own?


Greg Brockman:
To some extent, that's indeed how I understand it, at least in the first sense. But from a more practical perspective, I would understand it as: taking the complete workflow of a research scientist from start to finish, and executing it in a silicon-based system as much as possible.


Alex:
Another way to understand "takeoff" is that AI advancement will shift from incremental improvement to accumulating momentum, eventually evolving into an almost unstoppable propulsion process toward a more intelligent intelligence than humans.


Are you worried that, just as things may develop in a positive direction, this progress itself may also spiral out of control or go off track?


Greg Brockman:
I think, of course, it will, there is no doubt about it. I believe that to reap the benefits of this technology, one must also seriously consider its risks.


If you look at our approach in technological development, you will find that we have put a lot into security and protection. A good example is prompt injection attacks. If you want to create a very intelligent, highly capable AI that also has access to many tools, then, of course, you must ensure that it will not be led astray or manipulated by someone giving it a strange command.


Đó là điều chúng tôi đã bỏ ra rất nhiều công sức để thực hiện, và tôi nghĩ rằng chúng tôi đã đạt được kết quả rất tốt, cũng như có một đội ngũ rất mạnh mẽ đang chịu trách nhiệm cho phần này.


Thú vị ở đây là một số vấn đề thực tế có thể được so sánh với con người. Con người cũng sẽ bị ảnh hưởng bởi các cuộc tấn công lừa đảo, cũng có thể bị lừa dối, cũng có thể làm việc khi không hiểu rõ bối cảnh hoàn chỉnh.


Chúng tôi sẽ đưa những so sánh này vào quá trình phát triển của chính mình. Mỗi khi chúng tôi phát hành một mô hình, phát triển một mô hình, chúng tôi luôn tự hỏi: Làm thế nào để đảm bảo rằng nó thực sự phù hợp với mục tiêu của con người, làm thế nào để đảm bảo rằng nó thực sự có thể hữu ích? Điều này là một trong những điều chúng tôi quan tâm rất nhiều.


Tất nhiên, cũng có những vấn đề lớn hơn, liên quan đến toàn bộ thế giới, toàn bộ nền kinh tế: Mọi thứ sẽ thay đổi như thế nào? Mỗi người phải làm gì để hưởng lợi từ công nghệ này? Những vấn đề này không chỉ là vấn đề công nghệ, cũng không phải là OpenAI có thể giải quyết một mình. Nhưng đúng vậy, tôi thường xuyên suy nghĩ, không chỉ để thúc đẩy tiến bộ công nghệ, mà còn để đảm bảo rằng nó thật sự có thể mang lại tác động tích cực phù hợp với tiềm năng của nó.


Alex:
Vấn đề là, điều này trông giống như một cuộc đua. Những gì xảy ra trong tường của trụ sở OpenAI, sẽ được nhiều người chơi mã nguồn mở sao chép nhanh chóng. Và những người chơi này thường yếu đuối hơn nhiều về ranh giới an toàn, biện pháp bảo vệ.


Tôi nhớ bạn đã từng nói một câu, ý là: Thành công sáng tạo, cần rất nhiều người làm rất nhiều việc đúng; nhưng hậu quả phá hoại, có thể chỉ cần một người mang malice. Đó cũng là điểm ít nhất làm tôi lo lắng nhất. Bởi vì rõ ràng đây là một cuộc đua, và tiến triển diễn ra rất nhanh chóng. Rất nhiều đồng nghiệp của bạn đều nói, nếu tất cả mọi người đều đồng ý dừng lại, họ cũng sẵn lòng dừng lại. Nhưng hiện tại, không có dấu hiệu nào cho thấy cuộc đua này đang chậm lại.


Vậy mức độ tiền đã n được, có đáng chịu mạo hiểm như vậy không?


Greg Brockman:


Tôi nghĩ, mức độ tiền đã n được đó là đáng giá. Nhưng tôi cũng nghĩ rằng, câu trả lời như vậy vẫn còn quá tổng quát, quá đơn giản.


Từ khi OpenAI được thành lập, chúng tôi luôn tự hỏi: Tương lai nào mới thực sự là một tương lai tốt? Công nghệ này cần phải được phát triển như thế nào để thực sự cải thiện tình hình của tất cả mọi người?


Bạn có thể chia câu hỏi này thành hai góc độ. Một góc là góc độ "tập trung": tin rằng để làm cho công nghệ này an toàn, cách tốt nhất là chỉ có một bên chính đi phát triển nó. Như vậy, không có áp lực cạnh tranh, bạn có thể từ từ, cẩn thận thực hiện đúng việc, khi sẵn sàng, quyết định cách giao nó cho tất cả mọi người. Ý tưởng này dĩ nhiên có thể được hiểu, nhưng ở một mức độ nào đó, đó cũng là một giải pháp khó chấp nhận.


Và một hướng tiếp cận khác, cũng là hướng tiếp cận chúng tôi tin tưởng hơn, là suy nghĩ từ "độ bền". Đó có nghĩa là coi nó như một hệ thống mở: có nhiều bên tham gia đẩy mạnh sự phát triển công nghệ này, nhưng trọng điểm không chỉ là công nghệ mà còn ở việc xây dựng cơ sở hạ tầng xã hội xung quanh công nghệ này, để giúp nó có thể được tiếp nhận một cách ổn định hơn.


Bạn có thể suy nghĩ về quá trình phát triển của điện. Điện cũng được sản xuất bởi nhiều người và tổ chức khác nhau, chính nó cũng có rủi ro và nguy hiểm. Nhưng đồng thời, chúng ta cũng xây dựng được nhiều lớp cơ sở hạ tầng an toàn quanh điện: có các tiêu chuẩn an toàn điện, có các quy định sử dụng khác nhau, có cách thức giám sát tương ứng theo quy mô khác nhau. Khi đạt tỷ lệ lớn, còn có yêu cầu giám sát đặc biệt. Rất nhiều người có thể sử dụng điện theo một cách dân chủ, đồng thời vẫn có người kiểm tra, vẫn có một hệ thống phụ trợ hoàn chỉnh xung quanh những đặc tính của công nghệ này.


Và tôi nghĩ, AI cũng vậy. Điều quan trọng thực sự chúng ta thấy là: xung quanh AI, phải có một cuộc thảo luận xã hội rộng lớn. Nếu công nghệ này thực sự đến và thay đổi cuộc sống của mọi người, thì mọi người phải tham gia vào đó. Nó không thể chỉ là do một nhóm nhỏ tập trung, một cách bí mật đẩy mạnh và quyết định mọi thứ.


Do đó, đối với tôi, đây luôn là một vấn đề rất cốt lõi: công nghệ này nên được triển khai như thế nào? Và điều chúng tôi thực sự tin tưởng là một "hệ sinh thái độ bền" mà dần dần hình thành xung quanh việc phát triển công nghệ.


Alex:
Vậy ý bạn là, hiện tại chúng ta đang trong quá trình "bay lên", và tất cả chúng ta thực sự đều đã ở trong đó rồi. CEO NVIDIA Jensen Huang gần đây đã nói rằng ông cho rằng AGI đã được đạt được. Bạn đồng ý không?


Greg Brockman:
Tôi nghĩ, AGI có các định nghĩa khác nhau đối với các người. Và thực tế có thể có nhiều người cho rằng, công nghệ chúng ta đang sử dụng ngày nay đã là AGI.


Vấn đề này có thể tranh cãi. Nhưng tôi nghĩ, điều thực sự thú vị ở đây là: công nghệ mà chúng ta đang sở hữu hiện tại, thực sự vẫn rất "gồ ghề", đầy với cảm giác bị chia cắt rõ rệt.


Trong rất nhiều công việc, chẳng hạn như viết mã, nó đã thực sự vượt trội. AI có thể làm được, và thực sự làm giảm thiểu sự ma sát trong việc tạo ra cái mới. Nhưng đồng thời, cũng có những công việc rất cơ bản, mà con người có thể dễ dàng thực hiện, trong khi AI vẫn gặp khó khăn.


Vậy bạn đặt ranh giới ở đâu? Một phần, điều này giống như một "cảm giác", một dự đoán không khí, chứ không phải là một vấn đề có thể được định nghĩa một cách chính xác bởi khoa học tại thời điểm này.


Vì vậy đối với bản thân tôi, tôi nghĩ chúng tôi rõ ràng đang trải qua khoảnh khắc đó. Nếu bạn đưa ra các hệ thống ngày nay cho tôi xem từ năm trước, tôi sẽ nói: Vâng, đó chính là cái chúng ta nói đến trong quá khứ. Chỉ là hiện thực phát triển ra sao, rất khác biệt so với những gì chúng ta từng tưởng tượng. Nó khác biệt hoàn toàn so với bất kỳ hình thức nào chúng ta từng tưởng tượng.


Vì vậy, tôi nghĩ chúng ta cần điều chỉnh mô hình tâm lý của bản thân mình tương ứng.


Alex:
Vậy ý anh là chưa đến sao?


Greg Brockman:
Tôi sẽ nói, chúng ta đã đạt tới khoảng 70% đến 80% rồi. Vì vậy, tôi nghĩ chúng ta thực sự đã rất gần.


Và tôi nghĩ rằng có một điều rất rõ ràng: trong vài năm tới, chúng ta chắc chắn sẽ chứng kiến ​​AGI. Hiệu suất của nó có thể vẫn sẽ hơi "gồ ghề", không phải là mượt mà hoàn hảo ở mọi nơi. Nhưng giới hạn dưới mà nó có thể hoàn thành nhiệm vụ sẽ được nâng lên rất cao - gần như bất kỳ nhiệm vụ trí tuệ nào bạn cần hoàn thành trên máy tính, AI đều có thể thực hiện.


Vì vậy, bây giờ tôi phải đưa ra một câu trả lời có chút không chắc chắn, vì có điều gì đó giống như một "nguyên lý không chắc chắn" nào đó - bạn có thể tranh luận về nó từ các định nghĩa khác nhau. Nhưng theo định nghĩa cá nhân của tôi, tôi nghĩ rằng chúng ta đã gần đến. Chỉ cần bước tiếp một chút, chắc chắn sẽ đến.


Bước Ngoặt Quan Trọng: Việc AI tiếp quản từ 20% đến 80%


Alex:

Vậy vào tháng 12 năm 2025 thì đã xảy ra gì. Vì điều đó dường như là một điểm quay, "để máy tính viết mã liên tục mà không bị gián đoạn" dường như bỗng nhiên từ một ý tưởng lý thuyết, biến thành mọi người bắt đầu nói: "Tôi cảm thấy tôi có thể tin tưởng nó, để nó chạy một lúc mà không cần tôi can thiệp."


Vậy vào lúc đó đã xảy ra chuyện gì?


Greg Brockman:
Sau khi mô hình mới được phát hành, tỷ lệ nhiệm vụ mà AI có thể thực hiện đã tăng từ 20% công việc bạn đang làm ngay lập tức lên đến 80%. Điều này là một sự chuyển đổi rất lớn. Vì nó không còn chỉ là "một công cụ nhỏ tốt" nữa mà trở thành: bạn phải tổ chức lại quy trình làm việc của mình xung quanh những AI này.


Đối với tôi cá nhân, tôi cũng có một cảm giác rất cụ thể. Suốt những năm qua, tôi đã có một từ gợi ý thử nghiệm: làm cho AI xây dựng một trang web cho tôi. Trang web này thực sự là cái mà tôi đã từng tự tay xây dựng khi tôi học lập trình, mất một vài tháng của tôi.


Và đến năm 2025, việc này có lẽ vẫn cần mất bốn giờ đồng hồ, một vài vòng lặp gợi ý, để làm cho nó trông gần giống. Nhưng đến tháng 12, tôi chỉ hỏi một lần, AI chỉ cần một lần và thực hiện rất tốt.


Alex:
Vậy các mô hình này đã hoàn thành bước nhảy như vậy như thế nào?


Greg Brockman:
Một phần lớn điều đó là do mô hình cơ bản đã trở nên mạnh mẽ hơn. OpenAI luôn không ngừng cải tiến kỹ thuật pre-training của mình. Và tại thời điểm đó, chúng ta đã lần đầu tiên thấy một chút: điều gì sẽ xảy ra trong phần còn lại của năm nay. Nhưng đồng thời, điều đó cũng không chỉ là vấn đề của một đột phá đơn điệu. Để chính xác hơn, chúng ta đang tiếp tục tiến triển trên tất cả các chiều sáng tạo.


Một điều thú vị về những mô hình này là: ở một khía cạnh nào đó, bạn sẽ cảm thấy như chúng đang trải qua những "bước nhảy" liên tiếp; nhưng ở một khía cạnh khác, mọi thứ thực sự đều đang tiếp tục tiến triển liền mạch. Nó không phải đột ngột nhảy từ 0% lên 80%, mà là từ 20% tăng lên 80%. Vì vậy, ở một mức độ nào đó, bạn cũng có thể nói rằng, nó chỉ là trở nên tốt hơn thôi.


Và tôi cũng nghĩ rằng, tiến bộ này thực sự đang tiếp tục trong mỗi bản cập nhật nhỏ tiếp theo của chúng ta. Ví dụ từ 5.2 đến 5.3, tôi đã làm việc chặt chẽ với một kỹ sư, ban đầu anh ấy hoàn toàn không thể giao cho mô hình việc làm việc hạ tầng, hardcore mà anh ấy đang chịu trách nhiệm; nhưng sau bản cập nhật mới, mô hình đã có thể nhận tài liệu thiết kế của anh ấy, thực sự thực hiện, thêm theo theo dõi và quan sát chỉ số, chạy profiler để phân tích hiệu suất, sau đó tiếp tục tối ưu hóa, cuối cùng thực hiện được kết quả mà anh ấy mong muốn giao thức sẵn tay của mình.


Do đó, tôi sẽ nói, đây giống như một quá trình "tiến triển chậm rãi, và rồi đột ngột mọi thứ đều thay đổi". Nhưng tất cả điều này, thực sự đã được dự báo bởi khả năng đang hoạt động ngay từ hiện tại. Trễ nhất là trong vòng một năm, rất nhiều điều, một số thậm chí nhanh hơn nhiều, sẽ trở nên cực kỳ đáng tin cậy.


Alex:
Điều này có làm bạn bất ngờ không? Vì tôi nhớ không lâu trước, bạn đã nói trong một cuộc phỏng vấn rằng, công cụ lập trình tự động như Codex, ban đầu chỉ dành cho các nhà phát triển phần mềm. Nhưng trong phần trước của cuộc trò chuyện hôm nay, bạn lại nói rằng, thực ra tất cả mọi người đều có thể sử dụng các công cụ này.


Dạo này điều gì đã làm bạn thay đổi quan điểm?


Greg Brockman:
Trước đó, tôi thực sự luôn đưa Codex vào khung "viết mã" để hiểu. Cuối cùng, nó mang chứa từ code, nên rất tự nhiên khi coi nó là một công cụ dành cho lập trình viên. Và ở bên trong OpenAI, nhiều người thậm chí là kỹ sư phần mềm, chúng tôi đang tự tạo ra công cụ cho chính mình, nên suy nghĩ theo cách này cũng rất tự nhiên.


Nhưng khi công nghệ này tiếp tục tiến bộ, chúng tôi bắt đầu nhận ra một điều: công nghệ cơ bản chúng ta thực sự tạo ra, đa phần nó không phải là về "mã", mà bản chất chính là về "giải quyết vấn đề".


Trong cốt lõi của nó, là quản lý ngữ cảnh, xây dựng framework thực thi, và suy nghĩ về cách AI nên tham gia vào công việc thực tế, thực sự hoàn thành công việc. Và khi điều này được thiết lập, ngay cả trong bối cảnh lập trình, đột ngột cũng có nghĩa là bất kỳ ai cũng có thể có được khả năng này. Bởi vì điều bạn thực sự sở hữu là một hệ thống có thể thay bạn thực thi công việc. Chỉ cần bạn có tầm nhìn, có một mục tiêu muốn hoàn thành, bạn có thể mô tả rõ ý định của mình, AI có thể thực thi, có thể hoàn thành công việc.


Nhưng điều này cũng khiến bạn bắt đầu tự hỏi, tại sao tôi chỉ tập trung vào phân loại "Không lập trình" hay "Lập trình"? Thực tế vẫn còn rất nhiều công việc, mà bản chất chỉ là một loại kỹ năng cơ khí nào đó. Ví dụ như bảng tính Excel, ví dụ như tạo bài thuyết trình. Những việc này nếu AI đã có đủ ngữ cảnh và đủ trí tuệ nguyên thủy, thì hiện tại thực sự nó đã có thể thực hiện rất tốt rồi.


Vì vậy, nếu chúng ta chỉ đơn giản làm cho nó dễ tiếp cận hơn, thân thiện hơn với con người, thì nó sẽ từ "Codex dành cho lập trình viên", một cách đột ngột trở thành "Codex dành cho tất cả mọi người".


Alex:
Và sau khi chúng ta nhìn thấy làn sóng tiến bộ rõ rệt này, ngay sau đó thung lũng silicon một cách nhanh chóng lại xuất hiện một hiện tượng khác gần như im lặng, đó là Open Claw, phải không? Hoặc nói rộng hơn hơn một chút, đó là cả cộng đồng công nghệ bắt đầu tin tưởng vào AI theo cách mà bạn chỉ định - ví dụ như giao quyền điều khiển máy tính để bàn cho một robot AI, hoặc thiết lập một Mac mini, giao phép cho nó quản lý email, lịch trình, tệp tin, và sau đó để nó một cách nào đó "tiếp quản cuộc sống" của bạn.


Sau đó OpenAI đã đưa người sáng lập Open Claw vào công ty. Vì vậy, liệu bạn có thể chia sẻ thêm về AI "giúp bạn quản lý cuộc sống"? Việc mời làm việc nhóm Open Claw, liệu sau lưng có ứng với một tầm nhìn như vậy không?


Greg Brockman:
Tôi muốn nói, điểm cốt lõi nhất của công nghệ này chính là: làm cho nó trở nên hữu ích như thế nào, mọi người muốn dùng nó như thế nào, tầm nhìn của thực thể thông minh là gì, nó sẽ đi vào cuộc sống của mọi người theo cách nào - những vấn đề này chính là những vấn đề khó khăn.


Và điều mà tôi thấy trong nhiều thế hệ tiến hóa công nghệ này là: những người thực sự muốn dấn thân sâu hơn, tràn đầy tò mò, và có khả năng tưởng tượng mạnh mẽ, điều này chính là một loại khả năng rất thực tế, và sẽ trở thành một loại khả năng ngày càng có giá trị trong nền kinh tế mới.


Người sáng lập Open Claw, Peter, trong tôi thấy anh ta chính là người như vậy, anh ta có trí tưởng tượng mạnh mẽ, cũng như có động lực sáng tạo mạnh mẽ. Vì vậy một phần, việc này liên quan đến một công nghệ cụ thể; nhưng từ một góc độ khác, nó không phải chỉ vấn đề kỹ thuật. Nó thực sự liên quan đến việc: chúng ta phải làm thế nào để nhúng những khả năng này vào cuộc sống của mọi người, tìm thấy nơi thực sự thuộc về của chúng.


Vì vậy, với một người làm công nghệ, điều này tất nhiên làm cho người ta phấn khích; nhưng với một người thật sự quan tâm đến cách chuyển giao giá trị thực cho người dùng, chúng tôi đang tập trung nhiều vào việc này, và đang đầu tư mạnh mẽ trong điều này.


Alex:
Gần đây bạn có một câu nói khá thú vị về vấn đề này. Bạn nói, khi bạn bắt đầu để những thực thể trí tuệ tự trị này làm việc thay bạn, bạn sẽ trở thành "CEO của một hạm đội gồm hàng ngàn thực thể trí tuệ", chúng sẽ hoàn thành mục tiêu, tầm nhìn và nhiệm vụ của bạn, trong khi bạn không còn bị lẫn vào chi tiết cụ thể về cách mọi vấn đề được giải quyết.


Nhưng bạn cũng nói rằng, theo một cách nào đó, cách làm việc mới này khiến người ta cảm thấy mình đang mất đi "sự nhạy bén đối với vấn đề".


Greg Brockman:
Vậy điều này liệu có phải là tốt không? Tôi nghĩ rằng, đó là một sự kết hợp giữa lợi ích và bất lợi.


Vì vậy, tôi nghĩ rằng điều chúng ta cần làm là, một khía cạnh là công nhận sức mạnh mà các công cụ này thực sự mang lại, và một khía cạnh khác là cố gắng giảm bớt nhược điểm mà chúng mang lại. Ví dụ, tăng cường sức mạnh của con người, cho phép con người có khả năng hành động mạnh mẽ hơn—nếu bạn có một tầm nhìn, có một điều muốn hoàn thành, bạn có thể triệu hồi một hạm đội trí tuệ nhân tạo hoàn toàn để thay bạn thực hiện, điều này chắc chắn rất mạnh mẽ.


Nhưng nếu bạn suy nghĩ về cách thế giới hoạt động, cuối cùng vẫn phải có một người phải chịu trách nhiệm. Giả sử bạn đang xây dựng một trang web, nhưng trí tuệ nhân tạo của bạn làm hỏng mọi thứ, va đập trực tiếp đến người dùng, thì nghiêm ngặt thì điều đó không phải lỗi của trí tuệ nhân tạo, mà là lỗi của bạn. Vì vậy bạn phải chú ý đến điều đó.


Tôi nghĩ, bất kỳ ai muốn thực sự sử dụng những công cụ này, phải nhận ra: tính chủ động của con người, trách nhiệm của con người, là một phần cốt lõi của toàn bộ hệ thống. Cách con người sử dụng trí tuệ nhân tạo, điều này chính là rất căn bản.


Vì vậy, điều quan trọng nhất đối với tôi là: với những người sử dụng những trí tuệ nhân tạo này—chúng tôi ở bên trong OpenAI cũng vậy—bạn không thể thoái trách nhiệm. Bạn không thể chỉ nói: "Trí tuệ nhân tạo sẽ tự làm mọi thứ tốt."


Alex:
Dĩ nhiên. Nhưng bạn vừa nói về "cảm thấy mất đi sự nhạy bén đối với vấn đề", điều đó hình như không liên quan gì đến "trách nhiệm" phải không?


Greg Brockman:
Đối với tôi, thì hai điều đó thực sự liên quan đến nhau. Bởi vì điểm chính ở đây là: nếu bạn là CEO, nhưng bạn quá xa lánh vấn đề—ví dụ như bạn đang dẫn dắt một nhóm, điều hành một công ty, nhưng đã mất đi cảm nhận của tình hình thực tế, thì thường sẽ không dẫn đến kết quả tốt. Vì vậy điều tôi muốn diễn đạt chỉ là: không phải là "cuối cùng con người sẽ không cần biết gì nữa" là một mục tiêu đáng theo đuổi.


Tất nhiên, một số chi tiết thực sự có thể an tâm để nhường lại. Giống như bạn thuê một thầu xây dựng để giúp bạn xây nhà, có rất nhiều chi tiết mà có lẽ bạn không cần phải tự mình theo dõi, vì bạn tin tưởng rằng đối phương sẽ xử lí tốt. Nhưng cuối cùng, nếu có vấn đề nào đó ở chi tiết quan trọng, bạn vẫn nên quan tâm, vẫn nên biết.


Vì vậy ở đây có một sự khác biệt rất quan trọng: bạn không thể chỉ mù quáng nói, "Tôi sẵn lòng mất đi sự nắm bắt về vấn đề". Ngược lại, chúng ta nên tích cực nói: tôi vẫn cần giữ lại sự nhận thức này, để thực sự hiểu rõ những điểm mạnh và yếu của hệ thống.


Khi bạn bắt đầu rút ra khỏi những giao dịch cấp thấp hơn, cơ hơn và cơ hơn, lý do bạn có thể làm được điều đó là vì bạn đã xây dựng niềm tin vào hệ thống này, xác nhận rằng nó thực sự sẽ làm tốt công việc.


Alex:
Về mô hình, tôi muốn hỏi thêm một câu hỏi cuối cùng. Bạn vừa đề cập đến một chặng đường phát triển mô hình nhất định: từ huấn luyện trước, đến điều chỉnh fein, sau đó đến học tăng cường, khiến nó giỏi hơn từng bước tiếp cận vấn đề và có thể thực hiện nhiệm vụ trên Internet.


Và hiện tại, chúng ta đã bước vào một giai đoạn như vậy: mô hình đã học cách sử dụng công cụ thông qua quá trình này. Nếu tôi không hiểu lầm, bước tiếp theo của con đường phát triển này sẽ là gì?


Greg Brockman:
Tôi nghĩ rằng, thế giới chúng ta đang sống trong đó là thế giới mà khả năng máy móc ngày càng sâu sắc, ngày càng mở rộng. Một phần trong đó tất nhiên liên quan đến việc sử dụng công cụ, nhưng đồng thời, chúng ta cũng cần phải thực sự làm cho "công cụ" chính mình tốt hơn. Ví dụ, nếu AI có thể thực hiện "thao tác máy tính", có thể sử dụng hệ thống máy tính để bàn như con người, thì trong nguyên tắc, nó đã có thể làm bất kỳ điều gì bạn có thể làm được.


Nhưng đồng thời, chúng ta cũng phải bổ sung rất nhiều thứ thuộc cơ sở hạ tầng cho máy móc. Ví dụ, trong môi trường doanh nghiệp, làm thế nào để xác thực danh tính và quản lý quyền hạn? Làm thế nào để theo dõi theo dõi và theo dõi hiệu quả? Để bắt kịp sự phát triển về khả năng cơ bản của mô hình, cần phải xây dựng ra nhiều công nghệ hỗ trợ.


Và theo hướng tổng thể, tôi nghĩ rằng bước tiếp theo sẽ bao gồm những thứ như "giao diện giọng nói rất tự nhiên". Nghĩa là, bạn có thể nói chuyện với máy tính một cách tự nhiên như hiện tại, nó có thể hiểu bạn thực sự, hoàn tất điều bạn cần nó làm, và cũng có thể đưa ra gợi ý giá trị.


Ví dụ, nó có thể tự động nhắc nhở bạn: cái gì đó mà bạn đang tiến hành bị nghẽn tại hiện tại, vấn đề xuất phát từ đây. Hoặc khi bạn thức dậy vào buổi sáng, nó có thể nói với bạn: Đây là bản tin hàng ngày của bạn, đêm qua các đại số thông minh của bạn đã tiến triển bao nhiêu công việc.


Có thể nó thậm chí đã điều hành một doanh nghiệp cho bạn — Tôi nghĩ rằng đây sẽ là một ứng dụng cực kỳ lớn của công nghệ này. Sự dân chủ hóa khởi nghiệp, chắc chắn sẽ xảy ra. Nó sẽ bảo bạn biết: Có vấn đề ở những nơi này; một khách hàng không hài lòng lúc này và anh ấy muốn nói chuyện với một người thật, bạn nên tự mình xử lý vấn đề. Những điều này sẽ xảy ra.


Sau đó, tôi nghĩ bước tiếp theo cũng bao gồm: giới hạn mà con người có thể thách thức, cũng sẽ tiếp tục được nâng cao bởi công nghệ này. Thực ra, chúng ta đã thấy đỉnh điểm của xu hướng này ngay bây giờ. Điều làm tôi hào hứng nhất, gần như có thể so sánh với nước cờ thứ 37 của AlphaGo — Nước cờ đó không bao giờ một con người sẽ đánh được, nó mang tính sáng tạo và đã thay đổi sự hiểu biết của nhiều người về trò chơi này.


Biến cố này sẽ xảy ra trong mọi lĩnh vực. Nó sẽ xảy ra trong khoa học, toán học, vật lý, hóa học; sẽ xảy ra trong khoa học vật liệu, sinh học, y học, phát hiện dược phẩm; thậm chí còn có thể xảy ra trong văn học, thơ ca, và nhiều lĩnh vực khác. Nó sẽ mở ra một không gian mới cho sáng tạo và tư duy con người mà chúng ta hiện nay vẫn chưa thể tưởng tượng.


Alex:
Nhưng nếu mô hình đã mạnh như bạn nói, tại sao điều này vẫn chưa xảy ra cho đến bây giờ?


Greg Brockman:
Tôi nghĩ rằng, có một sự "chênh lệch trễ đi" ở đây—nghĩa là khả năng thực sự của mô hình, và khoảng cách lớn giữa việc mọi người sử dụng nó như thế nào trong thực tế. Một mặt, sự hiểu biết của chúng ta về những gì thực sự "được cài đặt" trong mô hình, vẫn đang dần hình thành.


Vì vậy tôi nghĩ, ngay cả khi từ bây giờ công nghệ không tiếp tục tiến bộ nữa, thế giới vẫn sẽ trải qua một cuộc biến đổi lớn—một nền kinh tế do máy tính và trí tuệ nhân tạo thúc đẩy, vẫn sẽ đến.


Nhưng đồng thời, còn có một lý do khác: điều mà chúng ta giỏi nhất hiện nay, thực sự là huấn luyện mô hình trong những nhiệm vụ "có thể đo lường" đó. Vì vậy từ đầu, chúng ta bắt đầu từ bài toán toán học, bài toán lập trình, vì những nhiệm vụ này có cách xác minh rất rõ ràng: câu trả lời có đúng hay không, có thể phán đoán rất rõ ràng. Và trong thời gian qua, lý do mà chúng ta có thể dần dần đưa mô hình đến với những vấn đề "mở" hơn, cũng là nhờ việc mở rộng liên tục phạm vi của "những gì có thể được xác minh, đánh giá".


Trí tuệ nhân tạo chính nó cũng có thể giúp hoàn thiện việc này. Nếu trí tuệ nhân tạo đủ thông minh, đủ hiểu nhiệm vụ, bạn đưa cho nó một tiêu chuẩn đánh giá, nó sẽ dần dần học. Nhưng với một nhiệm vụ như viết sáng tạo, như "bài thơ này viết có tốt không", thì rất khó điểm xếp hạng.


Do đó, trong quá khứ, chúng ta thật sự gặp khó khăn khiến trí tuệ nhân tạo học từ cố gắng và phản hồi liên tục. Nhưng tất cả đang thay đổi, và chúng ta đã nhìn thấy rõ hơn con đường phía trước.


Alex:
Điều này thật thú vị. Peter Thiel đã từng nói một câu, ý là: Nếu bạn là người giỏi toán học, khi đứng trước những mô hình này, sốc mà bạn trải qua có thể lớn hơn so với "người giỏi văn". Thời còn học, bạn cũng là thành viên của Math Club. Bạn không lo lắng về điều này sao?


Greg Brockman:
Tôi nghĩ, con người luôn dễ nhận thấy những gì họ đã mất, chứ không phải thấy được những gì họ đã nhận được. Bởi vì chúng ta có một kinh nghiệm sâu sắc về "tôi trước đây đã làm điều này như thế nào". Ví dụ như trước đây tôi tham gia các cuộc thi toán học, bây giờ trí tuệ nhân tạo cũng có thể tham gia các cuộc thi toán học. Nhưng vấn đề ở đây, việc này không phải là vấn đề thực sự của việc "cuộc thi toán học", phải không? Đó không phải là điều cốt lõi của việc thúc đẩy con người phát triển lên.


Nếu bạn nhìn vào cách làm việc hiện tại của chúng ta — ngồi trước một chiếc hộp, gõ phím vào một chiếc hộp khác — một trăm năm trước, chúng ta không sống như thế này. Điều này không phải là trạng thái tự nhiên, cũng không phải là bản chất thực sự của thế giới kỹ thuật số mà chúng ta đã bị cuốn vào.


Đó không phải là phần cốt lõi của việc "làm người". Điều quan trọng thực sự là sự hiện diện, là sống trong hiện tại, là thiết lập kết nối với người khác.


Và tôi nghĩ rằng, điều chúng ta sắp thấy là: Trí tuệ Nhân tạo sẽ giải phóng ra rất nhiều thời gian, cho phép con người có nhiều cơ hội hơn để củng cố kết nối với nhau, để xây dựng nhiều mối liên kết con người với con người hơn.


Điều đó khiến tôi rất hào hứng.


Alex:
Được. Khi mọi người dần chuyển sang các kịch bản ứng dụng có tính năng agent mạnh hơn, bên ngoài bắt đầu thảo luận về một điều: Liệu trong tương lai, còn cần phải tiếp tục thực hiện các nhiệm vụ huấn luyện lớn như vậy không?


Đặc biệt, khi mô hình đã đủ tốt, bạn dường như có thể cho nó tiếp tục vào thế giới thực trực tiếp, sau đó trong nhiều phần không phụ thuộc vào việc được huấn luyện trước, có được một phần lớn cải thiện. Và những thứ thực sự cần hỗ trợ từ trung tâm dữ liệu cỡ lớn, thực ra chủ yếu chỉ là huấn luyện trước.


Bạn luôn chịu trách nhiệm mở rộng quy mô, thúc đẩy vấn đề này. Bạn nhìn nhận như thế nào về lời nói này?


Greg Brockman:
Tôi nghĩ rằng, lời nói này bỏ qua một điểm rất quan trọng trong sự tiến hóa công nghệ. Thật sự, mỗi bước trong quy trình sản xuất mô hình sẽ cùng nhau tăng cường tác động của nhau. Vì vậy, bạn muốn tất cả các bước trở nên mạnh mẽ hơn.


Chúng ta thấy rằng: Ngay sau khi huấn luyện trước trở nên mạnh mẽ hơn, mỗi bước sau này đều dễ dàng hơn rất nhiều. Điều này thực sự có lý. Bởi vì khi mô hình ban đầu mạnh mẽ hơn, nó sẽ học nhanh hơn; khi thử nghiệm các cách tiếp cận khác nhau và học từ lỗi của mình, cũng vì nền tảng mạnh mẽ nên nó tiến triển nhanh hơn, mắc ít lỗi hơn.


Vì vậy, sự thay đổi thực sự lớn không phải là, chúng ta từ "huấn luyện một hệ thống hợp lý hoàn toàn đóng cửa, tự xây dựng" chuyển sang "chỉ để nó thử lỗi trong thế giới thực". Mà là chúng ta nhận ra, không chỉ cần phải làm cho mô hình trở nên lớn, mạnh mẽ hơn, mà còn cần để nó thử nghiệm các vấn đề, để hiểu người ta sử dụng nó như thế nào trong thế giới thực, và đưa các phản hồi sử dụng này trở lại vào quá trình huấn luyện. Nhưng điều này không làm giảm giá trị của việc tiếp tục thúc đẩy phần nghiên cứu đó, cũng không làm giảm tầm quan trọng của nó.


Tôi nghĩ còn một điểm thay đổi nữa là: Trong quá khứ, chúng ta chủ yếu tập trung vào việc nâng cao năng lực ban đầu ở giai đoạn huấn luyện trước, nhưng không chú trọng đến khả năng của giai đoạn suy luận.


Điều đó có nghĩa là, bạn có thể có một mô hình rất mạnh về khả năng cơ sở, nhưng nó cũng phải đủ hiệu quả khi thực thi và chạy thực tế. Bởi vì nếu bạn muốn thực sự triển khai Học tăng cường vào thế giới thực, điều này đều yêu cầu mô hình của bạn phải có hiệu suất thực thi rất mạnh mẽ.


Điều này cũng có nghĩa là, bạn không nhất thiết phải đẩy quy mô huấn luyện lên tối đa lí thuyết có thể đạt được, bởi vì bạn cũng phải xem xét đến các kịch bản sử dụng hàng loạt sau này.


Điều bạn thực sự muốn là: điểm tối ưu nhân tổng giữa trình độ thông minh và chi phí. Thay vì chỉ tối ưu hóa một chiều.


Alex:
Nếu trong tương lai chúng ta chuyển chủ yếu sang inference, liệu chúng ta có còn cần GPU của Nvidia không?


Greg Brockman:
Tất nhiên là chúng tôi vẫn cần rất nhiều.


Alex:
Tại sao vậy?


Greg Brockman:
Có nhiều lý do.


Trong đó một lý do là: Bất kể tỷ lệ giữa huấn luyện và thực thi thay đổi như thế nào, việc huấn luyện ở quy mô siêu lớn vẫn chỉ có thể được thực hiện thông qua việc tập trung một lượng lớn sức mạnh tính toán vào một vấn đề, và hiện tại không có phương pháp thay thế khác.


Vì vậy, tôi nghĩ sẽ có khả năng cao rằng trong tương lai: tỷ lệ sức mạnh tính toán ở phía triển khai sẽ tăng đáng kể; nhưng đồng thời, có những thời điểm, bạn sẽ phải thực hiện một vòng huấn luyện trước đặc biệt lớn, và lúc đó vẫn cần phải tập trung một lượng lớn sức mạnh tính toán.


Và tôi cũng nghĩ rằng, đội ngũ của Nvidia thực sự rất xuất sắc, công việc họ thực hiện thật tuyệt vời. Vì vậy, đúng vậy, chúng tôi đã hợp tác với họ rất chặt chẽ.


Alex:
Vậy có ngày, liệu có người sẽ nói: "Chúng ta đã huấn luyện đủ rồi, mô hình đã đủ thông minh rồi"?


Greg Brockman:
Tôi nghĩ, điều này giống như việc nói: "Chờ đến khi con người giải quyết hết tất cả vấn đề hiện tại, chúng ta có thể nói như vậy." Nhưng tôi nghĩ rằng, giới hạn của điều chúng ta muốn đạt được thực sự cao hơn nhiều.


Trong 50 năm qua, ở một mức độ nào đó, chúng ta đã rút lui khỏi ước vọng đối với nhiều mục tiêu. Ví dụ, có vẻ như một số vấn đề rõ ràng—liệu chúng ta có thể làm cho mọi người đều có bảo hiểm y tế không? Và không chỉ là "chữa trị khi có vấn đề", mà thực sự thực hiện y tế dự phòng, quan tâm đến lối sống, giúp đỡ mọi người sớm nhận biết nguy cơ tiềm ẩn trước khi bệnh phát sinh. Những vấn đề như vậy, tôi nghĩ rằng chúng ta có thể thực sự giải quyết được bằng cách sử dụng các mô hình thông minh hơn.


Tất nhiên, có thể tồn tại một cấp độ nào đó, ở cấp độ đó, vấn đề này đã được giải quyết hoàn toàn, lúc đó bạn có thể hỏi: Liệu tôi cần một mô hình thông minh gấp đôi không? Nhưng đồng thời, chắc chắn sẽ có những vấn đề khác đòi hỏi mức độ trí tuệ cao hơn.


Sức mạnh tính toán không phải là chi phí, mà là động cơ thu nhập


Alex:
Chúng ta hãy nói về con số đằng sau các trung tâm dữ liệu này. Trước đó trong năm, công ty của bạn đã huy động được 110 tỷ đô la. Toàn bộ con số này được tính ra từ đâu và khoản tiền này sẽ được đầu tư trực tiếp vào trung tâm dữ liệu hay làm thế nào để tương lai có thể trả lại khoản đầu tư này cho các nhà đầu tư? Hãy bàn về logic tính toán này.


Greg Brockman:
Tôi nghĩ, vấn đề này về bản chất rất đơn giản: Chi phí lớn nhất hiện tại mà chúng ta đang phải chi trả là sức mạnh tính toán. Nhưng bạn không thể coi sức mạnh tính toán chỉ là trung tâm chi phí, mà nó giống như trung tâm thu nhập.


Bạn có thể tưởng tượng nó như việc tuyển dụng đội ngũ bán hàng. Bạn sẵn lòng thuê bao nhiêu nhân viên bán hàng? Chỉ cần sản phẩm của bạn bán được, chỉ cần bạn có một cơ chế có thể tự động hóa việc bán hàng theo quy mô, thì số nhân viên bán hàng càng nhiều, thu nhập càng cao.


Và thế giới chúng ta đang sống trong đó, chúng ta liên tục phát hiện ra rằng, chúng ta hoàn toàn không thể xây dựng sức mạnh tính toán đủ nhanh để đáp ứng nhu cầu tăng trưởng. Điều này, tôi cảm nhận rất rõ ngay bây giờ. Chúng tôi phải đưa ra quyết định đau lòng: Chức năng nào có thể đi vào sản xuất, chức năng nào tạm thời không thể; ưu tiên sức mạnh tính toán đưa đến đâu, không đưa đến đâu.


Và tôi cho rằng, khi toàn bộ nền kinh tế chuyển hướng sang một nền kinh tế dựa trên trí tuệ nhân tạo, tình hình này sẽ xuất hiện ở một mức độ rộng lớn hơn.


Vấn đề thực sự trong tương lai sẽ trở thành: Vấn đề nào có thể nhận được sức mạnh tính toán khổng lồ đó? Bạn phải mở rộng như thế nào để mỗi người đều có một thực thể trí tuệ cá nhân của riêng mình? Làm thế nào để tất cả mọi người đều sử dụng hệ thống như Codex?


Trên thế giới ngày nay, hoàn toàn không có đủ sức mạnh tính toán để hỗ trợ những điều đó. Vì vậy chúng tôi đang chuẩn bị sẵn sàng cho vấn đề này.


Alex:
Nhưng cuối cùng đó cũng là một lĩnh vực hoàn toàn mới, phải không? Và bạn đang đặt cược bằng một loại xác suất rất mạnh mẽ - với một số tiền lớn đến mức gần như chưa từng thấy trên thế giới. Khi bạn đang tạo ra một lĩnh vực mới, bạn làm thế nào có thể chắc chắn nó sẽ cuối cùng thành công?


Greg Brockman:
Tôi nghĩ, có một số yếu tố cấu thành ở đây.


Đầu tiên, hiện tại thực sự đã có tiền lệ lịch sử. Ngay từ khi ChatGPT được phát hành, tôi nhớ mình và đội ngũ đã có một cuộc trò chuyện rất rõ ràng. Có người hỏi tôi: Chúng ta nên mua bao nhiêu sức mạnh tính toán? Tôi nói: Tất cả. Ai đó lại hỏi: Không phải, thực sự nói, chúng ta nên mua bao nhiêu? Tôi nói: Bất kể chúng ta xây dựng thế nào, tôi biết chúng ta không thể đáp ứng được yêu cầu.


Và từ đó, mỗi năm kế tiếp, sự thật đã được chứng minh. Vấn đề là, việc mua sức mạnh tính toán loại này thường phải được định trước 18 tháng, đôi khi là 24 tháng, hoặc thậm chí lâu hơn. Nghĩa là, trước khi máy móc thực sự được gửi đi, bạn phải đưa ra dự đoán trước. Điều này có nghĩa là bạn phải dự đoán trước rất mạnh mẽ.


Và thế giới chúng ta đang tiến đến là: cho đến nay, hầu hết doanh thu của chúng ta vẫn đến từ việc đăng ký của người tiêu dùng, mảng này sẽ vẫn rất quan trọng trong tương lai. Dĩ nhiên, chúng tôi cũng đang tạo ra các nguồn doanh thu khác.


Nhưng cơ hội lớn hơn hiện đang nổi lên là công việc tri thức.


Và điều này, chúng ta đã cụ thể thấy rồi: gần như mọi doanh nghiệp đều bắt đầu nhận ra rằng công nghệ này thực sự hữu ích, và nếu muốn duy trì sức cạnh tranh, họ phải bắt chước. Bạn có thể thấy động lực rất tự nhiên đó, đã có rất nhiều kỹ sư phần mềm đang sử dụng nó; và sau đó bây giờ bắt đầu có sự lan rộng rộng lớn hơn, người ta bắt đầu sử dụng nó trong nhiều tình huống công việc tri thức khác nhau bên trong doanh nghiệp. Và tính sẵn lòng trả tiền mà đã xuất hiện trong ngành này, cùng với sự tăng trưởng doanh thu mà bạn thấy, là rất rõ ràng.


Việc này đang diễn ra ngay bây giờ. Bạn chỉ cần tiến xa hơn về phía trước. Và có lẽ điều mà chúng tôi nhìn thấy nhiều hơn bên trong còn hơn bên ngoài là: chúng ta có thể nhìn thấy rõ hơn mô hình này sẽ tiến triển như thế nào tiếp theo.


Đặt tất cả những yếu tố này cùng nhau, bạn sẽ nhận ra: chính nền kinh tế này là một một cái gì đó vô cùng lớn lao, đến mức gần như khó tin. Và từ đây về sau, yếu tố cao nhất làm tăng trưởng nền kinh tế này sẽ là trí tuệ nhân tạo - bạn có thể tận dụng trí tuệ nhân tạo như thế nào tốt nhất, và bạn sở hữu bao nhiêu sức mạnh tính toán để thúc đẩy nó.


Alex:
Bạn vừa nói, hiện tại đăng ký của người tiêu dùng vẫn là nguồn doanh thu lớn nhất của bạn. Vậy liệu quyết định của bạn có phải là, trong tương lai điều này sẽ đảo ngược lại, doanh nghiệp sẽ trở thành nguồn doanh thu lớn nhất?


Greg Brockman:
Tôi nghĩ, bây giờ đã rất rõ rằng, "mặt doanh nghiệp" đang phát triển nhanh chóng. Tất nhiên, thuật ngữ "mặt doanh nghiệp" đang thay đổi. Bởi vì nó thực sự hướng tới là: mọi người sử dụng trí tuệ nhân tạo trong công việc tri thức sản xuất.


Và dưới góc nhìn về cách định giá, tôi nghĩ các phân loại không nhất thiết sẽ rõ ràng như trước đây. Ví dụ, cách sử dụng Codex hiện tại là: nếu bạn đã có đăng ký người tiêu dùng của ChatGPT, bạn thực sự đã có thể sử dụng Codex.


Vì vậy, tôi không nghĩ rằng trong tương lai sẽ có sự phân chia doanh nghiệp và người tiêu dùng rõ ràng như vậy. Trường hợp có thể xảy ra hơn là: như là người dùng, bạn sẽ có một cổng điện tử thống nhất - giống như chiếc laptop của bạn, đó là cánh cổng của bạn vào thế giới kỹ thuật số.


Và doanh thu thực sự, bản chất sẽ đến từ đây.


Alex:
Dario đã nói một câu mà tôi nghĩ rằng ông ấy có thể đang nói về các bạn: Một số người chơi đã đánh giá rủi ro quá cao, và ông ấy rất lo lắng về điều đó. Tôi nghĩ ông ấy đang ám chỉ đến việc các bạn đã đặt quá nhiều sự cược vào cơ sở hạ tầng của mình. Ông nghĩ sao về tuyên bố đó?


Greg Brockman:
Tôi không đồng ý. Tôi nghĩ rằng, chúng tôi luôn rất thận trọng, và chúng tôi thực sự thấy được điều gì sẽ xảy ra tiếp theo. Tôi nghĩ rằng, ngay cả chỉ trong năm nay, tất cả mọi người tham gia thật sự, đều sẽ cảm nhận được "hạn chế sức mạnh tính toán".


Và tôi nghĩ rằng, chúng tôi chỉ là những người nhận ra điều này sớm hơn so với người khác, bắt đầu chuẩn bị sẵn sàng cho việc công nghệ này sẽ phát triển ra sao.


Điều mà tôi thấy, thực tế là: Rất nhiều người khác có lẽ đã chỉ nhận ra điều này vào cuối năm ngoái, sau đó họ bắt đầu vội vã tìm kiếm sức mạnh tính toán; nhưng vào thời điểm đó thực sự chỉ còn rất ít sức mạnh tính toán có thể mua được.


Nên tôi nghĩ rằng, việc nói ra điều này rất dễ. Nhưng sự thật là, mọi người bây giờ đã nhận ra: Công nghệ này là khả thi, nó đã đến, nó là thật sự. Kỹ thuật phần mềm chỉ là một ví dụ rõ ràng đầu tiên mà thôi.


Và điều hạn chế chúng ta thực sự đang gặp phải, chính là khả năng tính toán có sẵn.


Alex:
Anh ấy cũng nói rằng, nếu dự đoán của anh ấy chỉ sai lệch một chút, công ty của anh ấy có thể phá sản. Các bạn cũng đối diện với rủi ro tương tự chứ?


Greg Brockman:
Tôi nghĩ, thực ra ở đây có nhiều "lối thoát". Nếu bạn bắt đầu thực sự nghiêm túc về tình huống giảm giá – và tôi nghĩ rằng đây hoàn toàn là một câu hỏi hợp lý – thì bạn sẽ nhận ra, một phần nào đó, cá cược này thực sự không phải là đặt vào một công ty cụ thể.


Nó thực sự đã cược lên cả ngành. Cược lên việc: Bạn có tin rằng, công nghệ này có thể được tạo ra, và có thể mang lại giá trị lớn mà chúng ta thấy được ngay trước mắt.


Tôi vẫn sẽ quay trở lại những điểm chứng trực tiếp nhất đó. Như là kỹ thuật phần mềm – nếu bạn không phải là kỹ sư phần mềm, không có thực sự sử dụng qua Codex, thì rất khó để hiểu được sự khác biệt trong trải nghiệm đó là gì. Sự khác biệt đó thực sự rất khó mô tả. Nhưng tôi nghĩ, mọi người sẽ nhanh chóng cảm nhận được.


Sáu tháng trước, trải nghiệm đó phần lớn chỉ xảy ra trong nội bộ của chúng tôi; sau đó, bên ngoài cũng bắt đầu có những điểm chứng rõ ràng. Và sau thêm sáu tháng nữa, tôi nghĩ mọi người sẽ cảm nhận được. Và đến lúc đó, tất cả chúng ta sẽ cảm nhận được một loại đau đầu khác: Có một mô hình tuyệt vời đã xuất hiện, nhưng bạn hoàn toàn không thể sử dụng nó, vì trên thế giới không có đủ sức mạnh tính toán.


Alex:
Có, nhưng khi chúng tôi thảo luận về dự đoán năm 2026 trong chương trình, vào cuối năm ngoái, Ranjan Roy cũng tham gia, anh ấy nói rằng năm 2026 sẽ là năm mà "mọi người đều sử dụng thực thể thông minh". Và phản ứng của tôi lúc đó là: chỉ khi tôi trực tiếp nhìn thấy và thực sự bắt đầu sử dụng thực thể thông minh, tôi mới tin được.


Greg Brockman:
Vậy bây giờ, chúng ta đã đến thời điểm đó chưa? Bạn giờ đây sẽ sử dụng nó cho mục đích gì?


Alex:
Tôi sẽ sử dụng nó để xây dựng một số công cụ nội bộ, giúp các đồng nghiệp làm việc cùng tôi đồng bộ hơn với việc video nào được đăng tải, cách làm hình thu nhỏ nên như thế nào v.v. Tôi cũng sẽ kết nối một số dữ liệu từ YouTube vào, từ đó chúng ta có thể phân tích sắp xếp video dựa trên các yếu tố như hình thu nhỏ. Đến một mức độ nào đó, đây là một bộ phần mềm mà tôi tùy chỉnh theo cách riêng của mình, và nếu theo cách truyền thống, tôi có khả năng cao là không bao giờ chi tiền để mua nó.


Tôi nghĩ điều này đúng là điểm thú vị hiện tại: phần mềm ban đầu là sản xuất theo quy mô đại trà, nhưng cũng chính vì vậy, trong đó luôn tồn tại nhiều điểm không phải là để phục vụ bạn. Và có lẽ sự thay đổi mà AI mang lại, chính là nó giúp chúng ta cuối cùng có thể tiếp xúc với phần mềm theo cách tự nhiên hơn.


Greg Brockman:
Tôi nghĩ đó chính là điểm chính. Và điều tôi luôn suy nghĩ lặp đi lặp lại là: cách chúng ta xây dựng máy tính hôm nay, thực sự đưa chúng ta vào một thế giới số.


Hãy nghĩ về bản thân bạn đã dành bao nhiêu thời gian trên điện thoại để liên tục lướt nội dung. Hãy nghĩ xem bạn đã dành bao nhiêu thời gian để không ngừng nhấn các nút, cố gắng kết nối hệ thống này với hệ thống khác - tại sao những việc này phải do chính bạn làm? Điều mà AI thực sự nên làm, là đưa máy móc gần hơn với bạn, làm cho nó phù hợp hơn với bạn, hiểu rõ hơn về những gì bạn muốn hoàn thành.


Trong văn hóa đại chúng của chúng ta luôn có sự tưởng tượng như vậy: bạn có thể nói chuyện trực tiếp với máy tính, sau đó nó sẽ thay bạn hoàn thành công việc. Và bây giờ, việc đó bắt đầu trở thành hiện thực, bắt đầu thực sự trở thành một điều mà bạn có thể thực hiện được. Và mức độ biến đổi này thực sự đáng ngạc nhiên, nhiều lúc bạn phải tự trải qua, mới thực sự hiểu được. Vì vậy, tôi thực sự cảm thấy, chúng ta đang ở một thời điểm rất đặc biệt.


Alex:
Vậy tôi muốn biết, tại sao cảm nhận công chúng về AI lại xấu đến vậy? Ví dụ, dữ liệu từ YouGov cho thấy, người Mỹ qui định rằng AI sẽ mang lại tác động tiêu cực cho xã hội, là ba lần số người nghĩ rằng nó sẽ mang lại tác động tích cực.


Bạn nghĩ nguyên nhân đằng sau là gì? Bạn có lo lắng về hình ảnh công chúng về AI không?


Greg Brockman:
Tôi nghĩ, có một điều chúng ta thực sự cần phải làm: làm cho mọi người trong đất nước này thấy rằng, trí tuệ nhân tạo (AI) mang lại lợi ích như thế nào cho họ. Và không chỉ là từ góc độ kinh tế tổng thể, không chỉ nói về việc nó sẽ thúc đẩy tăng trưởng GDP hay các từ ngữ lớn lao như vậy, mà là: nó cụ thể làm thế nào để cải thiện cuộc sống của họ.


Thực tế, mỗi ngày tôi đều nghe được nhiều câu chuyện cụ thể rất nhiều. Ví dụ, có một gia đình, đứa trẻ của họ luôn bị đau đầu, cũng như một số vấn đề sức khỏe khác, nhưng việc làm MRI luôn bị từ chối. Sau đó họ sử dụng ChatGPT để nghiên cứu các triệu chứng, nhận ra họ thực sự có thể dựa vào đó để đưa ra lý do yêu cầu mạnh mẽ hơn cho công ty bảo hiểm. Họ đã làm điều đó, kết quả là phát hiện ra rằng đứa trẻ thực sự có khối u ở trong não. Và chính vì họ đã tiếp cận được thông tin chính xác từ ChatGPT, cuối cùng cuộc sống của đứa trẻ được cứu vãn.


Đó chỉ là một câu chuyện. Và còn nhiều câu chuyện tương tự khác. Cuộc sống của người dân được cải thiện sâu sắc bởi công nghệ này, thậm chí cứu mạng họ. Điều chính ở đây là, họ thực sự đã thiết lập mối quan hệ hợp tác với công nghệ này trong thực tế.


Nhưng tôi nghĩ, các câu chuyện như vậy thực sự chưa được lan truyền đúng cách. Tôi nghĩ, điều này đang diễn ra trong cuộc sống của nhiều người, nhưng không hiểu vì lý do gì, nó vẫn chưa thực sự trở thành một câu chuyện phổ biến.


Tôi cũng nhận thấy, văn hóa đại chúng, đặc biệt là hệ thống tưởng tượng đến từ những năm 90 của thế kỷ trước, rất tiêu cực về AI, luôn nhấn mạnh về khả năng phát sinh vấn đề từ nó. Nhưng khi mọi người thực sự bắt đầu sử dụng AI, họ sẽ nhận ra rằng nó có giá trị thực tế, có ích.


Vì vậy, tôi thực sự rất quan tâm đến vấn đề này: chúng ta chưa thực sự thành công trong việc giúp mọi người hiểu rõ tại sao làn sóng công nghệ này sẽ cải thiện cuộc sống của họ, tại sao nó sẽ thúc đẩy mối liên kết chặt chẽ hơn giữa con người.


Vấn đề này trong tâm tưởng của tôi, là một trong những điểm chú ý rất quan trọng. Và nếu bạn nhìn xa hơn một chút, để thấy tại sao AI lại quan trọng đến vậy, tôi cảm thấy nó sẽ trở thành một nguồn lực kinh tế và an ninh quốc gia quan trọng trong tương lai. Nó sẽ liên quan đến sức cạnh tranh của một quốc gia. Và các quốc gia khác như Trung Quốc, hướng tiếp cận của họ trong lĩnh vực AI gần như hoàn toàn đối nghịch.


Vì vậy, đúng, tôi nghĩ vấn đề này rất quan trọng. Chúng ta phải đối mặt với nó, và cũng phải suy nghĩ thật kỹ, cách làm cho tất cả mọi người đều có thể chia sẻ được lợi ích mà công nghệ này mang lại.


Alex:
Nhưng hiện tại chúng ta cũng đang ở trong một giai đoạn rất không ổn định. Mọi người rất lo lắng về công việc. Mỗi khi tôi trò chuyện với người khác về AI, họ gần như luôn hỏi: Công việc của tôi còn an toàn được bao lâu?


Và sau đó nói về trung tâm dữ liệu, cảm nhận của công chúng đối với nó thậm chí còn tồi tệ hơn cả đối với AI chính nó. Bạn nhìn vào các cuộc thăm dò dư luận này sẽ thấy, có nhiều người tin rằng trung tâm dữ liệu sẽ có tác động tiêu cực đối với môi trường, chi phí năng lượng gia đình, và chất lượng cuộc sống của cư dân xung quanh hơn là tác động tích cực.


Vì vậy, chúng ta đang ở trong một thời điểm, nơi công việc tốt ngày càng khó tìm, và mọi người thấy trung tâm dữ liệu đến cộng đồng của họ, vì vậy họ cảm thấy rằng điều này không thân thiện với môi trường, cũng sẽ làm tăng chi phí năng lượng, và giảm chất lượng cuộc sống.


Là họ đã sai?


Greg Brockman:
Tôi nghĩ, xung quanh trung tâm dữ liệu, thực sự có rất nhiều thông tin sai lầm.


Một ví dụ điển hình là vấn đề sử dụng nước. Nếu bạn thực sự đến xem cơ sở của chúng tôi tại Abilene, đó là cơ sở máy tính siêu lớn nhất thế giới, hoặc ít nhất là một trong những cái lớn nhất, lượng nước mà nó sử dụng trong cả một năm thực tế chỉ bằng lượng nước mà một hộ gia đình thông thường sử dụng trong một năm. Nghĩa là, lượng nước thực sự rất ít ỏ.


Nhưng bên ngoài có rất nhiều thông tin sai lầm, khiến mọi người nghĩ rằng các trung tâm dữ liệu này sẽ tiêu tốn một lượng lớn tài nguyên nước.


Điện cũng là trường hợp tương tự. Chúng tôi đã cam kết sẽ tự chịu chi phí, không chuyển gánh nặng tăng giá điện lên người dân. Điều này rất quan trọng, hiện nay cả ngành cũng đều bắt đầu cam kết tương tự, vì cải thiện cộng đồng địa phương thực sự rất quan trọng. Khi xây dựng trung tâm dữ liệu, chúng tôi thực sự sẽ tham gia vào cộng đồng địa phương này, hiểu rõ những gì đang diễn ra địa phương, chúng tôi có thể làm gì để giúp đỡ địa phương. Trung tâm dữ liệu sẽ mang lại thuế thu nhập, cũng như tạo ra việc làm. Nó thực sự sẽ mang lại nhiều lợi ích.


Vì vậy, tôi nghĩ, điều chính là cách chúng ta xuất hiện, và điều này chính là trách nhiệm mà chúng tôi rất nghiêm túc.


Alex:
Được, nhưng nếu giá điện của người dân không tăng, thì bạn phải đưa điện vào, điều này có thể có nghĩa là ô nhiễm nhiều hơn. Điều này không phải là một vấn đề sao?


Greg Brockman:
Tôi nghĩ rằng, thực tế ở đây có rất nhiều tầng lớp phức tạp hơn.


Nếu bạn nhìn vào cách mà lưới điện hoạt động ngày nay, bạn sẽ thấy thực tế có rất nhiều "sức mạnh không hoạt động" - nghĩa là, rất nhiều điện năng ban đầu đã ở đó, nhưng không được sử dụng đúng cách. Cùng lúc đó, hệ thống truyền điện chính cần được nâng cấp. Và quan trọng ở đây là, chi phí nâng cấp này nên được chúng tôi tự chịu, chứ không phải người tiêu dùng trả, điều này rất quan trọng. Còn nhiều nơi có nguồn năng lượng sạch, nhưng thực tế điện năng này không được sử dụng một cách đủ, thậm chí ở một mức độ nào đó còn bị lãng phí.


Vì vậy, khi yêu cầu của trung tâm dữ liệu đến, thực tế sẽ tạo ra áp lực thực sự, thúc đẩy những hệ thống truyền điện lỗi thời, cũ hơn để nâng cấp. Và việc nâng cấp này, thực sự cũng sẽ mang lại lợi ích thực sự cho cộng đồng. Ví dụ, tại North Dakota, chúng tôi đã thấy rằng việc xây dựng trung tâm dữ liệu địa phương đã giúp cải thiện cơ sở hạ tầng tiện ích công cộng, kết quả là giá điện cho người dân đã giảm.


Alex:
Được, câu hỏi chính trị cuối cùng. Bạn đã đóng góp 25 triệu USD cho MAGA Inc., một ủy ban hành động chính trị ủng hộ Trump.


Greg Brockman:
Bạn đã thảo luận với Kara về vấn đề này trước đó.


Lưu ý: Kara Swisher, một nhà báo công nghệ nổi tiếng ở Mỹ, đã lâu báo cáo về thung lũng Silicon Valley và các công ty internet, nổi tiếng với cách đặt câu hỏi sắc bén và phong cách trực tiếp.


Alex:
Đúng. Bạn đã nói trước đó: "Tôi sẽ tham gia bất kỳ điều gì giúp công nghệ này thực sự lan rộng cho mọi người." Nếu điều này khiến bạn trở thành một "cử tri đơn vấn đề" hoặc "người đóng góp đơn vấn đề," thì cũng không sao. Nhưng điều tôi luôn tự hỏi là: đối với phe "đơn vấn đề" như vậy, cuối cùng, liệu rằng không phải "làm cho đất nước mạnh mẽ hơn" chính là ngôi sao Bắc cực của mọi hành động chính trị không?


Nghĩa là, ngay cả khi một ứng cử viên không hoàn toàn ủng hộ điều bạn đang làm, nhưng nếu ông ấy có thể làm cho đất nước mạnh mẽ hơn, liệu rằng đó cũng không nên trở thành một tiêu chí chính trị quan trọng? Nếu đúng như vậy, liệu rằng điều này có phải là một phần của quyết định đóng góp của bạn không?


Greg Brockman:
Tôi nghĩ như vậy: Việc đóng góp đó là quyết định của tôi và vợ tôi cùng thực hiện. Chúng tôi cũng đã đóng góp cho cả hai phe ủy ban hành động chính trị siêu lớn.


Tôi cho rằng, công nghệ này đến rất nhanh. Trong vài năm tới, nó thực sự sẽ thay đổi mọi thứ, trở thành nền tảng cơ bản của toàn bộ nền kinh tế. Nhưng hiện tại, nó vẫn chưa được chào đón. Vì vậy, chúng tôi rất muốn ủng hộ những nhà chính trị thực sự sẵn lòng om sòm công nghệ này, hiểu công nghệ này một cách nghiêm túc.


Tuy nhiên, ở một tầm nhìn lớn hơn, công nghệ này chính là việc nâng cao khả năng của đất nước chúng ta. Ở một khía cạnh nào đó, tôi thật sự là một "cử tri đơn vấn đề," bởi vì tôi cảm thấy đây là lĩnh vực tôi có thể đóng góp độc đáo nhất. Nhưng cuối cùng, điều này vẫn là cách thể hiện sự ủng hộ: như một quốc gia, chúng ta nên tự nguyện ôm trọn công nghệ này.


Khả năng cốt lõi trong tương lai: Không phải là sử dụng Trí tuệ Nhân tạo, mà là "quản lý Trí tuệ Nhân tạo"


Alex:
Nếu có một người sợ hãi AI ngồi trước mặt bạn vào lúc này, ông ta sẽ nghĩ rằng AI sẽ lấy mất công việc của tôi, phá hủy cộng đồng của tôi, và khiến thế giới thay đổi quá nhanh, bạn sẽ nói với ông ta điều gì?


Greg Brockman:
Điều tôi muốn nói nhất là: Hãy tự mình trải nghiệm những công cụ này. Bởi chỉ khi bạn thực sự trải nghiệm AI đã tồn tại ngay bây giờ, bạn mới thực sự hiểu, nó có thể làm gì cho bạn.


Tuy nhiên, hôm nay chúng ta đã thấy rất nhiều cơ hội, tiềm năng và khả năng của công nghệ này. Bạn vừa nói bạn có thể làm gì với nó, phải không? Người trước đây chưa từng làm website, bây giờ có thể tự làm website; nếu bạn muốn khởi nghiệp nhỏ, trước đây bạn có thể bị áp đặt bởi các quy trình nền, chi tiết vận hành, nhưng bây giờ AI có thể giúp bạn xử lý nhiều công việc như vậy.


Vì vậy, tôi nghĩ, đối với cuộc sống của bạn, bạn nên nghĩ: liệu nó có thể giúp bạn quản lý sức khỏe không? Có thể giúp bạn chăm sóc người thân không? Có thể giúp bạn kiếm tiền không? Có thể giúp bạn tiết kiệm tiền không? Tất cả này sẽ trở thành những lựa chọn thực tế.


Tôi nghĩ, con người thường dễ nhìn thấy "sự thay đổi sẽ như thế nào", nhưng không dễ nhìn thấy "mình sẽ được gì". Nhưng tôi nghĩ, đáng để bạn cơ hội công bằng, nghiêm túc hiểu rõ hai mặt của cái cân.


Alex:
Thêm một điều, đây cũng là một điểm mà ít được thảo luận trong cuộc khảo sát. Những người chỉ "nghe nói về AI" nhưng chưa bao giờ thực sự sử dụng, hoặc hiếm khi sử dụng AI, thường sẽ tiêu cực hơn. Nhưng một khi bạn trở thành người dùng nặng, thậm chí chỉ là người dùng thông thường, họ thường nhìn nhận tích cực hơn về công nghệ này.


Greg Brockman:
Đối với bản thân tôi, chúng tôi đã suy nghĩ về công nghệ này suốt nhiều năm. Và bây giờ cách mà tôi thấy sự thực triển khai, so với những gì chúng tôi từng tưởng tượng, còn tuyệt vời hơn, có lợi hơn và sẽ mang lại tác động tích cực hơn nhiều so với dự kiến của chúng tôi.


Alex:
Câu hỏi cuối cùng. Nếu ai đó hỏi bạn: "Tôi nên chuẩn bị như thế nào cho tương lai?" Bạn sẽ trả lời thế nào?


Và câu trả lời này không thể chỉ là "hãy sử dụng công cụ". Vì có thực sự bạn bè xung quanh tôi đến hỏi tôi: "Tôi không biết công việc của mình sẽ như thế nào, không biết thế giới này sẽ ra sao, tôi chỉ muốn biết bây giờ phải làm gì thôi."


Greg Brockman:
Tôi vẫn nghĩ, điều quan trọng nhất là hãy hiểu công nghệ này. Chúng tôi đã thấy, những người thực sự hứng thú và tiếp cận công nghệ này là những người thu được nhiều nhất từ công nghệ này. Họ sẽ thực sự đưa nó vào luồng làm việc của mình, sẽ cố gắng vượt qua rào cản ban đầu — đó là cảm giác mơ hồ "tôi nên dùng nó làm gì" khi đứng trước một ô nhập trống.


Bạn cần từ từ nuôi dưỡng một loại khả năng chu đáo: Tôi có thể làm người quản lý; Tôi có thể định hướng; Tôi có thể ủy nhiệm công việc; Tôi có thể giám sát. Và bạn cần thực sự phát triển khả năng này, vì nó sẽ trở thành một khả năng rất cơ bản.


Chúng tôi xây dựng công nghệ này, ban đầu để giúp con người, thúc đẩy kết nối giữa con người, để họ có thêm thời gian để làm những việc họ thực sự muốn. Vì vậy, cuối cùng câu hỏi sẽ trở thành: Bạn thực sự muốn gì? Và quan trọng là, suy nghĩ rõ điều đó và sử dụng công nghệ này để thực hiện nó.


Alex:
Đúng vậy. Rất cảm ơn bạn đã đến tham gia chương trình.


Greg Brockman:


Cảm ơn lời mời.


Alex:
Cũng cảm ơn mọi người đã lắng nghe và xem, chúng ta sẽ gặp lại trong tập tiếp theo của Big Technology Podcast.


[Liên kết video]



Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:

Nhóm Telegram đăng ký: https://t.me/theblockbeats

Nhóm Telegram thảo luận: https://t.me/BlockBeats_App

Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia

举报 Báo lỗi/Báo cáo
Chọn thư viện
Thêm mới thư viện
Hủy
Hoàn thành
Thêm mới thư viện
Chỉ mình tôi có thể nhìn thấy
Công khai
Lưu
Báo lỗi/Báo cáo
Gửi