Tiêu đề Video: Cung Cầu của Các Token AI | Phỏng Vấn Dylan Patel
Tác giả Video: Đầu Tư Như Nhà Đầu Tư
Dịch: Peggy, BlockBeats
Biên tập viên's Note: Trong bối cảnh năng lực mô hình AI liên tục cải thiện, việc triển khai quy mô lớn của các công cụ như Claude Code, Cursor vào doanh nghiệp, cuộc trao đổi trong ngành đang chuyển từ "mô hình mạnh đến đâu" sang "mô hình thế nào có thể được triển khai vào sản xuất". Tuy nhiên, khi lập trình AI, phân tích tự động hóa và mô hình dữ liệu dần trở thành sự đồng thuận mới, một vấn đề cấp dưới hơn đang tỏ rõ: khi chi phí thực thi giảm mạnh, điều thực sự khan hiếm là lao động, vốn, hay quyền sử dụng các mô hình và token tiên tiến?

Bên trái là người dẫn chương trình Patrick O'Shaughnessy, bên phải là Dylan Patel
Bài viết này tổng hợp từ cuộc trò chuyện giữa Patrick O'Shaughnessy và người sáng lập SemiAnalysis Dylan Patel. Dylan đã quan tâm lâu dài đến cơ sở hạ tầng AI, chuỗi cung ứng bán dẫn và kinh tế học mô hình. Trong cuộc trò chuyện này, anh ấy bắt đầu từ việc chi phí phát triển cao của công ty của mình, Claude Code, để thảo luận về cách mà AI đã thay đổi tổ chức doanh nghiệp, dịch vụ thông tin, nhu cầu token, chuỗi cung cấp sức mạnh tính toán và tâm lý xã hội.
Điều đáng chú ý nhất trong cuộc trò chuyện này không phải là một mô hình nào đó lại một lần nữa cải thiện benchmark, mà là cách nó cung cấp một cách hiểu về nền kinh tế AI - xem AI như một hệ thống sản xuất đang tái phân phối khả năng thực thi, hiệu suất tổ chức và lợi nhuận ngành công nghiệp, chứ không chỉ là một cụm công cụ phần mềm nâng cấp.
Cuộc trò chuyện này có thể được hiểu thông qua năm góc độ chính.
Thứ nhất, là chi phí thực thi bị tiêu biến. Trước đây, ý tưởng không hiếm, thách thức thực sự là biến ý tưởng đó thành sản phẩm, hệ thống và dịch vụ có thể giao hàng được. Bây giờ, Claude Code cho phép những người không chuyên công nghệ viết mã, xây dựng ứng dụng, thực hiện phân tích dữ liệu, công việc mà trước đây cần một nhóm để duy trì trong thời gian dài, bây giờ được thực hiện bởi một số người thông qua việc sử dụng mô hình. Chi phí hằng năm của Claude Code của SemiAnalysis đã đạt 7 triệu USD, vượt qua một phần tư chi phí lương của họ, điều này cho thấy rằng AI không còn chỉ là một công cụ tăng hiệu suất mà đang trở thành vốn sản xuất mới của doanh nghiệp.
Thứ hai, ngành dịch vụ thông tin đã được viết lại trước tiên. Doanh nghiệp mà Dylan đang làm việc cơ bản là bán phân tích, tư vấn và bộ dữ liệu, và đó chính là lĩnh vực dễ nhất bị AI hóa. Phân tích đảo ngược chip, mô hình lưới điện năng lượng, xây dựng chỉ số kinh tế tổng quan, những điều mà trước đây có thể cần một nhóm dành rất nhiều thời gian để thực hiện, giờ đây có thể được thực hiện bởi một số ít người trong vài tuần để tạo ra sản phẩm có thể sử dụng được. Điều này có nghĩa là, áp lực của AI đối với các công ty dịch vụ thông tin không phải là "AI sẽ thay thế con người" mà là "ai có thể làm lại sản phẩm của đối thủ nhanh hơn". Công ty không sử dụng AI sẽ bị các công ty làm việc nhanh hơn biến sản phẩm của mình thành hàng hóa, trong khi các công ty sử dụng AI cũng phải liên tục nâng cao tiêu chuẩn, tránh bị thế chỗ bởi bất kỳ đối thủ hiệu quả hơn tiếp theo.
Một cấp độ sâu hơn, token đang trở thành tài sản sản xuất mới. Trước đây, doanh nghiệp mua đăng ký phần mềm, vấn đề cốt lõi là xem công cụ có dễ sử dụng không; tuy nhiên, hiện tại, quyền truy cập vào các mô hình tiên tiến, rate limit, hợp đồng doanh nghiệp và ngân sách token, bắt đầu trực tiếp quyết định khả năng sản xuất. Mô hình mạnh mẽ không nhất thiết có nghĩa là tăng chi phí, vì token thông minh hơn có thể hoàn thành nhiều nhiệm vụ có giá trị cao hơn với ít bước hơn. Cuộc cạnh tranh thực sự đang diễn ra, từ "ai sử dụng AI" chuyển sang "ai có thể có được mô hình mạnh mẽ nhất và sử dụng token đắt tiền nhất trong các tình huống có giá trị cao nhất".
Nhu cầu này sẽ tiếp tục lan tỏa xuống toàn bộ chuỗi cung ứng. Số lượng token sử dụng bùng nổ, cuối cùng sẽ trở thành áp lực liên tục đối với vốn đầu tư vào GPU, CPU, bộ nhớ, FPGA, PCB, đồng dẫn, thiết bị bán dẫn và nhà máy chế tạo chip. Hiệu ứng "roi da bò" được đề cập trong bài đọc chính là logic này: nhu cầu gọi mô hình dưới luồng sản phẩm chỉ là một nhu cầu tăng lớn, nhưng khi truyền ra phía trên có thể biến thành đơn hàng, mở rộng sản xuất và tăng giá một cách nhân lên. Doanh nghiệp AI sẽ không chỉ dừng lại ở công ty mô hình và NVIDIA, mà sẽ tiếp tục tràn ngập xuống toàn bộ chuỗi cung ứng bán dẫn và trung tâm dữ liệu.
Cuối cùng, có thể sự phản kháng xã hội của AI có thể đến sớm hơn. Khi AI thực sự tích hợp vào quy trình làm việc, mức độ lo ngại của công chúng về việc thay thế công việc, tiêu thụ năng lượng, mở rộng trung tâm dữ liệu và tập trung quyền lực cũng sẽ tăng cùng một lúc. Dylan thậm chí dự đoán rằng, có thể sau ba tháng sẽ xuất hiện các cuộc biểu tình lớn chống lại AI. Đối với các công ty mô hình, việc tiếp tục nhấn mạnh rằng "AI sẽ thay đổi thế giới" không nhất thiết có thể giảm đi nỗi lo lắng, mà có thể tăng cường ảo tưởng của người dân thông thường về sự mất kiểm soát. Những gì ngành công nghiệp AI cần chứng minh tiếp theo, không chỉ là khả năng kỹ thuật, mà là cách nó tạo ra giá trị cộng đồng cụ thể và khả thi.
Ngày nay, vấn đề cốt lõi của AI, đã chuyển từ "mô hình có thể làm gì" sang "ai có thể có được mô hình, cách sử dụng mô hình và ai có thể thu được giá trị được tạo ra từ mô hình". Theo nghĩa này, đối tượng được thảo luận trong bài viết không còn chỉ là Claude Code, Anthropic hoặc một công ty AI nào đó, mà là một cải cách cấu trúc xung quanh năng suất lao động, vốn đầu tư, hiệu suất tổ chức và sự chấp nhận của xã hội.
Dưới đây là nội dung gốc (đã được chỉnh sửa để dễ hiểu hơn):
· Các biến số cốt lõi của Trí tuệ Nhân tạo đang chuyển từ "có thể làm được" sang "có đáng làm hay không", sau khi chi phí thực thi giảm đột ngột, thì điều thực sự khan hiếm là những ý tưởng có giá trị cao có thể được mở rộng bởi mô hình.
· Chi phí cho Claude Code chiếm 25% tổng chi phí tiền lương chỉ mới là bắt đầu, AI đang từ công cụ phần mềm trở thành vốn sản xuất mới của doanh nghiệp.
· Cuộc đua của các mô hình tiên tiến không còn chỉ là cuộc đua về khả năng nữa, mà là cuộc đua để có quyền truy xuất token; ai có thể sở hữu mô hình mạnh mẽ nhất sớm và ổn định nhất, người đó có thể tạo ra rào cản kinh doanh mới.
· Ngành dịch vụ thông tin sẽ là ngành được tái cấu trúc đầu tiên bởi AI, vì chi phí sản xuất dữ liệu, phân tích và nghiên cứu đang giảm nhanh chóng, các công ty chậm chân sẽ bị các công ty nhanh chóng hóa sản phẩm.
· Nhu cầu về token sẽ không giảm đi vì mô hình cũ giảm giá, vì mỗi lần mô hình trở nên mạnh mẽ hơn, sẽ phát sinh các trường hợp sử dụng mới có giá trị cao và thúc đẩy người dùng đến các mô hình tiên tiến đắt tiền hơn.
· Thay vì làm cho mọi người làm việc ít hơn, sức mạnh lớn nhất đem lại bởi AI là giúp một tỷ lệ nhỏ người hoàn thành công việc nhiều hơn trong cùng một thời gian; những người không thể tạo ra và chiếm giữ giá trị token sẽ bị kẹt ở "tầng hạ tầng vĩnh viễn".
· Sự khan hiếm về sức mạnh tính toán đang lan rộng ra toàn chuỗi cung ứng bán dẫn, từ GPU, CPU, bộ nhớ đến PCB, đồng thau và các nhà sản xuất thiết bị, nhu cầu của AI đã trở thành lực đẩy giá của toàn bộ chuỗi cung ứng ngành công nghiệp.
· Giá trị kinh tế của AI rất khó có thể được GDP truyền thống ghi nhận, vấn đề thực sự không phải là các công ty mô hình kiếm được bao nhiêu tiền, mà là quyết định được tạo ra, hiệu quả và ảnh hưởng chuỗi của token cuối cùng đã tạo ra bao nhiêu "GDP ma".
Patrick O'Shaughnessy (Người dẫn chương trình):
Bạn đã kể cho tôi nghe một câu chuyện tuyệt vời về đội của bạn đã trải qua sự thay đổi lớn về lượng token sử dụng trong năm nay. Bạn có thể kể lại lần nữa được không? Điều đó khiến bạn nhận ra điều gì về thế giới đang diễn ra?
Dylan Patel (Người sáng lập SemiAnalysis):
Năm ngoái, chúng tôi đã nghĩ rằng chúng tôi đã là người dùng nặng AI. Mọi người đều đang sử dụng ChatGPT, mọi người đều đang sử dụng Claude, tôi cũng đã cung cấp các gói đăng ký mà nhóm của mình muốn. Khoản chi của công ty vào lĩnh vực này khoảng vài chục nghìn đô la vào thời điểm đó.
Tuy nhiên, trong năm nay, chi phí bắt đầu tăng vọt. Điểm khởi đầu thực sự có lẽ là vào cuối tháng 12 năm ngoái, khi Opus xuất hiện. Điều đó bao gồm cả Doug, tức là Chủ tịch Douglas Lawler của chúng tôi. Ông ấy thực sự đã dẫn đầu việc thúc đẩy nhân viên không chuyên môn sử dụng trí tuệ nhân tạo để viết mã. Có thể nói rằng, ông ấy từng bước đưa cả công ty vào cuộc. Tất nhiên, các kỹ sư đã sử dụng từ trước, nhưng từ tháng 1 năm nay, chi phí của chúng tôi đã rõ rệt tăng lên, sau đó nhanh chóng bùng nổ.
Sau đó, chúng tôi đã ký hợp đồng doanh nghiệp với Anthropic. Lần trước khi tôi trò chuyện với bạn, chi phí hàng năm của chúng tôi là khoảng 5 triệu USD; giờ đây đã lên tới 7 triệu USD.
Patrick O'Shaughnessy:
Và đó chỉ là con số của tuần trước.
Dylan Patel:
Đúng vậy, một phần lớn trong số đó đến từ lượng sử dụng chính nó. Điều thực sự thú vị là, trước đây những người chưa bao giờ viết mã bây giờ cũng đang sử dụng Claude Code, và một số người có thể tiêu hết một vài nghìn đô la trong một ngày. Tuy nhiên, nhìn từ quan điểm tổng thể của công ty, chi phí hàng năm của chúng tôi trên Claude Code đã lên tới 7 triệu USD, trong khi chi phí lương khoảng 25 triệu USD. Nghĩa là, chi phí của Claude Code đã vượt qua 25% chi phí lương.
Nếu xu hướng này tiếp tục, đến cuối năm nay nó có thể vượt qua cả tổng chi phí lương. Điều này hơi đáng sợ. May mắn là, hiện tôi không cần phải chọn giữa "con người" và "trí tuệ nhân tạo", vì tốc độ tăng trưởng của công ty rất nhanh. Điều này giống như: Tôi không cần phải tuyển dụng nhanh chóng, nhưng có thể chi tiêu nhiều tiền hơn vào trí tuệ nhân tạo, và đó thực sự hiệu quả, giúp công ty phát triển nhanh hơn.
Nhưng tôi nghĩ, trong tương lai, các công ty khác cũng sẽ đối mặt với vấn đề này: Nếu một người có thể hoàn thành công việc của 5 người, 10 người, thậm chí là 15 người bằng Claude Code, thì sau này phải làm sao? Thứ nhất, có lẽ thực sự nên sa thải nhân sự; thứ hai, các tình huống sử dụng hiện tại rất đa dạng.
Ví dụ, chúng tôi có một phòng thí nghiệm đảo ngược tại Oregon, đã được xây dựng từ một năm trước. Trong phòng có nhiều thiết bị cao cấp như kính hiển vi, kính hiển vi điện tử quét. Mục đích chính của phòng thí nghiệm này là phân tích ngược chip, trích xuất kiến trúc chip, phân tích vật liệu được sử dụng trong quá trình sản xuất. Đó cũng là một trong những dữ liệu mà chúng tôi bán.
Nhưng việc phân tích loại dữ liệu này trước đây là một quá trình rất chậm. Bây giờ, trong đội ngũ của chúng tôi, có một người chỉ cần vài ngàn mã token Claude, đã tạo ra một ứng dụng. Ứng dụng này có thể được tăng tốc GPU, chạy trên máy chủ mà chúng tôi đặt tại CoreWeave. Chúng ta chỉ cần cung cấp một bức ảnh chip, nó sẽ tự động đánh dấu vị trí của mỗi loại vật liệu trên hình ảnh: Đây là đồng, đây là tantalum, đây là germanium, đây là cobalt. Sau đó, bạn có thể nhanh chóng tiến hành phân tích phần tử hữu hạn trên toàn bộ cấu trúc chip, và thậm chí là một giao diện trực quan, và có đồ thị và bảng điều khiển đầy đủ.
Người này trước đây đã làm việc tại Intel, anh ấy nói rằng, trong quá khứ, đây thực sự là một công việc mà một nhóm đầy đủ phải thực hiện và duy trì. Nhưng bây giờ, nếu nhìn vào toàn bộ công ty, điều này thật sự đáng kinh ngạc.
Một ví dụ khác mà tôi nghĩ rất thú vị đó là Malcolm. Anh ấy trước đây là một nhà kinh tế của một ngân hàng lớn. Bộ phận kinh tế học của ngân hàng đó có thể có 100 đến 200 người. Những gì anh ấy đang làm bây giờ thực sự là điều đáng kinh ngạc.
Anh ấy đã tích hợp nhiều loại dữ liệu, bao gồm dữ liệu từ FRED, báo cáo việc làm, cũng như các bộ dữ liệu khác từ các API khác nhau. Chúng tôi cũng đã ký hợp đồng với một số nhà cung cấp dữ liệu để có quyền truy cập API. Sau đó, anh ấy đã đưa tất cả dữ liệu vào và bắt đầu chạy hồi quy, phân tích tác động của các biến đổi kinh tế khác nhau đối với lạm phát hoặc suy giảm kinh tế.
Cục Thống kê Lao động Hoa Kỳ có một hệ thống phân loại công việc toàn diện, khoảng 2000 nhiệm vụ. Malcolm đã sử dụng trí tuệ nhân tạo để đánh giá: nhiệm vụ nào hiện tại có thể được thực hiện bởi trí tuệ nhân tạo, nhiệm vụ nào không, và sau đó đánh giá chúng theo một hệ thống rubric. Kết quả cho thấy, khoảng 3% nhiệm vụ hiện tại có thể được thực hiện bởi trí tuệ nhân tạo.
Vì vậy, anh ấy đã tạo ra một chỉ số để đo lường những điều mà trí tuệ nhân tạo có thể thực hiện, và khi những điều đó được trí tuệ nhân tạo thực hiện, tác động lạm phát sẽ như thế nào. Các sản phẩm có thể tăng lên, nhưng vì chi phí giảm mạnh, trong lý thuyết GDP có thể co lại. Anh ấy gọi điều này là "GDP Ma" (Phantom GDP).
Dựa vào khái niệm này, anh ấy đã thực hiện một loạt phân tích, và thiết lập một tiêu chuẩn mới về ngôn ngữ mô hình, bao gồm khoảng 2000 eval.
Patrick O'Shaughnessy:
Tất cả những điều này anh ấy tự làm à?
Dylan Patel:
Đúng, tất cả anh ấy tự làm. Anh ấy nói với tôi: "Bạn bè ơi, trước đây điều này phải là công việc một nhóm 200 nhà kinh tế thực hiện mất một năm." Anh ấy bây giờ hoàn toàn đắm chìm trong Claude, nói rằng mọi thứ đã thay đổi.
Patrick O'Shaughnessy:
Là một doanh nhân, bạn hiểu điều này như thế nào? Bạn đã từ một cái gì đó gần như không có chi phí này, chuyển sang cái mà giờ đây gần bằng 25% chi phí lương rồi và vẫn đang tăng. Đến một điểm nào đó, bạn có cảm thấy: Đợi chút, liệu tôi có nên giảm ga phanh không? Liệu tôi có nên kiểm soát chi phí không? Có lẽ chúng ta không cần luôn luôn sử dụng những mô hình tiên tiến nhất vừa được phát hành ngày hôm nay, như Opus 4.7 chẳng hạn, mà có thể chuyển sang mô hình rẻ hơn?
Dylan Patel:
Ở cơ bản, điều tôi làm là kinh doanh thông tin. Chúng tôi bán phân tích, tư vấn và tạo bộ dữ liệu. Tôi không thể nào nghĩ rằng những thứ này sẽ không được thương mại hóa hoàn toàn một cách khá nhanh chóng.
Nếu tôi không liên tục cải tiến, sản phẩm dữ liệu đầu tiên tôi bán, hiện đã có nhiều người khác bắt đầu làm công việc tương tự. Lý do chúng tôi vẫn có thể bán sản phẩm đó là vì chúng tôi liên tục làm cho nó tốt hơn, chi tiết hơn. Nhưng cách chúng tôi làm việc vào năm 2023, thực ra không có sự khác biệt lớn so với cách mà những người khác đang thực hiện ngay bây giờ. Nếu tôi không nâng cao tiêu chuẩn, tôi sẽ bị thương mại hóa. Nếu tôi không chậm chạp, tôi cũng sẽ mất ưu thế.
Vậy câu hỏi là: Đúng vậy, AI sẽ thương mại hóa nhiều thứ, giống như cách mà nó đang thương mại hóa phần mềm. Nhưng những người hành động nhanh nhất, nắm vững mối quan hệ khách hàng, liên tục cung cấp dịch vụ xuất sắc và không ngừng cải tiến dịch vụ của mình, họ sẽ không suy giảm, thay vào đó, họ sẽ phát triển mạnh mẽ hơn. Những người vô năng, không làm gì cả sẽ thua.
Vì vậy, thực ra điều này giống như một vấn đề tồn tại: Nếu tôi không áp dụng AI, người khác sẽ áp dụng, và sau đó họ sẽ đánh bại tôi.
Một ví dụ rất đơn giản khác là trong lĩnh vực năng lượng. Trong khoảng một năm qua, chúng tôi đã luôn có một số nhà phân tích năng lượng, cố gắng xây dựng một mô hình năng lượng. Mô hình này vô cùng phức tạp, và thị trường dịch vụ dữ liệu năng lượng có khảo có 9 tỷ đô la, vì vậy rõ ràng đó là một thị trường khổng lồ mà tôi rất muốn tham gia. Nhưng mặc dù nhóm của chúng tôi đã có người làm việc một năm, thực ra chúng tôi chưa thực sự bắt đầu kinh doanh dịch vụ dữ liệu năng lượng.
Rồi, "Bệnh tâm thần Claude Code" đã đến. Chúng tôi có một người phụ trách mảng năng lượng trung tâm dữ liệu và công nghiệp, tên là Jeremy. Sau khi Jeremy bắt đầu sử dụng Claude Code, tình hình đã thay đổi đột ngột. Trong vòng ba tuần, anh ấy đã tiêu rất nhiều tiền, mỗi ngày khoảng 6000 đô la, thực sự rất phóng túng. Nhưng anh ấy đã thu thập thông tin về mỗi nhà máy phát điện ở Mỹ, mỗi đường dây truyền tải vượt quá một mức điện áp nhất định, và xây dựng bản đồ toàn bộ lưới điện Mỹ từ các nguồn dữ liệu công khai, đồng thời kết nối nhiều dữ liệu từ phía người dùng.
Chúng tôi đã biến nó thành một bảng điều khiển, có thể xem và phân tích tình hình thiếu hụt và dư thừa điện năng của từng khu vực con ở Mỹ, cũng như nhiều chi tiết khác. Cái này đã được hoàn thành chỉ trong vài tuần.
Sau đó, chúng tôi đã trình diễn nó cho một số khách hàng đã mua bộ dữ liệu trung tâm dữ liệu của chúng tôi, trong đó cũng có những người giao dịch năng lượng. Sau khi họ xem xong, họ nói: "Wow, đã làm bao lâu rồi?" "Thật tuyệt vời, tốt hơn hẳn so với công ty XYZ kia." Rồi chúng tôi điều tra sâu hơn, phát hiện ra rằng công ty "XYZ kia" đó có 100 người, đã làm việc trên dự án này suốt mười năm.
Tất nhiên, sản phẩm hiện tại của chúng tôi vẫn chưa đầy đủ và ổn định như họ, nhưng ở một số khía cạnh, nó đã tốt hơn rồi. Vì vậy, hiện tôi đang tiến hành việc thương mại hóa các dịch vụ dữ liệu năng lượng này. Nhưng ngược lại, nếu tôi không chạy nhanh hơn, ai sẽ đến thương mại hóa tôi?
Vì vậy, từ góc nhìn của một doanh nhân, vấn đề không phải là "Tôi đã tiêu nhiều tiền hay không". Đúng, tôi thực sự đã tiêu nhiều tiền. Nhưng vấn đề là, số tiền đó mang lại cho tôi điều gì? Nó có mang lại thêm doanh thu không? Nếu câu trả lời là có, thì số tiền đó đáng giá.
Patrick O'Shaughnessy:
Bạn có lo lắng không, cuối cùng, những người kiểm soát vốn, người chịu trách nhiệm đầu tư vốn, tức những người thường thuê bạn vì những điều bạn làm sẽ nói: "Chúng tôi cũng có các nhà phân tích riêng của mình, và họ cũng rất thông minh, chúng tôi có thể tự làm chứ?" Nếu việc này trở nên dễ dàng như vậy, liệu tại một thời điểm nào đó, mọi thứ có thể trở về hoàn toàn nội bộ tổ chức đầu tư không? Cuối cùng, chúng có khả năng lớn nhất nhận được lợi ích lớn nhất từ dữ liệu và hiểu biết này.
Dylan Patel:
Đầu tiên, bất kỳ doanh nghiệp dịch vụ thông tin nào cũng đều vậy: Giá trị mà tôi thu được từ một dòng thông tin, rõ ràng không bằng giá trị mà khách hàng thu được từ dòng thông tin đó.
Nếu tôi bán thông tin cho bạn với giá 1 đô la, lý do bạn sẵn lòng trả 1 đô la để mua là vì bạn biết rằng dòng thông tin đó có thể giúp bạn đưa ra một quyết định, và quyết định đó có thể làm bạn kiếm được nhiều hơn 1 đô la. Nghĩa là, bạn đang có cơ hội thương mại. Số tiền bạn kiếm được từ tôi, nhiều hơn số tiền mà tôi kiếm được từ việc bán dòng thông tin đó.
Các quỹ đầu tư chứng khoán đương nhiên cũng có khả năng cung cấp dịch vụ thông tin của riêng họ. Đặc biệt là các cơ sở như Jane Street, Citadel với sự chuyên sâu về dữ liệu. Nhưng các cơ sở này vẫn mua dữ liệu của chúng tôi, và đang tiếp tục mua và hợp tác với chúng tôi vẫn đang tăng.
Tôi cảm thấy có yếu tố "it factor" ở đây. Chúng tôi hành động nhanh hơn, linh hoạt hơn, đội ngũ nhỏ hơn, và tập trung vào một lĩnh vực cụ thể: cơ sở hạ tầng AI, cũng như các biến đổi lớn mà nó mang lại, bao gồm AI, tokenomics và một loạt các ứng dụng liên quan. Chúng tôi có thể nhìn thấy hướng sớm hơn, cũng như có thể xây dựng nhanh hơn.
Vì vậy, các chuyên gia đầu tư chắc chắn sẽ cố tự làm một số công việc mà chúng tôi đang làm. Nhưng hơn nhiều lần, họ sẽ mua dữ liệu của chúng tôi và tiếp tục xây dựng trên nền tảng đó. Với họ, việc mua dữ liệu của chúng tôi và phát triển nó thường rẻ hơn việc tự mình xây dựng từ đầu. Tất nhiên, cuối cùng sẽ có người cố tự làm.
Patrick O'Shaughnessy:
Tôi cảm thấy mỗi khi trò chuyện với bạn, tôi luôn trở lại với một câu hỏi: cung và cầu của token. Hiện tại, điều làm tôi quan tâm nhất trên thế giới là vấn đề này. Kinh nghiệm của riêng bạn đã giúp bạn hiểu cầu hơn không? Sau khi bạn cảm nhận rõ ràng vấn đề này, liệu quan điểm của bạn về cầu token có thay đổi không?
Dylan Patel:
Nếu chúng ta điều lại một bước, ở góc độ tổng thể, ARR của Anthropic có thể đã tăng từ 90 tỷ USD lên khoảng 350 tỷ đến 400 tỷ USD. Khi chương trình này được phát sóng, có thể đã lên tới 400 tỷ đến 450 tỷ USD.
Nhưng sức mạnh tính toán của họ không tăng tương xứng. Nếu bạn tính lại và giả định họ không giảm sức mạnh tính toán nghiên cứu - rõ ràng họ không giảm, vì họ vẫn đang phát hành các mô hình mới như Metis, Opus 4, Opus 4.7 - điều đó có nghĩa là một điều: sức mạnh tính toán mới, ngay cả khi nó được toàn bộ dành cho suy luận, mức lợi nhuận gộp tối thiểu của họ đang ở mức khoảng 72%.
Trong thực tế, một phần của sức mạnh tính toán mới có thể đã vào nghiên cứu, vì vậy tỷ suất lợi nhuận thực tế của họ có thể cao hơn 72%. Hãy nhớ rằng đầu năm nay có người tiết lộ một phần thông tin tài chính của họ, khi ấy tỷ suất lợi nhuận chỉ khoảng hơn 30%.
Một doanh nghiệp làm thế nào mà trong thời gian ngắn có thể nâng cao tỷ suất lợi nhuận đến mức này? Về nguyên tắc, đó là vì cầu quá cao. Họ có thể hạn chế việc sử dụng, giới hạn tốc độ và đủ loại hạn chế. Quan trọng thực sự là bạn cần có nhân viên quản lý khách hàng của Anthropic, cần có hợp đồng doanh nghiệp và có thể nhận được việc nâng cao giới hạn tốc độ bạn cần. Nếu không, token cuối cùng sẽ trở nên quý giá vô cùng.
Người nào có khả năng trả giá, người đó sẽ nhận được. Anthropic đối diện với cùng một vấn đề - tất nhiên, điều này không phải là vấn đề, chỉ là hiện thực của cách hoạt động của chủ nghĩa tư bản. Vâng, khách hàng có thể trả khoản phí token 400 tỷ USD hàng năm cho họ, nhưng giá trị mà những token này tạo ra tại khách hàng, vượt xa 400 tỷ USD.
Mỗi token tạo ra giá trị khác nhau đối với từng doanh nghiệp. Nhưng với mô hình ngày càng thông minh, điều quan trọng thực sự trở thành: ai có thể thu được những token thông minh nhất và sử dụng chúng vào việc có giá trị nhất.
Đơn giản, bạn phải quyết định: làm thế nào để sử dụng những token đó để phát triển kinh doanh, tạo ra giá trị. Rất nhiều người muốn token, cũng như tiêu thụ token. Nhưng những công ty khởi nghiệp SaaS thông thường tạo ra phần mềm với Claude tại San Francisco, có lẽ không tạo ra giá trị lớn. Vì vậy, cuối cùng, họ sẽ bị đẩy khỏi thị trường token.
Patrick O'Shaughnessy:
Tôi đã gặp tình huống này trên đường bay vào hôm nay. Ngay khi Opus 4.7 được phát hành, tôi ngay lập tức muốn sử dụng 4.7, và tôi muốn dùng ngay. Kết quả là tôi bị giới hạn băng thông, không thể sử dụng được. Thậm chí tôi không thể tưởng tượng quay lại sử dụng 4.6, mặc dù trong vài tuần vừa qua, tôi luôn hài lòng với 4.6, nó thực sự mạnh mẽ.
Bạn có ngạc nhiên khi thấy mọi người cứ cố chấp miệng muốn sử dụng mô hình đắt tiền nhất, tiên tiến nhất không?
Dylan Patel:
Hoàn toàn không ngạc nhiên. Một trong những kỷ niệm hài hước nhất của tôi trong một tháng rưỡi qua là khi tôi và bạn Leopold của tôi, gần như quỳ xuống trước mặt người đồng sáng lập của Anthropic, van xin anh cho quyền truy cập vào Metis.
Chúng tôi biết nó tồn tại, vì vậy chúng tôi nói: "Xin hãy để chúng tôi sử dụng một chút." Và sau đó anh ta nói: "Tôi không biết bạn đang nói gì."
Patrick O'Shaughnessy:
Khi bảng giá đó, hoặc khi thẻ đánh giá eval xuất hiện, phản ứng của bạn là gì?
Dylan Patel:
Thực ra trước khi ra khỏi vịnh, chúng tôi đã nghe đồn, chúng tôi đoán rằng nó sẽ rất mạnh mẽ. Nếu bạn xem báo cáo đánh giá, tất nhiên báo cáo đánh giá sẽ không ngừng thay đổi, nhưng Mephisto/Metis có thể là một bước nhảy lớn nhất về khả năng mô hình trong hai năm qua.
Tôi nghĩ điều này rất quan trọng: Nó mạnh mẽ đến mức mà Anthropic thậm chí không muốn phát hành hoàn toàn. Mặc dù họ đã công bố giá cả cho một số khách hàng và đã phát hành một cách chọn lọc, chẳng hạn như dành cho các tình huống liên quan đến an ninh mạng. Chi phí token của nó có thể tăng gấp 5 lần hoặc thậm chí gấp 10 lần, nhưng họ vẫn không muốn phát hành hoàn toàn vì lo lắng về tác động của nó trong thế giới thực.
Vì vậy những gì họ đang cung cấp cho chúng ta bây giờ, là một phiên bản tệ hơn, yếu hơn hơn, đó chính là Opus 4.7. Và họ đã nói rõ trên thẻ mô hình của họ: Thực ra, chúng tôi đã cố ý tinh chỉnh kém mô hình trong khả năng an ninh mạng. Không biết bạn có đọc phần đó chưa.
Vì vậy, điều tôi muốn nói là: Bất kể bạn là ai, chỉ cần bạn có vốn đủ, bạn nên mua theo dự định doanh nghiệp của Anthropic, trả tiền theo token, thay vì sử dụng các gói đăng ký thông thường. Bởi vì như vậy, bạn sẽ không bị giới hạn băng thông dễ dàng.
Và sau đó, bạn phải suy nghĩ kỹ: Làm sao để sử dụng những token đó vào những nhiệm vụ có giá trị cao nhất và kiếm tiền từ đó. Vì trong tinh thần, có lẽ sau một năm, hai năm, nhiều doanh nghiệp thực sự đều đang thực hiện cơ hội cơ cấu lại token. Token mạnh mẽ, nhưng điều quan trọng là bạn phải biết làm sao để chỉ đạo chúng.
Sau ba hoặc bốn năm nữa, mô hình chính nó có thể sẽ biết cách sử dụng token, làm thế nào để tạo ra giá trị tối đa.
Nếu bạn nhìn lại bất kỳ chỉ số chuẩn nào, bạn sẽ nhận thấy: chi phí để đạt được một cấp độ năng lực nào đó trong quá khứ là X, hiện tại có thể chỉ cần một phần trăm so với trước đây, thậm chí chỉ cần một phần nghìn. Ví dụ, khi DeepSeek đạt đến cấp độ năng lực của GPT-4, chi phí có thể là khoảng một phần sáu trăm của GPT-4. Sau đó, chi phí của mô hình cấp độ GPT-4 vẫn tiếp tục giảm.
Tất nhiên, hiện tại không ai thực sự quan tâm đến mô hình cấp độ GPT-4 nữa. Mọi người muốn những mô hình tiên tiến, vì chỉ có những mô hình tiên tiến mới có thể tạo ra những giá trị kinh tế thực sự. Tuy nhiên, mô hình cấp độ GPT-4 vẫn có thể được sử dụng trong một số tình huống, nhưng thường là trong các tình huống nhỏ hơn.
Vì vậy, điều thật sự thúc đẩy nhu cầu không phải là sự rẻ của khả năng cũ, mà là các trường hợp sử dụng mới liên tục xuất hiện. Hiện tại, bạn đang sử dụng mô hình cấp độ Opus 4.6 hoặc Opus 4.7. Một năm sau, nếu tôi muốn có khả năng mô hình với chất lượng tương đương như hôm nay, chi phí có thể chỉ là 70,000 đô la, có thể rẻ hơn 100 lần.
Nhưng điều này không quan trọng. Bởi vì đến lúc đó, tôi chắc chắn sẽ sử dụng một mô hình mạnh mẽ hơn, để thực hiện những công việc có giá trị hơn.
Metis của Anthropic, mặc dù mô hình chính nó đắt hơn, nhưng nó tiêu tốn ít token hơn để thực hiện cùng một nhiệm vụ. Vì vậy, trong hầu hết các trường hợp, nó thực tế cũng rẻ hơn Opus 4.6.
Dylan Patel:
Vì hiệu quả của nó cao hơn nhiều. Ngay cả khi mỗi token có vẻ "thông minh" hơn và đắt hơn, số lượng token cần thiết để hoàn thành một nhiệm vụ lại ít hơn.
Patrick O'Shaughnessy:
Lần cuối gặp bạn, Metis có thể vừa mới phát hành, hoặc thậm chí thẻ mô hình vừa ra mắt. Bạn đã nói, nó mạnh đến mức khiến bạn có chút sợ hãi. Ý nghĩa của câu nói của bạn là gì?
Dylan Patel:
Mục tiêu của Anthropic vào năm 2025, thậm chí bắt đầu từ năm 2024, là: vào cuối năm 2025, họ hy vọng rằng trong mô hình sẽ có một kỹ sư phần mềm cấp độ L4. Nói chung, họ đã đạt được điều này với Opus 4.6.
Nhưng điều họ không nói đến là, nếu bạn nhìn vào Metis, và so sánh với các chỉ số chuẩn, nó trông giống như một kỹ sư cấp độ L6. L4 có thể là một kỹ sư phần mềm tương đối cơ bản, trong khi L6 đã là một kỹ sư có kinh nghiệm khá nhiều.
Tôi nhớ Anthropic đã nói rằng mô hình này nội bộ có thể sử dụng từ khoảng tháng 2. Nghĩa là, trong vòng hai tháng, họ đã từ kỹ sư cấp L4 thăng chức lên thành kỹ sư cấp L6. Vậy tiếp theo sẽ xảy ra gì?
Khi bạn suy nghĩ về sự tiến bộ của mô hình, bạn sẽ thấy rằng nó thực sự đang tăng tốc. Tần suất phát hành của Anthropic đang được rút ngắn, tần suất phát hành của OpenAI cũng đang được rút ngắn. Tại sao? Bởi vì thông thường, để tạo ra mô hình tốt hơn, bạn cần một số thứ.
Đầu tiên, bạn cần có sức mạnh tính toán mạnh mẽ. Sức mạnh tính toán rất đắt đỏ, và có độ dài thời gian riêng của nó. Chúng tôi sẽ theo dõi những thứ này, chúng thực sự đang tăng lên, nhưng trong tương lai gần, chúng khá là cố định. Sức mạnh tính toán mà bạn đã kí hợp đồng, chủ yếu đã cố định. Tất nhiên, có thể sẽ có sự trễ chậm và điều chỉnh, có thể sẽ cố gắng hơn một chút, nhưng tổng thể là khá cố định.
Thứ hai, bạn cần những nhà nghiên cứu rất xuất sắc. Hiện nay các công ty sẵn lòng trả hàng chục triệu đô la cho những người này.
Cuối cùng, là khả năng thực hiện. Suốt lịch sử, việc thực hiện luôn rất khó khăn. Nếu tôi có một ý tưởng, tôi phải thực hiện nó, và việc thực hiện là rất khó khăn. Nhưng hiện nay, ý tưởng đầy rẫy, việc thực hiện trở nên rất dễ dàng. Nó đắt nhưng rất dễ dàng.
Vì vậy câu hỏi trở thành: Một người phải làm thế nào để quyết định thực hiện ý tưởng nào? Kết quả là, khi việc thực hiện trở nên quá dễ dàng, bạn có thể thực hiện nhiều ý tưởng hơn, chạy nhanh hơn trên chiếc máy chạy này.
Điều này có thể xảy ra trong nghiên cứu mô hình AI, nên tần suất phát hành mô hình đã giảm từ sáu tháng trước đây xuống còn hai tháng. Nó cũng có thể xảy ra trong các lĩnh vực khác. Ví dụ, tôi muốn mô phỏng mọi nhà máy điện ở Mỹ, mỗi đường dây truyền điện, chạy hồi quy, phân tích cung cầu tại cấp độ siêu nhỏ — bây giờ tôi cũng có thể làm.
Ý tưởng chính bản thân rẻ tiền. Vấn đề quan trọng là ý tưởng nào có ý nghĩa? Ý tưởng nào đáng mua token, đầu tư vốn để thực hiện nó? Bởi vì khả năng thực hiện đã có sẵn. Đó là sự thay đổi quan trọng nhất.
Nếu chi phí thực hiện tiếp tục giảm — và nó thực sự đang giảm — chúng ta thậm chí chưa thật sự có Metis. Phiên bản Opus 4.7 mới được phát hành vài giờ trước, nhưng cả trong nhóm của chúng tôi đều rất hào hứng.
Tiếp theo, điều này sẽ mang lại điều gì cho thế giới? Tôi nghĩ nó sẽ sắp xếp lại cách hoạt động kinh tế.
Trước đây, thực thi rất quan trọng, vì thực hiện khó; ý tưởng thì rẻ tiền. Bây giờ, ý tưởng không chỉ rẻ, mà còn phong phú, nhưng thực hiện cũng trở nên rất dễ dàng. Do đó, điều thực sự đáng làm, chỉ còn lại những ý tưởng đủ tốt — chúng có thể chứng minh rằng, ngay cả khi việc thực hiện rất rẻ tiền, bạn vẫn xứng đáng chi tiền cho nó.
Patrick O'Shaughnessy:
Vậy bạn có thực sự sợ hãi không? Hay nó chỉ mang đến một dạng không chắc chắn khó nắm bắt?
Dylan Patel:
Mức độ không chắc chắn chắc chắn tồn tại. Nhưng tôi thực sự cảm thấy như có một dạng sợ hãi. Vấn đề là xã hội sẽ tái cấu trúc như thế nào?
Khi bạn sống trong một thế giới nơi "khả năng thực hiện một điều gì đó" đã không còn quan trọng như trước, thì điều gì quan trọng? Quan trọng là, bạn có thể chọn được ý tưởng đúng cho trí tuệ nhân tạo, để nó thực hiện; bạn có thể tiếp cận ý tưởng đó, hoặc cái mà trí tuệ nhân tạo thực hiện; và bạn có thể huy động vốn cho hướng đó. Đó mới thực sự quan trọng.
Điều này cũng nối tiếp vấn đề trước: luôn sở hữu mô hình mới nhất rất quan trọng. Vậy ai có thể tiếp cận mô hình mới nhất?
Anthropic có một dự án, tôi biết nó không phải là Earwig, nhưng tôi thích gọi nó là Earwig một cách cố ý, để chọc ghẹo những người của Anthropic. Họ chỉ cung cấp Metis cho một số công ty, sử dụng trong tình huống an ninh mạng. Tôi nghĩ rằng điều này sẽ tiếp tục xảy ra: phạm vi triển khai của các mô hình sẽ ngày càng hẹp, và ngày càng không phải dành cho công chúng.
Lưu ý: Earwig ban đầu có nghĩa là "con dòi" hay "con sâu nhỏ", một loại côn trùng bé nhỏ. Tại đây, nó giống như một biệt danh mang tính châm biếm: một mặt, Earwig nghe giống như một loại côn trùng nào đó, mặt khác cũng gợi lên một chút liên tưởng đến việc "âm thầm lan truyền vào tai," "ảnh hưởng âm thầm đến người khác."
Tôi biết OpenAI, Anthropic và các công ty khác đều nói rằng, họ muốn mọi người đều sở hữu trí tuệ nhân tạo mạnh mẽ. Nhưng trí tuệ nhân tạo rất đắt đỏ. Ai sẽ chi trả hàng nghìn tỷ đô la cho cơ sở hạ tầng? Đó là những người giàu có và có khả năng xây dựng điều gì đó có ích từ trí tuệ nhân tạo.
Và, bạn cũng không muốn ai đó làm mờ mô hình của bạn, vì vậy bạn sẽ không tổ chức phát hành lớn. Bạn sẽ chỉ cung cấp nó cho một nhóm người ngày càng ít. Và sau đó, các khách hàng này cũng sẽ bắt đầu cạnh tranh với token.
Trừ khi Anthropic tăng giá mạnh. Họ hoàn toàn có thể làm giá Opus tăng gấp đôi, và tôi vẫn sẽ tiếp tục trả tiền. Tôi dám nói, phần lớn người dùng cũng sẽ tiếp tục trả tiền. Nhưng tôi nghĩ rằng, điều này thậm chí không thể giải quyết vấn đề về công suất lớn của họ.
Vì vậy vấn đề trở thành: chu trình này sẽ kết thúc ở đâu? Khi lượng sử dụng token, cũng như giá trị bổ sung mà những token này mang lại, ngày càng tập trung vào tay một số công ty ít ỏi, điều gì sẽ xảy ra?
Hiện tại tôi không có Metis. Nhưng ai có? Có các ngân hàng hàng đầu. Hiện tại họ có thể chỉ sử dụng nó trong lĩnh vực bảo mật mạng, nhưng tôi có thể tưởng tượng một thế giới: vì tôi có hợp đồng doanh nghiệp với Anthropic và vì nhân viên của Anthropic hơi thích tôi, họ có thể sẵn lòng cho chúng tôi quyền truy cập sớm hơn một chút, hoặc giới hạn tốc độ cao hơn một chút. Tất nhiên, tôi hi vọng điều đó sẽ xảy ra.
Sau đó, đối thủ của tôi không có quyền truy cập như vậy, và tôi có thể đánh bại họ.
Có thể xảy ra một tình huống khác. Ví dụ, Ken Griffin của Citadel, mạng lưới của ông ấy rất mạnh mẽ và ông ấy cũng rất giàu có. Ông ấy có thể đi đàm phán với OpenAI hoặc Anthropic, nói: "Tôi sẽ mua trước 100 tỷ đô la token mỗi năm. Mỗi khi bạn phát hành mô hình mới, tôi sẽ mua trước 100 tỷ đô la token đầu tiên, sau đó những người khác sẽ sử dụng tiếp."
Nếu điều đó xảy ra, ông ấy có thể đè bẹp tất cả mọi người trên thị trường.
Đó chỉ là một ví dụ. Nó cũng có thể xảy ra trong lĩnh vực bảo mật mạng, nơi Anthropic lo lắng rằng mô hình sẽ khiến việc xâm nhập vào hệ thống dễ dàng hơn. Nó cũng có thể xảy ra trong ngành dịch vụ thông tin như tôi, tôi sử dụng nó để đánh bại người khác.
Tôi nghĩ tầm ảnh hưởng của việc này rất lớn. Chúng ta không biết các mô hình này có thể làm gì. Anthropic không biết, OpenAI không biết, không ai biết. Cuối cùng, người dùng cuối cùng phải tự khám phá: những token này có thể được sử dụng ở đâu? Chúng có thể xây dựng điều gì? Họ có thể tưởng tượng ra điều gì?
Dẫn tới việc nâng cao năng suất một cách đáng kể, và cũng có mặt tích cực vô cùng đối với con người. Nhưng vấn đề là, tài nguyên và quyền sử dụng sẽ tập trung như thế nào?
Patrick O'Shaughnessy:
Hiện nay, số lượng token mà robot hoặc ngành robot áp dụng, so với các lĩnh vực khác, gần như không đáng kể. Ông nghĩ sao về điều đó? Liệu nó có thể trở thành đường cong cầu cần thứ hai không? Trong bán kính một dặm, mỗi ngày đều có các công ty khởi nghiệp robot mới xuất hiện, cố gắng tạo ra một số thứ thú vị.
Dylan Patel:
Có một khái niệm gọi là "singularity chỉ tồn tại ở mức phần mềm" (software-only singularity). Nghĩa là, thế giới có thể sẽ trải qua một trạng thái sóng nguyên dựa trên phần mềm trước tiên. Nhưng vấn đề là, phần lớn thế giới vẫn là vật lý. Bạn sẽ thấy, cuối cùng thế giới sẽ tổ chức xung quanh phần cứng, không chỉ là phần mềm. Vì vậy, tôi nghĩ, cái gọi là "singularity phần mềm" chỉ đơn giản là một giai đoạn ngắn ngủi, chứ không phải là trạng thái cuối cùng. Vì cuối cùng chúng ta sẽ phải bước vào thế giới vật lý.
Một khi phần mềm trở nên rất dễ, phần thực sự khó của robot là gì? Đó là lập trình, vi điều khiển, bộ thực thi, và kiểm soát tất cả những thứ đó. Điều này hiện nay rất khó.
Mô hình AI có một đặc điểm rất thú vị: hiệu suất học của chúng thực sự rất thấp. Chỉ vì chúng ta cung cấp cho chúng dữ liệu lớn, chúng mới học được điều gì đó và vượt qua con người ở một số khía cạnh.
Nhưng mô hình hiện tại của robot, chẳng hạn như VLA, nghĩa là Vision-Language-Action, mô hình về thị giác-ngôn ngữ-hành động, hiện đang rất hot, nhưng tôi nghĩ rằng có lẽ nó không phải là điều có thể được mở rộng mãi mãi. Chúng cần rất nhiều dữ liệu và chúng ta không thể mở rộng quy mô dữ liệu robot đủ nhanh.
Tương lai chắc chắn sẽ có một cách nào đó, để tiến hành huấn luyện trước mô hình robot ở quy mô lớn. Giống như con người, chúng ta liên tục nhìn thấy các loại dữ liệu trong đời. Điểm mạnh thực sự của con người là chúng ta rất "hiệu quả mẫu". Một ví dụ, hai ví dụ, chúng ta có thể học được.
Nếu áp dụng khả năng này vào robot, mọi thứ sẽ hoàn toàn khác. Một khi điểm mềm hóa này xuất hiện, việc triển khai trở nên rất rẻ, bất kỳ ai cũng có thể bắt đầu xây dựng những mô hình này. Tiếp đó, mọi người có thể bắt đầu xây dựng những chiếc robot thực sự hữu ích.
Vì vậy, tôi nghĩ rằng trong vòng từ 6 đến 18 tháng tới, chúng ta sẽ bắt đầu thấy sự bứt phá thực sự trong lĩnh vực robot. Khả năng then chốt là few-shot learning, nghĩa là học từ mẫu ít. Đến lúc đó, sẽ có một mô hình robot được huấn luyện trước tốt, sau đó bạn thuê hoặc mua một robot, cho nó thấy vài ví dụ, nó sẽ hoàn thành nhiệm vụ.
Bạn bảo nó chồng hai thứ này lên, nó sẽ thực hiện được. Bạn bảo nó: "Thứ này thực sự có thể giữ cân bằng." Nó sẽ bắt đầu thử và hoàn thành. Tin tôi, tôi đã làm đổ nhiều thứ rồi.
Vì vậy, tôi nghĩ rằng robot sẽ có khả năng học từ mẫu ít.
Hiện nay thực sự đã có rất nhiều công ty làm robot, một số là cho quảng cáo, một số là làm một số nhiệm vụ rất đơn giản. Nhưng tiếp theo sẽ trở nên rất chuyên môn. Chẳng hạn như robot đặc biệt dùng để xếp quần áo, hoặc hơn cụ thể, là robot đặc biệt dùng để làm sạch bảng. Có thể nó sẽ là dịch vụ cho thuê, hoặc có thể là một gói mô hình, bạn tải xuống lên robot tiêu chuẩn, nó sẽ thực hiện nhiệm vụ đó, sau đó bạn trả tiền theo lần sử dụng.
Dù sao, lĩnh vực sản phẩm vật lý sẽ tiếp tục chứng kiến sự tăng tốc độ lớn, và sẽ tạo ra tác động lạm phát. Và điều này cuối cùng sẽ tiếp tục thúc đẩy nhu cầu về token tăng mạnh. Vì vậy cá nhân tôi không nghĩ rằng nhu cầu về token sẽ giảm đi.
Patrick O'Shaughnessy:
Từ kết quả của Metis và cách nó được xây dựng, bạn đã học được điều gì mới về thế giới này không? Nói cách khác, nếu chúng ta phân rã từng phần của scaling laws, chẳng hạn như phần pre-training...
Dylan Patel:
Nó là một mô hình lớn hơn đáng kể so với các mô hình trước đó. 100 nghìn khối Blackwell tương đương với hàng trăm nghìn chip thế hệ trước. Tất nhiên, TPU và Triton có lịch phát hành riêng biệt, nên không thể so sánh trực tiếp. Nhưng cuối cùng, đúng, Metis là một mô hình rõ ràng lớn hơn. Nó chứng minh rằng scaling laws vẫn có hiệu quả. Mọi điều nó thể hiện đều cho thấy, xu hướng vẫn tiếp tục: đổ nhiều sức mạnh tính toán vào mô hình, mô hình sẽ trở nên tốt hơn.
Và trong quá trình đó, không chỉ là "nhiều sức mạnh tính toán làm cho mô hình tốt hơn". Đồng thời, chúng ta cũng đang liên tục cải thiện hiệu quả tính toán. Tất cả sức mạnh R&D đầu tư vào phòng thí nghiệm, cuối cùng đều biến thành một vấn đề: nếu tôi muốn một mô hình ở một cấp độ năng lực nào đó, mỗi 6 tháng, hoặc bây giờ mỗi 2 tháng, chi phí để đạt được năng lực này sẽ giảm đáng kể. Nhưng nếu tôi tăng tỷ lệ mô hình một lần nữa, vẫn có thể đạt được bước nhảy lớn về năng lực.
Vì vậy, đúng, nó chứng minh rằng điều này vẫn đang diễn ra. Google và Anthropic không phải là người dùng GPU nặng ở phía đào tạo. OpenAI sẽ tiếp tục tung ra thế hệ mô hình mới. Tôi nghĩ họ đang thực hiện một cách tiến triển theo cách tiếp cận từng bước hợp lý, có nguyên tắc hơn về scaling. Trong khi đó, lần này Anthropic đã thực hiện một bước nhảy vọng tại.
Trong năm nay, chúng ta sẽ chứng kiến những mô hình tốt hơn, và tốc độ phát hành sẽ càng nhanh hơn.
Patrick O'Shaughnessy:
Chúng ta đã trò chuyện rất lâu, nhưng hầu như không đề cập đến OpenAI. Điều này sẽ là một điều rất lạ trong quá khứ.
Dylan Patel:
Đây mới là điều thú vị. Hiện nay, nhiều người sẽ nói: Vậy Anthropic đã chiến thắng rồi, phải không? Họ đã có Metis từ tháng 2, nhưng thậm chí còn chưa phát hành vì họ cảm thấy không cần thiết. Sức mạnh tính toán của họ đã được bán hết, doanh thu tăng 100 tỷ USD mỗi tháng. Và hôm nay họ lại phát hành Opus 4.7, và tất cả điều này đã diễn ra trước khi OpenAI được đồn đoán phát hành Spud—The Information và các phương tiện truyền thông khác đã đề cập đến tin đồn này.
Vì vậy, dường như ở mặt trên, Anthropic đã dẫn trước rõ rệt, OpenAI dường như đã thua. Nhưng thú vị ở chỗ, Anthropic rõ ràng bị hạn chế về khả năng tính toán, tốc độ mở rộng của họ bị giới hạn. Dario trước đây đã tự hào nói rằng OpenAI đã quá mạnh tay trong việc đầu tư vào khả năng tính toán, trong khi việc mở rộng của Anthropic hợp lý hơn. Nhưng bây giờ có lẽ Anthropic có thể nghĩ: chúng tôi có lẽ nên có thêm khả năng tính toán từ trước.
OpenAI hoàn toàn có khả năng thanh toán những hóa đơn đó. Thực tế, họ đã huy động được một lượng lớn tiền để có thêm khả năng tính toán. Ngoài ra, họ trước đây đã tương đối mạnh mẽ, thậm chí có vẻ hơi "bất cần trách nhiệm" trong việc mở rộng, mua khả năng tính toán từ các công ty như Oracle, CoreWeave, SoftBank, Microsoft. Bây giờ họ cũng đã có Trainium từ Amazon.
Vì vậy, OpenAI đã thực hiện một hành động vô cùng điên rồ về khả năng tính toán, và họ cũng biết rằng họ cần thêm.
Thú vị ở chỗ, nếu chúng ta xem xét Opus 4.6, tạm thời bỏ qua việc mô hình càng ngày càng mạnh mẽ hơn, chỉ xem xét sự lan truyền của công nghệ này. Bạn và tôi có thể ngay lập tức sử dụng mô hình vào ngày phát hành đầu tiên, nhưng các doanh nghiệp khác cần thời gian. Mọi người cũng cần thời gian để học. Điều đó sẽ không đồng thời phát hiện "thời điểm thức tỉnh của Claude" tất cả mọi người. Vì vậy, đến cuối năm, giả sử một mô hình cấp độ Opus 4.6, toàn bộ nền kinh tế sẵn sàng chi 1000 tỷ đô la mỹ mỗi năm cho nó, tôi nghĩ điều đó không quá lạm dụng. Sau tất cả, hiện nay đã có 400 tỷ đô la mỹ được chi ra.
Patrick O'Shaughnessy:
Điều này về cơ bản chỉ là sự ngoại suy tuyến tính.
Dylan Patel:
Đúng, đây là sự ngoại suy tuyến tính, không phải là ngoại suy mũ. Để đạt được tăng trưởng mũ, bạn cần một mô hình tốt hơn. Nhưng Anthropic sẽ không có đủ khả năng tính toán để đáp ứng nhu cầu này. Vì vậy, giả sử OpenAI hoặc Google cũng nhanh chóng đạt được cấp độ khả năng này, ai đến sau cũng có thể đạt được.
Anthropic có lẽ có thể thu được 70% lợi nhuận gộp, nhưng nếu OpenAI tiếp theo đạt đến cùng một khả năng, ngay cả khi chỉ lấy 50% lợi nhuận gộp, họ cũng sẽ chấp nhận toàn bộ nhu cầu tăng trưởng này. Và họ khả năng cao cũng không có đủ khả năng tính toán để phục vụ tất cả người dùng. Vì vậy, có lẽ một mô hình như Metis này, nếu trên thế giới có đủ khả năng tính toán, có thể mang lại doanh thu 5000 tỷ đô la mỹ, thậm chí còn đáng kinh ngạc hơn. Thị trường đối với các token này quá mạnh mẽ, trong khi nguồn cung khả năng tính toán lại cực kỳ hạn hẹp.
Chúng ta đã thấy điều này từ cú hồi phục giá H100. Tuổi thọ của GPU cũng đang ngày càng tăng. Rõ ràng, ngay cả các phòng thí nghiệm cấp hai cũng sẽ bán hết token của họ, chưa kể đến các phòng thí nghiệm cấp một. Phòng thí nghiệm cấp một sẽ có tỷ suất lợi nhuận tốt hơn, nhưng phòng thí nghiệm cấp hai cũng sẽ bán hết, thậm chí có thể phòng thí nghiệm cấp ba cũng gần hết.
Giá trị kinh tế mạnh nhất mà mô hình có thể tạo ra đang tăng nhanh hơn so với khả năng cung cấp token cho mọi người từ cơ sở hạ tầng. Vì vậy, khoảng cách này sẽ tiếp tục mở rộng. Tỷ suất lợi nhuận của phòng thí nghiệm mô hình cũng sẽ tiếp tục tăng, cho đến khi chuỗi cung cấp phần cứng và chuỗi cung cấp cơ sở hạ tầng phản ứng lên: đợi chút, tại sao tôi không gia tăng tỷ suất lợi nhuận của mình một cách trực tiếp?
Patrick O'Shaughnessy:
Vậy bạn có thể nói, ý kiến của bạn về mặt nhu cầu ngày nay, đặc biệt là ví dụ của riêng SemiAnalysis, đang đạt đến một điểm bùng nổ hoàn toàn. Và nói rộng hơn, khi mọi người bắt đầu hiểu về "hội chứng trí tuệ nhân tạo" mà bạn nói, cảm nhận được khả năng của bản thân mình, cảm nhận rằng độ khó trong việc thực hiện gần như hoàn toàn biến mất, tôi cũng thực sự cảm thấy như vậy. Chỉ trong vài tuần, khoản chi của riêng tôi cho token đã tăng vọt.
Nghe có vẻ như một nhận định về mặt nhu cầu khá tốt. Vậy trên mặt nhu cầu, chúng ta còn sót lại điều gì không? Nếu bạn không sử dụng thêm token, bạn sẽ không bao giờ thoát khỏi "tầng đáy vĩnh viễn". Bạn có thể phân tích câu nói này được không?
Nghĩa là, hoặc bạn sử dụng nhiều token hơn và tạo ra giá trị kinh tế vượt trội thông qua những token đó; nhưng nhiều người hiện tại đang sử dụng một cách nhàm chán, lười biếng. Họ có thể nghĩ: "Vậy tôi sẽ chỉ làm việc một tiếng mỗi ngày sau này, không làm việc tám giờ, để trí tuệ nhân tạo thay tôi hoàn thành hầu hết công việc."
Dylan Patel:
Đó là một cách nhàm chán. Cách cool hơn là: Tôi vẫn làm việc tám giờ mỗi ngày, nhưng tôi hoàn thành tám lần công việc, có lẽ kiếm được năm lần tiền. Có khi không nhất thiết phải kiếm được năm lần, nhưng hướng đi nên là như vậy.
Tất nhiên, nếu bạn chỉ làm một công việc, thì điều đó khó khăn. Thật sự có người sẽ làm nhiều công việc cùng một lúc, cũng có người sẽ thành lập công ty, bắt đầu bán hàng. Trước khi tất cả mọi người đều sử dụng trí tuệ nhân tạo, nó trở thành tiêu chuẩn ngành, bạn phải nắm bắt giá trị kinh tế mà trí tuệ nhân tạo mang lại. Bởi vì ngay lúc này, nó vẫn chưa hoàn toàn trở thành tiêu chuẩn. Nếu bạn không sử dụng thêm token, không tạo ra giá trị từ những token đó và bắt kịp giá trị đó, bạn sẽ không thể thoát khỏi tầng đáy vĩnh viễn.
Thực tế, ở đây có ba vấn đề khác nhau: thứ nhất, sử dụng nhiều token hơn; thứ hai, tạo ra giá trị từ những token đó; thứ ba, nắm bắt giá trị từ giá trị bạn tạo ra bằng token. Nếu bạn không thể hoàn thành ba việc này, khi khả năng của mô hình tiếp tục tăng, và tài nguyên có thể tập trung hơn, bạn sẽ không bao giờ thoát khỏi tầng đáy vĩnh viễn.
Okay, chúng ta hãy nói về cung cấp. Vậy hiện tại đang xảy ra gì? Nếu đường cung tăng mạnh, thì để phục vụ tất cả các token này, toàn bộ đầu tàu cung đều đang có những biến đổi gì? Khi nhu cầu bùng nổ, mọi thứ từ phía cung đều đang tăng giá. Dù là NVIDIA GPU hay bất kỳ mảnh nào khác, giá cả đều đang tăng. Đồng thời, tuổi thọ của chúng cũng đang tăng.
Biểu đồ giá của H100 chính là như vậy. Trước đây, có người nghĩ rằng tuổi thọ hiệu quả của GPU không đến năm năm, điều này hoàn toàn là sai. Hiện tại, một số cụm Hopper từ ba bốn năm trước đang ký hợp đồng thêm ba hoặc bốn năm; một số cụm A100 cũng đang ký chữ ký cho những năm tới.
Vì vậy, rõ ràng tuổi thọ hiệu quả của GPU không phải là năm năm, có thể là bảy năm hoặc tám năm. Chúng tôi vẫn chưa biết, hãy chờ xem Hopper đến giai đoạn đó thực sự ra sao. Nhưng rõ ràng, đó không phải là năm năm. Đồng thời, khi gia hạn, giá cả cũng đang tăng.
Điều này có nghĩa là tỷ suất lợi nhuận của một cụm thực tế không phải là 35%, mà cao hơn. Tỷ suất lợi nhuận của đám mây đang mở rộng. Tỷ suất lợi nhuận từ phần cứng cũng rất lành mạnh, NVIDIA vẫn đang thu khoản lợi nhuận gộp khoảng 75% xấp xỉ. Nhìn xuống dưới thành nguồn cung, rõ ràng tỷ suất lợi nhuận từ mảnh nhớ đã tăng mạnh. Các mảnh sáng, vi mạch logic, v.v., cũng đang nhận được số tiền đặt cọc lớn, tỷ suất lợi nhuận đang từ từ tăng lên.
Quan trọng hơn, các công ty sản xuất chip như NVIDIA đang trả số tiền đặt cọc khổng lồ. Vì vậy, ngay cả khi tỷ suất lợi nhuận không tăng rõ rệt, chi phí vốn, lịch tài chính, hoặc tỷ lệ lợi nhuận vốn đầu tư, đều đang tăng lên.
Bạn có thể thấy điều này trên toàn bộ chuỗi cung. ASML đã bán hết hàng, nó cần Carl Zeiss sản xuất mở rộng nhanh hơn. Nhìn dọc theo chuỗi cung, mỗi mảnh đều đã hết hàng, tỷ suất lợi nhuận đang tăng; hoặc nhận được tiền đặt cọc, từ đó nâng cao tỷ lệ lợi nhuận vốn đầu tư, vì nó thực sự cần ít vốn đầu tư hơn.
Đây là một xu hướng nhất quán chạy dọc theo toàn bộ chuỗi cung. Ngay cả cả PCB cũng như vậy. Việc sản xuất PCB yêu cầu tấm đồng, mà tấm đồng cũng bán hết, người ta bắt đầu trả tiền đặt cọc cho tấm đồng.
Có thể nói, chỉ cần món đồ này còn "nhịp điệu", chỉ cần nó đang trong chuỗi cung và đã hết hàng, mọi người sẽ vây lấy để giành thêm nguồn cung gia tăng và tranh giành sớm nguồn cung trong những năm tới.
Dylan Patel:
Chuỗi cung thường phản ánh nhanh chóng. Nhưng lần này có một điểm đặc biệt: hiện nay chuỗi cung so với bất kỳ lúc nào trước đây đều phức tạp hơn, và những thứ chúng ta đang xây dựng cũng phức tạp hơn bất kỳ lúc nào trước đây, vì vậy chu kỳ giao hàng dài hơn. Không phải là nói rằng các ngành công nghiệp khác không từng có chu kỳ giao hàng 18 tháng, nhưng lần này, việc xây dựng nguồn cung mới chính yếu tồn tại cần và vài năm.
Bộ nhớ là như vậy. Khả năng sản xuất bộ nhớ chỉ có thể tăng lên một phần trăm hai chữ số mỗi năm, chẳng hạn như khoảng 20% hoặc 30%. NAND thậm chí còn thấp hơn, DRAM cao hơn một chút. Mặc dù tín hiệu cầu vào cuối năm 2025 đã rất mạnh mẽ, các công ty bộ nhớ đã bắt đầu phản ứng ngay lập tức, nhưng khả năng sản xuất thực sự mới sẽ không đến ngay lập tức.
Ngoài việc tăng từ 20% đến 30% hàng năm ban đầu, chúng cũng có thể vặn chặt khả năng sản xuất một chút nữa. Nhưng nguồn cung mới thực sự, sẽ không xuất hiện cho đến năm 2028. Sớm nhất có thể sẽ là cuối năm 2027, nhưng xác suất lớn sẽ là năm 2028. Điều này rất độc đáo. Ngay cả khi chúng muốn mở rộng sản xuất nhanh nhất có thể, nguồn cung cũng sẽ không đến ngay lập tức.
Kết quả là, giá bộ nhớ đã tăng vọt lên. Và tôi nói với bạn, đặc biệt là DRAM, giá có thể tăng ít nhất một lần, hai lần, thậm chí ba lần nữa.
Có người nói: "Câu chuyện về bộ nhớ đã được kể đi kể lại, mọi người đều hiểu rồi." Nhưng thực sự không phải vậy, các bạn chưa thực sự hiểu. Từ bây giờ, DRAM vẫn có thể tăng gấp đôi hoặc gấp ba lần, vì nhu cầu về khả năng sản xuất thực sự lớn như vậy. Chúng phải cướp khả năng sản xuất từ nơi khác. Và trong nền kinh tế tư bản, cách duy nhất để cướp khả năng sản xuất từ nơi khác là thông qua việc phá hủy một phần nhu cầu với giá cả cao hơn. Chúng ta không phải đang tham gia vào hệ thống phân phối, vì vậy điều này chắc chắn sẽ xảy ra. Tỷ suất lợi nhuận sẽ tiếp tục tăng lên.
Tôi nghĩ rằng việc sản xuất vi mạch logic cũng đang đối mặt với vấn đề lớn về khả năng sản xuất. TSMC vừa công bố báo cáo tài chính, họ luôn tăng dần chi phí vốn. Nhưng xây dựng một nhà máy mạch chỉ logic vẫn cần một khoảng thời gian khá dài. Họ đang cố gắng hết sức lấy thêm năng suất từ mỗi nhà máy hiện tại. Nhưng TSMC không tăng giá nhanh chóng, vì họ là "người tốt". Họ tăng giá một con số, chứ không phải tăng ba chữ số như các nhà sản xuất bộ nhớ.
Vì vậy, cuối cùng bạn sẽ thấy một thị trường như thế này: TSMC là một công ty tuyệt vời, nhưng họ thực sự có thể tìm ra tất cả giá trị không?
Tôi vừa nêu một số vấn đề, chẳng hạn như lá đồng cần thiết cho PCB, sợi thủy tinh, laser. Những thứ này là một chuỗi cung ứng mà mọi người hiểu tương đối, nhưng lại rất cụ thể, và hiện giờ chúng rất căng thẳng. Nhìn xa hơn, đến dây chuyền cung cấp thiết bị sản xuất mặt bằng bán dẫn, tôi vẫn nghĩ rằng thị trường vẫn đang đánh giá thấp quá nhiều sự quan trọng của nó.
Hướng dẫn vốn của TSMC trong năm nay là 560 tỷ đô la Mỹ. Dự báo của chúng tôi từ tháng 1 là 574 tỷ đô la Mỹ, và có thể sẽ tăng thêm một chút, vì chúng tôi nhìn thấy họ có cách tăng chi phí vốn thêm.
Nhưng điều mọi người chưa quan tâm thực sự là: Điều này có ý nghĩa gì cho năm sau? Và nó có ý nghĩa gì với năm sau nữa?
Kết quả là, ba năm sau, TSMC có thể tăng Chi phí vốn lên 100 tỷ USD. Có lẽ hai năm sau, tức là vào năm 2028, họ thực sự có thể tiêu 100 tỷ USD vào Chi phí vốn. Tôi nói đúng đấy, vào năm 2028, TSMC có thể tiêu 100 tỷ USD vào Chi phí vốn.
Rất nhiều người không thể tưởng tượng con số này. Nhưng điều đó có ý nghĩa gì đối với chuỗi cung ứng hàng hóa dịch vụ của họ? Đối với các công ty như Lam Research, Applied Materials, ASML, nó có ý nghĩa gì? Đối với chuỗi cung cấp hàng hóa dịch vụ hơn nữa, chẳng hạn như các công ty như MKS Instruments, nó có ý nghĩa gì?
Hiệu ứng Búa Tạ sẽ được mở rộng hơn nữa.
Lưu ý: Trong văn bản, thuật ngữ "Hiệu ứng Búa Tạ" đề cập đến hiệu ứng mở rộng trong chuỗi cung ứng. Cụ thể, nhu cầu về AI ở cấp độ dưới cùng chỉ dường như tăng mạnh về lượng mã thông báo, nhưng khi truyền đạt lên chuỗi cung ứng từ cấp độ trên cùng, nó sẽ được mở rộng qua từng tầng, cuối cùng trở thành sự mở rộng sản xuất, tăng giá và cạnh tranh về năng lực sản xuất.
Nếu TSMC thực sự muốn chi 100 tỷ USD vào Chi phí vốn vào năm 2028, và tôi tin rằng điều đó hoàn toàn có thể, rất nhiều người sẽ cảm thấy điều đó rất điên rồ, nhưng nó thực sự có thể xảy ra.
Patrick O'Shaughnessy:
Vậy các phần khác trong sinh thái chip thì sao? GPU luôn chiếm ưu thế tuyệt đối. Nhưng CPU, ASIC hoặc cái gì đó khác, có thể xuất hiện như một cơ hội và chướng ngại mới không? Ngoài vị thế thống trị của GPU của NVIDIA, còn những mảng nào đáng chú ý khác?
Dylan Patel:
Đúng vậy, dường như ASIC đang bắt đầu phát triển mạnh mẽ. Nhưng tôi muốn nhấn mạnh trước hết về chip AI còn lại. Chúng tôi đã tiến hành một dự án về FPGA và phát hiện rằng, mỗi thế hệ tiếp theo của cải thiện AI sẽ cần khoảng 120 FPGA. Điều này sẽ có ý nghĩa gì đối với tất cả các công ty FPGA?
Về mặt CPU cũng tương tự. Tất cả môi trường học tăng cường này, cộng thêm những mã "xà mũ" mà anh và em tạo ra — hiện nay tất cả đều chạy trên một phiên bản Vercel nào đó, một phiên bản AWS nào đó, hoặc một tài nguyên đám mây mà chúng ta khởi động ngẫu nhiên. Tất cả những điều này đều cần CPU. Vì vậy CPU hiện nay cũng đã hết hàng hoặc đang gặp nhu cầu tăng mạnh.
Patrick O'Shaughnessy:
Hãy giúp mọi người hiểu rõ hơn, CPU đóng vai trò gì trong toàn bộ hệ thống?
Dylan Patel:
Có hai lý do chính giải thích tại sao bạn cần một lượng CPU lớn.
Thứ nhất, đó là Học tăng cường. Khi thực hiện Học tăng cường, CPU rất quan trọng.
Trước đây, bạn có thể đưa toàn bộ dữ liệu trên Internet vào mô hình để huấn luyện, sau đó mô hình sẽ xuất ra một số kết quả. Bây giờ, bạn vẫn sẽ đưa dữ liệu trên Internet vào mô hình, nhưng sau đó bạn sẽ đưa mô hình vào một môi trường, nói với nó: 「Đến đây, hãy thử xem.」 Mô hình sẽ thử nghiệm nhiều thứ khác nhau. Cuối cùng, môi trường đó sẽ đánh giá xem kết quả thử nghiệm của nó có thành công hay không, và sẽ chấm điểm cho nó. Môi trường này có thể là bất cứ điều gì. Nó có thể rất đơn giản, ví dụ kiểm tra xem văn bản đầu ra có đúng định dạng không, hoặc xem định dạng đầu ra có đúng hay không. Nó cũng có thể rất phức tạp.
Bây giờ mọi người đã bắt đầu bước vào các tình huống rất phức tạp. Ví dụ: 「Tôi muốn bạn mở tập tin này, chỉnh sửa nó, sửa đổi nó, sau đó đưa lên một trang web nào đó.」 hoặc: 「Tôi muốn bạn mở phần mềm mô phỏng vật lý của Siemens, chỉnh sửa mô hình CAD này.」 Vì vậy, các môi trường này sẽ trở nên ngày càng phức tạp hơn. Và những môi trường này chạy trên CPU, không chạy trên GPU, cũng không chạy trên ASIC.
ASIC hoặc GPU chịu trách nhiệm cho việc chạy mô hình chính: nhận dữ liệu đầu vào từ môi trường, đưa nó vào mô hình, tạo ra các đường đi đầu ra khác nhau, đó chính là các cách mà mô hình nghĩ là có thể giải quyết vấn đề. Sau đó, những đường đi này sẽ được đánh giá và chấm điểm. Những đường đi thành công sẽ được sử dụng để tiếp tục huấn luyện mô hình, cập nhật mô hình và tiếp tục lặp lại quá trình. Vì vậy, đây là nơi mà CPU rất hữu ích.
Điểm thứ hai là triển khai.
Khi bạn có những mô hình mạnh mẽ này và triển khai chúng, mô hình sẽ tạo ra mã, tạo ra các đầu ra hữu ích. Nhưng các đầu ra này không phải trực tiếp từ GPU vào não người. Chúng sẽ đi từ GPU hoặc ASIC ra ngoài, vào một ứng dụng mà bạn triển khai, và ứng dụng đó thường chạy trên CPU.
Vì vậy, đây là một lĩnh vực mà yêu cầu rất lớn. CPU đã bán hết một cách lớn.
Patrick O'Shaughnessy:
Khi bạn tiếp tục đánh giá xu hướng cung cầu và cố gắng trở thành người hiểu rõ nhất thế giới về cả hai vấn đề, có những điều gì mà bạn hy vọng bạn sẽ biết, nhưng hiện tại vẫn chưa biết?
Dylan Patel:
Tôi nghĩ rằng đối với chúng tôi, cũng như với tất cả mọi người, phần khó hiểu nhất là tokenomics, nghĩa là kinh tế học của token. Chúng ta có cái nhìn tốt đẹp về việc cần bao nhiêu chi phí để vận hành cơ sở hạ tầng, giá trị của token là bao nhiêu, chi phí của mô hình là bao nhiêu, lợi nhuận của các phòng thí nghiệm đó là bao nhiêu, nhưng điều thực sự khó mô hình hóa là lượng sử dụng và tốc độ áp dụng.
Chúng tôi đã đưa ra một số dự đoán rất mạnh mẽ vào tháng 1 về tháng 2, và kết quả Anthropic đã vượt qua một cách dễ dàng. Vậy chúng ta nên hiệu chuẩn mô hình này như thế nào? Nên sử dụng nguồn dữ liệu nào? Đến tháng 2, chúng tôi đã lại đưa ra những giả định rất mạnh mẽ về tháng 3, và kết quả chúng cũng vượt qua. Khi mọi người nhìn thấy con số "Thêm 100 tỷ đô la doanh thu", phản ứng đều là: Tình hình là thế nào? Họ đã tăng thêm 100 tỷ đô la doanh thu như thế nào? Ai đang sử dụng những mã thông báo này? Tại sao họ phải sử dụng? Họ đang xây dựng cái gì với những mã thông báo này? Quan trọng hơn, cái họ xây dựng từ những mã thông báo này, đã lan rộng ra toàn bộ nền kinh tế như thế nào? Nó đã tạo ra giá trị bao nhiêu?
Điều này không phải là điều mà GDP thống kê có thể dễ dàng bắt lấy. Ví dụ, tất cả giá trị mà tôi tạo ra bằng mã thông báo, cuối cùng sẽ chuyển hóa thành thông tin tốt hơn. Sau đó, tôi bán thông tin này đi, và so với giá mà người khác bán thông tin trong quá khứ, tôi bán với giá thấp hơn.
Thông tin này sau đó bắt đầu lan tỏa vào toàn bộ hệ thống kinh tế, giúp mọi người đưa ra quyết định đầu tư tốt hơn hoặc quyết định cạnh tranh tốt hơn. Ví dụ như họ là công ty sản xuất bán dẫn, công ty trung tâm dữ liệu, hoặc hyperscaler, thì giá trị của những thông tin này là bao nhiêu? Nó ảnh hưởng đến nền kinh tế như thế nào?
Dưới góc nhìn của bất kỳ chỉ số chủ quan nào, điều này rõ ràng là đáng kinh ngạc. Nhưng vấn đề là, "GDP ma" ở đâu? GDP ma cuối cùng là gì? Chúng ta nên làm thế nào để theo dõi giá trị kinh tế thực sự?
Vì chỉ số GDP hiện tại không chính xác. Nếu bạn hỏi Dylan Patel tạo ra bao nhiêu GDP, con số đó sẽ rất nhỏ, không cân xứng với giá trị thực tế mà tôi nghĩ mình đã tạo ra.
Vậy cuối cùng câu hỏi là: những mã thông báo này đã tạo ra giá trị bao nhiêu? Không chỉ là xem xét doanh thu trực tiếp, mà là xem xét hiệu ứng dây chuyền mà chúng mang lại. Tất cả những việc mà chúng thực hiện, hiệu ứng sau này là gì?
Tôi nghĩ rằng đó mới là vấn đề thực sự, và cũng là thách thức khó khăn nhất để đánh giá. Tôi nghĩ rằng chúng ta nên mỗi ba tháng một lần thực hiện cuộc trò chuyện như vậy, vì tình hình biến đổi quá nhanh.
Patrick O'Shaughnessy:
Vậy bạn nghĩ sau này sẽ xảy ra điều gì? Ví dụ, sau ba tháng, tôi đến San Francisco và gặp bạn, bạn dự đoán sẽ thấy điều gì?
Dylan Patel:
Biểu tình quy mô lớn.
Patrick O'Shaughnessy
Biểu tình vì trí tuệ nhân tạo? Bạn có thể nói thêm về vấn đề này không?
Dylan Patel
Mọi người ghét trí tuệ nhân tạo. Hiện nay, trí tuệ nhân tạo thậm chí còn bị ghét hơn cả ICE, hơn cả chính trị gia. Tôi cũng không biết Pew đã thực hiện khảo sát như thế nào, nhưng rõ ràng trí tuệ nhân tạo bị ghét hơn cả chính trị gia.
Với việc Anthropic tăng thêm nhiều doanh thu như vậy, nó sẽ bắt đầu tạo ra những thay đổi thương mại ở dưới cấp độ. Mọi người sẽ ngày càng sợ hãi trí tuệ nhân tạo. Họ sẽ bắt đầu đổ lỗi trí tuệ nhân tạo cho nhiều vấn đề cá nhân của họ và nhiều vấn đề toàn cầu lâu dài đã tồn tại.
Những vấn đề này sẽ nổi lên và sau đó bị đổ lỗi cho trí tuệ nhân tạo. Có thể sẽ có một số chính trị gia hoặc những người trên mạng xã hội, những người có ảnh hưởng, bắt đầu sử dụng trí tuệ nhân tạo như một vũ khí để tấn công người khác.
Bạn hãy đọc một số bình luận dưới các bài báo. Nhà của Sam Altman bị ném hai lần chai xăng trong vòng hai tuần, và có người còn ủng hộ việc đó trong phần bình luận. Đó chỉ là bắt đầu. Vì vậy, tôi tin rằng, trong ba tháng tới, chúng ta sẽ chứng kiến biểu tình quy mô lớn chống lại trí tuệ nhân tạo.
Patrick O'Shaughnessy:
Vậy sức mạnh nào có thể đối đầu với cảm xúc này? Ngành công nghiệp trí tuệ nhân tạo nên làm gì để đối phó từ trước?
Dylan Patel:
Đầu tiên, Sam Altman và Dario nên dừng việc trả lời phỏng vấn. Họ thiếu charisma quá. Tôi không biết họ đang làm gì nữa. Mỗi lần phỏng vấn đều làm cho người thông thường ghét họ nhiều hơn. Ví dụ như Sam Altman lên chương trình của Tucker Carlson, có thể khiến tất cả người đảng Cộng hòa càng ghét OpenAI hơn. Dario cũng vậy. Họ thật sự không có charisma. Đó là điểm đầu tiên.
Thứ hai, họ cần bắt đầu trưng bày những điều tích cực, truyền cảm hứng mà trí tuệ nhân tạo có thể thực hiện.
Thứ ba, họ cần dừng việc liên tục nói về "khả năng của trí tuệ nhân tạo sẽ thay đổi toàn cầu". Vì khi người ta nghe thấy về khả năng ấy, họ chỉ cảm thấy sợ hãi. Đặc biệt là khi họ không có bất kỳ kết nối thực sự nào với công nghệ đó.
Patrick O'Shaughnessy
Người ta không biết cách sử dụng nó.
Dylan Patel:
Và họ không có mối liên kết với nó. Người thông thường không biết nhân viên của Anthropic, cũng không biết nhân viên của OpenAI là ai. Người ta không biết những người này là ai, không biết mục tiêu của họ là gì. Họ chỉ coi những công ty này như một nhóm nhỏ hoạt động bí mật: một vài ngàn người tụ tập trong một công ty, muốn thay đổi thế giới, tự động hóa mọi công việc, phá hủy xã hội. Trong mắt nhiều người, đó chính là cách họ nhìn nhận.
Ngoài ra, những công ty này cũng đang tài trợ và thúc đẩy xây dựng một lượng lớn trung tâm dữ liệu và nhà máy điện, những thứ mà trong mắt công chúng có thể làm ô nhiễm thế giới. Mọi người không thực sự hiểu rõ điều này đã xảy ra. Vì vậy, những công ty này phải ngừng nói về "sự thay đổi lớn sắp xảy ra trong tương lai", chỉ nói về hiện tại: AI hiện đang mang lại lợi ích như thế nào. Tôi nghĩ rằng điều này đòi hỏi một cuộc tái cấu trúc tổ chức lớn và việc tái thiết thương hiệu.
Patrick O'Shaughnessy:
Tôi rất thích cuộc trò chuyện với bạn như vậy. Cảm ơn bạn đã dành thời gian.
Dylan Patel:
Thật tuyệt, cảm ơn.
Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:
Nhóm Telegram đăng ký: https://t.me/theblockbeats
Nhóm Telegram thảo luận: https://t.me/BlockBeats_App
Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia