Tiêu đề Video Gốc: Vitalik Buterin vs Beff Jezos: Tranh Luận về Tăng Tốc Trí Tuệ Nhân Tạo (E/acc vs D/acc)
Nguồn Video Gốc: a16z crypto
Dịch từ Nguyên Bản: Deep Tide TechFlow
Chúng ta nên thúc đẩy sự phát triển nhanh chóng của Trí Tuệ Nhân Tạo càng nhiều càng tốt, hay nên cẩn trọng hơn trong việc tiếp nhận tiến bộ này?
Hiện nay, tranh luận về sự phát triển của Trí Tuệ Nhân Tạo chủ yếu tập trung vào hai quan điểm đối立:
· e/acc (Chủ Nghĩa Tăng Tốc Hiệu Quả, effective accelerationism): ủng hộ việc thúc đẩy tiến bộ công nghệ ngay lập tức vì họ cho rằng sự phát triển nhanh chóng là con đường duy nhất của loài người.
· d/acc (Chủ Nghĩa Tăng Tốc Phòng Thủ/Phân Cấp, defensive / decentralized acceleration): ủng hộ sự phát triển, nhưng nhấn mạnh việc cần phải tiến hành một cách cẩn thận, nếu không có thể mất kiểm soát trước công nghệ.
Trong tập a16z crypto này, Người sáng lập Ethereum Vitalik Buterin và CEO của Extropic Guillaume Verdon (dưới bút danh "Beff Jezos"), cùng với Giám đốc Công nghệ của a16z crypto Eddy Lazzarin và Người sáng lập Eliza Labs Shaw Walters đã cùng nhau tham gia một cuộc thảo luận sâu sắc xoay quanh hai quan điểm này. Họ đã thảo luận về tác động tiềm năng của những ý niệm này đối với Trí Tuệ Nhân Tạo, công nghệ chuỗi khối và tương lai của loài người.
Trong chương trình, họ đã thảo luận về những vấn đề chính sau:
· Liệu chúng ta có thể kiểm soát quá trình tăng tốc công nghệ không?
· Nguy cơ lớn nhất mà AI mang lại là gì, từ giám sát quy mô lớn đến sự tập trung quyền lực cao.
· Công nghệ mã nguồn mở và phân cấp có thể quyết định ai sẽ hưởng lợi từ công nghệ không?
· Việc làm chậm tốc độ phát triển của AI có khả thi không, hay có đáng khuyến khích không?
· Trong một thế giới do các hệ thống ngày càng mạnh mẽ chi phối, con người làm thế nào để duy trì giá trị và vị thế của bản thân?
· Xã hội loài người trong 10 năm tới, 100 năm tới, hay thậm chí 1000 năm tới có thể sẽ trở nên như thế nào?
Vấn đề cốt lõi của tập này là: liệu phát triển công nghệ có thể được chỉ đạo, hay nó đã vượt ra khỏi tầm kiểm soát của chúng ta?
Về Bản Chất và Lịch Sử của "Chủ Nghĩa Tăng Tốc"
· Vitalik Buterin: "Trong suốt thế kỷ qua, có một sự kiện mới đã xảy ra, đó là chúng ta phải hiểu về một thế giới biến đổi nhanh, đôi khi là một thế giới biến đổi nhanh và mang tính phá hủy. ... Chiến tranh thế giới thứ hai đã tạo ra sự suy tàn của 'Tôi đã trở thành Thần Chết, kẻ phá hủy thế giới', thúc đẩy mọi người bắt đầu cố gắng hiểu: khi niềm tin truyền thống bị phá hủy, chúng ta có thể tin vào điều gì nữa?"
Guillaume Verdon: "E/acc về bản chất là một 'phương pháp điều trị văn hóa'. Nó không phải là một văn hóa chính, mà là chỉ cho chúng ta điều gì cần tăng tốc. Yếu tố cốt lõi của việc tăng tốc là sự phức tạp của vật chất, vì chỉ như vậy chúng ta mới có thể dự đoán tốt hơn về môi trường xung quanh."
· Guillaume Verdon: "Mặt đối diện với lo âu là sự tò mò. Thay vì sợ hãi điều chưa biết, hãy ôm sự chưa biết. ... Chúng ta nên mô tả tương lai với một thái độ lạc quan, vì niềm tin của chúng ta sẽ ảnh hưởng đến hiện thực."
Về Entropy, Nhiệt Động Học và "Bit Tự Kể"
· Vitalik Buterin: "Entropy là chủ quan, nó không phải là một lượng thống kê vật lý cố định, mà là phản ánh sự không biết của chúng ta về hệ thống. ... Khi entropy tăng, thực tế là sự không biết của chúng ta về thế giới đang gia tăng. ... Nguồn gốc của giá trị đến từ lựa chọn cá nhân của chúng ta. Tại sao chúng ta nghĩ rằng một thế giới con người tràn đầy sự sống hơn là thú vị hơn so với một sao Mộc chỉ toàn ngàn tỷ hạt? Vì chúng ta đã trao ý nghĩa cho nó."
· Vitalik Buterin: "Giả sử bạn có một mô hình ngôn ngữ lớn, sau đó bạn chuyển đổi giá trị của một trọng số bất kỳ trong đó thành một con số lớn như 90 tỷ. Kết quả tệ nhất có thể là hệ thống hoàn toàn sụp đổ. ... Nếu chúng ta tăng tốc mà không lựa chọn mục tiêu, kết quả cuối cùng có thể là chúng ta mất mát mọi giá trị."
· Guillaume Verdon: "Mỗi thông tin đều đang 'chiến đấu' cho sự tồn tại của nó. Để tiếp tục tồn tại, mỗi thông tin cần để lại dấu vết không thể xóa sạch về sự tồn tại của mình trong vũ trụ, giống như để lại 'vệt hằn' lớn hơn trong vũ trụ."
· Guillaume Verdon:「Đó chính là lý do tại sao Hạng Cấp Kardashev được coi là chỉ số cuối cùng để đo lường mức độ phát triển của một nền văn minh. … Thể chế ‘Nguyên tắc Bit ích kỷ’ này có nghĩa là, chỉ có những Bit có khả năng thúc đẩy tăng trưởng và tăng tốc mới được chiếm một vị trí trong hệ thống tương lai.」
Về Con Đường Phòng thủ của D/acc và Rủi Ro Quyền Lực
· Vitalik Buterin:「Ý tưởng cốt lõi của D/acc là: Tăng tốc công nghệ đối với con người rất quan trọng. … Nhưng tôi nhìn thấy hai loại rủi ro: Rủi ro Đa cực (bất kỳ ai cũng có thể dễ dàng truy cập vũ khí hạt nhân) và Rủi ro Đơn cực (Trí tuệ Nhân tạo dẫn đến xã hội độc tài vĩnh viễn không thể trốn thoát).」
· Guillaume Verdon:「Chúng tôi lo lắng rằng khái niệm ‘An ninh AI’ này có thể bị lạm dụng. Một số tổ chức theo đuổi quyền lực có thể sử dụng nó như công cụ để củng cố sự kiểm soát đối với AI, và cố gắng thuyết phục công chúng: Để đảm bảo an toàn của bạn, người dân thông thường không nên sở hữu quyền sử dụng của AI.」
Về Con Đường Phòng thủ Mã Nguồn Mở, Phần Cứng và ‘Tính Chất Mật Độ Thông Minh’
· Vitalik Buterin:「Trong khung D/acc, chúng tôi ủng hộ ‘Công nghệ Phòng thủ Mã Nguồn Mở’. Một công ty mà chúng tôi đầu tư đang phát triển một sản phẩm cuối cùng hoàn toàn mã nguồn mở, có thể phát hiện virus trong không khí một cách chủ động. … Tôi rất muốn tặng bạn một thiết bị CAT làm quà.」
· Vitalik Buterin:「Trong tương lai mà tôi ảo tưởng, chúng ta cần phát triển Phần Cứng Có Thể Xác Minh được. Mỗi máy quay camera đều nên có thể chứng minh mục đích cụ thể của nó với công chúng. Chúng ta có thể thông qua xác minh chữ ký, đảm bảo rằng các thiết bị này chỉ được sử dụng để bảo vệ an ninh công cộng, không bị lạm dụng cho mục đích giám sát.」
· Guillaume Verdon:「Để làm cho quyền lực giữa cá nhân và tổ chức trung ương trở nên cân bằng, đó là chỉ có một con đường, đó là thực hiện ‘Tính Chất Mật Độ Thông Minh’ (Densification of Intelligence). Chúng ta cần phát triển Phần Cứng Hiệu quả hơn, cho phép cá nhân chạy các mô hình mạnh mẽ thông qua các thiết bị đơn giản (như Openclaw + Mac mini).」
Về Sự Trễ Trong Phát Triển AGI và Trò Chơi Địa Chính Trị
· Vitalik Buterin: "Nếu chúng ta có thể trì hoãn thời gian xuất hiện của AGI từ 4 năm sang 8 năm, đó sẽ là một lựa chọn an toàn hơn. ... Cách tiếp cận khả thi nhất và ít gây ra hệ thống phản ứng phản-utopia nhất là 'hạn chế phần cứng khả dụng'. Bởi vì việc sản xuất vi mạch tập trung cao, một khu vực như Đài Loan đã sản xuất hơn 70% vi mạch trên toàn cầu."
· Guillaume Verdon: "Nếu bạn hạn chế việc sản xuất vi mạch của NVIDIA, Huawei có thể nhanh chóng lấp đầy khoảng trống và vượt mặt. ... Hoặc tăng tốc, hoặc diệt vong. Nếu bạn lo lắng rằng sự tiến hóa thông minh dựa trên silic đã vượt qua chúng ta, bạn nên hỗ trợ sự phát triển nhanh chóng của công nghệ sinh học, cố gắng vượt qua nó."
· Vitalik Buterin: "Nếu chúng ta có thể trì hoãn AGI bốn năm, giá trị có thể cao hơn một trăm lần so với việc đặt ngược lại năm 1960. Lợi ích của bốn năm này bao gồm: hiểu sâu hơn về vấn đề sự căn chỉnh, giảm nguy cơ một cá nhân kiểm soát 51% quyền lực. ... Mỗi năm, khoảng 60 triệu sinh mạng được cứu khỏi tuổi già, nhưng việc trì hoãn có thể giảm đáng kể khả năng tàn phá của nền văn minh."
· Vitalik Buterin: "Tôi quan tâm hơn đến 'Photoshop được hỗ trợ bởi trí tuệ nhân tạo', chứ không phải 'nhấn nút để tạo hình ảnh tự động'. Trong quá trình chạy thế giới, nhiều 'khả năng hành động' nhất có thể vẫn phải đến từ chính chúng ta loài người. Tình trạng lý tưởng nhất nên là sự kết hợp của 'phần nửa loài người sinh vật và phần nửa công nghệ'."
· Guillaume Verdon: "Một khi trí tuệ nhân tạo có 'bit tồn tại liên tục', chúng có thể cố gắng tự bảo vệ để đảm bảo sự tồn tại liên tục của họ. Điều này có thể dẫn đến một hình thức mới của 'quốc gia khác', nơi trí tuệ nhân tạo độc lập và con người tiến hành trao đổi kinh tế: chúng tôi hoàn thành nhiệm vụ cho bạn, bạn cung cấp tài nguyên cho chúng tôi."
Về Tiền Điện Tử như 'Lớp Kết Nối' Giữa Con Người và Trí Tuệ Nhân Tạo
· Guillaume Verdon: "Tiền điện tử có tiềm năng để trở thành 'lớp kết nối' (coupling layer) giữa con người và trí tuệ nhân tạo. Khi trao đổi này không còn phụ thuộc vào sự ủng hộ bằng vũ lực của quốc gia, mật mã học có thể trở thành cơ chế cho phép thực hiện hoạt động kinh doanh đáng tin cậy giữa thực thể trí tuệ nhân tạo thuần túy và con người."
· Vitalik Buterin:「Nếu con người và Trí tuệ Nhân tạo (AI) chia sẻ cùng một hệ thống tài sản, đó là tình huống lý tưởng. So với việc con người và AI sử dụng mỗi hệ thống tài chính độc lập hoàn toàn (hệ thống của con người cuối cùng có giá trị về không), một hệ thống tài chính hợp nhất rõ ràng là tốt hơn.」
Về Kết thúc của Văn minh trong 10 Tỷ năm tới
· Vitalik Buterin:「Thách thức tiếp theo là bước vào『Thời đại ma mị』 (spooky era), tốc độ tính toán của AI nhanh hơn con người hàng triệu lần. …… Tôi không muốn con người chỉ đơn giản là tận hưởng cuộc sống nghỉ hưu thoải mái mà không có ý nghĩa. Tôi muốn khám phá việc tăng cường con người và hợp tác con người-máy.」
· Guillaume Verdon:「Nếu sau 10 năm là kết thúc tốt, mỗi người sẽ có một AI cá nhân hóa riêng, trở thành『Bộ não thứ hai』. …… Trên thang thời gian 100 năm, con người sẽ rộng rãi đạt được『Hòa trộn mềm』. Sau 10 tỷ năm, chúng ta có thể đã biến đổi sao Hỏa, hầu hết AI sẽ hoạt động trong đám mây Dyson xung quanh Mặt Trời.」
Eddy Lazzarin: Về thuật ngữ 「Chủ nghĩa Tăng tốc」 — ít nhất trong bối cảnh vốn Kỹ thuật — có thể được truy vết về làm việc của Nick Land và nhóm nghiên cứu CCRU trong những năm 1990. Tuy nhiên, cũng có người cho rằng, nguồn gốc của những tư tưởng này có thể theo dõi về những năm 1960 và 1970, đặc biệt là liên quan đến một số triết gia như Deleuze và Guattari.
Vitalik, tôi muốn bắt đầu với bạn: Tại sao chúng ta nên nghiêm túc thảo luận về những tư tưởng của các triết gia này? Cuối cùng, điều gì khiến khái niệm「Chủ nghĩa Tăng tốc」 trở nên quan trọng như vậy vào ngày nay?
Vitalik Buterin: Tôi nghĩ, cuối cùng thì tất cả chúng ta đều đang cố gắng hiểu thế giới này và đang cố gắng tìm hiểu điều gì mới mẻ trong thế giới này mà làm cho việc chúng ta làm trở nên có ý nghĩa, đó là vấn đề mà con người đã suy tư hàng ngàn năm nay.
Tuy nhiên, tôi nghĩ rằng trong suốt một thế kỷ qua đã diễn ra một sự kiện mới, đó là chúng ta phải hiểu rằng thế giới đang thay đổi nhanh chóng, đôi khi thậm chí là một thế giới thay đổi nhanh chóng và có tính phá hủy.
Quá trình đầu tiên ban đầu có vẻ như thế này: Trước Thế chiến thứ nhất, khoảng năm 1900, mọi người rất lạc quan với công nghệ. Lúc đó, hóa học được coi là công nghệ, điện cũng là công nghệ, thời đại đó tràn ngập sự hứng thú với công nghệ.
Nếu bạn xem một số bộ phim của thời kỳ đó, như tác phẩm của "Sherlock Holmes", bạn sẽ cảm nhận được không khí lạc quan của thời đó. Công nghệ đang nhanh chóng nâng cao mức sống của con người, giải phóng sức lao động của phụ nữ, kéo dài tuổi thọ con người, tạo ra nhiều phép màu.
Tuy nhiên, Thế chiến thứ nhất đã thay đổi tất cả. Cuộc chiến đó kết thúc một cách tàn khốc, con người cưỡi ngựa vào chiến trường, nhưng lại lái xe tăng rời đi; sau đó là Thế chiến thứ hai bùng nổ, mang lại tàn phá lớn hơn. Cuộc chiến đó thậm chí đã sinh ra "Tôi đã trở thành Thần Chết, kẻ phá hủy thế giới" như một câu danh ngôn.
Những sự kiện lịch sử đó khiến con người bắt đầu suy ngẫm về giá của tiến bộ công nghệ, và thúc đẩy việc xuất hiện các tư tưởng như hậu hiện đại. Con người bắt đầu cố gắng hiểu rằng: khi niềm tin truyền thống bị phá vỡ, chúng ta có thể tin vào điều gì?
Theo tôi, sự suy ngẫm đó không phải là điều mới mẻ, mỗi thế hệ đều trải qua quá trình tương tự. Ngày nay, chúng ta cũng đối diện với thách thức tương tự. Chúng ta sống trong một thời đại tiến bộ công nghệ nhanh chóng, và sự gia tăng này cũng đang ngày càng tăng tốc. Chúng ta cần quyết định phải xử lý hiện tượng đó như thế nào: liệu chấp nhận tính không thể tránh khỏi của nó, hay cố gắng làm chậm bước tiến của nó?
Theo tôi, chúng ta đang ở trong một vòng lặp tương tự. Chúng ta một mặt thừa hưởng những tư tưởng truyền thống, mặt khác đang cố gắng đối mặt với mọi thứ theo cách mới.
Shaw Walters: Guill, liệu bạn có thể giải thích một cách đơn giản, E/acc thực sự là gì? Tại sao chúng ta cần nó?
Guillaume Verdon: Thực ra, E/acc (chủ nghĩa tăng trưởng hiệu quả) ở một mức độ nào đó là một sản phẩm phụ của suy tư mà tôi luôn tự hỏi "Tại sao chúng ta ở đây" "Chúng ta đã đi từ đâu để đến ngày hôm nay". Quy trình tạo ra chúng ta, thúc đẩy phát triển văn minh? Công nghệ đã đưa chúng ta đến điểm hiện tại này, cho phép chúng ta ngồi trong căn phòng này để có cuộc trò chuyện như thế. Xung quanh chúng ta là những công nghệ đáng kinh ngạc, trong khi con người chính bản thân chúng ta đã nổi lên từ một cụm hợp chất vô cơ là "nước sôi cơ bản".
Một cách nào đó, sau đằng sau đó thực sự là quá trình tạo thành vật lý. Công việc hàng ngày của tôi là hiểu Trí tuệ nhân tạo sáng tạo là một quá trình vật lý, và cố gắng thực hiện nó trên thiết bị. Cách suy nghĩ "ưu tiên vật lý" này luôn ảnh hưởng đến cách suy nghĩ của tôi. Tôi hy vọng mở rộng góc nhìn này ra trên toàn bộ nền văn minh, coi nền văn minh nhân loại như một "đĩa nước" khổng lồ, thông qua việc hiểu chúng ta đã đi từ đâu để đến ngày hôm nay thì có thể đoán trước hướng phát triển tiềm năng trong tương lai.
Quan điểm này đã dẫn tôi đến nghiên cứu vật lý của cuộc sống, bao gồm nguồn gốc và sự nổi lên của cuộc sống, cũng như một nhánh vật lý được gọi là "Nhiệt động học Ngẫu nhiên". Nhiệt động học Ngẫu nhiên nghiên cứu các nguyên lý nhiệt động học của các hệ thống mất cân bằng, nó có thể được sử dụng để mô tả hành vi của sinh vật sống, thậm chí là tư duy và trí tuệ của chúng ta.
Ở mức độ rộng hơn, Nhiệt động học Ngẫu nhiên không chỉ áp dụng cho cuộc sống và trí tuệ, mà còn áp dụng cho tất cả các hệ thống tuân thủ Định lý Nhiệt động học thứ hai, bao gồm cả toàn bộ nền văn minh của chúng ta. Đối với tôi, điều cốt lõi của tất cả là một quan sát: Tất cả các hệ thống đều có một xu hướng, đó là tăng cường sự phức tạp thông qua sự tự điều chỉnh, để lấy năng lượng từ môi trường thực hiện công việc, đồng thời phát tán năng lượng dư thừa dưới dạng nhiệt, xu hướng này chính là động lực cơ bản thúc đẩy mọi tiến bộ và tăng tốc.
Nói cách khác, đây là một luật lực không thể thay đổi, giống như trọng lực. Bạn có thể chống đối nó, có thể phủ nhận nó, nhưng điều đó không làm thay đổi nó, nó vẫn tiếp tục tồn tại. Do đó, ý tưởng cốt lõi của E/acc là: Vì tăng tốc này là không thể tránh khỏi, vậy chúng ta nên tận dụng nó như thế nào? Nếu bạn cẩn thận xem xét phương trình nhiệt động học, bạn sẽ nhận thấy hiệu ứng tương tự như hiệu ứng lựa chọn Darwin đang phát huy tác dụng — mỗi bit thông tin đều phải chịu sức ép lựa chọn, cho dù đó là gen, mê-ngôn, hóa học, thiết kế sản phẩm hay chính sách nào đấy.
Sức ép lựa chọn này sẽ lọc các thông tin dựa trên việc chúng có hữu ích đối với hệ thống mà chúng tồn tại. "Hữu ích" ở đây có nghĩa là liệu các bit thông tin đó có thể dự đoán môi trường tốt hơn, lấy năng lượng và tiêu thụ nhiều nhiệt hơn. Đơn giản thôi, liệu các bit thông tin đó có hỗ trợ cho sự sống sót, phát triển và sinh sản hay không. Nếu chúng hỗ trợ cho các mục tiêu đó, chúng sẽ được giữ lại và sao chép.
Đối với góc độ vật lý, hiện tượng này có thể được coi là kết quả của "Nguyên lý Bit Tự-ích" (Selfish Bit Principle). Nghĩa là, chỉ có những bit thông tin có thể thúc đẩy sự phát triển và tăng tốc mới có thể tồn tại trong các hệ thống tương lai.
Do đó, tôi đặt ra một ý tưởng: Liệu chúng ta có thể thiết kế một nền văn hóa, cấy mầm "phần mềm tư duy" này vào xã hội loài người không? Nếu chúng ta có thể làm được điều đó, thì nhóm người nhận lấy nền văn hóa này sẽ có cơ hội sống sót cao hơn so với các nhóm khác.
Vì thế, E/acc không phải là để tiêu diệt mọi người. Trên thực tế, nó đang cố gắng cứu rỗi mọi người. Đối với tôi, toán học gần như chứng minh rằng việc giữ một tư duy "chậm lại" thực ra có hại. Dù là cá nhân, công ty, quốc gia hay toàn bộ nền văn minh, việc chọn giảm tốc độ phát triển sẽ làm giảm khả năng sống sót của chúng trong tương lai. Và tôi cho là việc truyền bá tư duy "chậm lại" này, như bi quan hoặc lý thuyết Tận thế, không phải là hành vi đạo đức.
Shaw Walters: Chúng ta vừa đề cập đến nhiều thuật ngữ như E/acc, tăng tốc, giảm tốc. Có thể bạn giải thích chi tiết về những khái niệm này không? Việc ra đời của E/acc có phải là phản ứng với một số hiện tượng văn hóa không? Đã xảy ra điều gì vào thời điểm đó? Bạn có thể mô tả về bối cảnh không? E/acc cụ thể là phản ứng với điều gì? Bạn có thể mô tả cuộc đối thoại trong thời điểm đó không, và làm thế nào những ý tưởng này cuối cùng đã được tổng hợp thành khái niệm "E/acc"?
Guillaume Verdon: Trong năm 2022, tôi nghĩ rằng vào thời điểm đó, toàn thế giới dường như có phần bi quan. Chúng ta vừa mới vượt qua đại dịch Covid-19, tình hình toàn cầu không mấy lạc quan. Mọi người dường như mệt mỏi, giống như thiếu ánh sáng mặt trời, mọi người đều cảm thấy không phấn chấn về tương lai.
Dưới bầu không khí đó, "Titan hóa Trí tuệ Nhân tạo" một phần nào đó trở thành một phần của văn hóa chung. Titan hóa Intellengence Artificial ám chỉ sự sợ hãi rằng công nghệ AI có thể trở nên không kiểm soát. Nó bắt nguồn từ nỗi lo này: Nếu chúng ta tạo ra một hệ thống quá phức tạp, và não bộ con người hoặc mô hình của chúng ta không thể dự đoán hành vi của nó, thì chúng ta sẽ không thể kiểm soát nó, và nỗi sợ hãi về sự không thể dự đoán này sẽ gây ra sự không chắc chắn về tương lai, dẫn đến lo lắng.
Theo tôi, Titan hóa AI thực sự là một hình thức chính trị hóa của sự lo lắng con người. Tổng thể, tôi nghĩ rằng cuộc tiều diệt này rất lớn và để đáp ứng, tôi muốn tạo ra một phong trào chống lại tâm trạng bi quan này.
Tôi nhận thấy, các thuật toán của Twitter, thậm chí nhiều thuật toán của mạng xã hội khác, thường ưa thích thưởng cho các nội dung gây ra cảm xúc mạnh, chẳng hạn như "ủng hộ mạnh mẽ" hoặc "phản đối mạnh mẽ". Thuật toán này cuối cùng sẽ dẫn đến cực đoan quan điểm, và do đó chúng ta thấy nhiều phái đối lập, như hiện tượng "Thần thánh đối lập" được hình thành với AA (chống tăng tốc) và EA (tăng tốc).
Tôi tự hỏi, mặt đối diện với hiện tượng này là gì? Kết luận của tôi là: mặt đối diện với lo lắng là sự tò mò. Thay vì sợ hãi cái chưa biết, hãy ôm cái chưa biết; thay vì lo lắng bỏ lỡ cơ hội, hãy tự tìm hiểu và thám hiểm tương lai.
Nếu chúng ta chọn chế ngự sự phát triển của công nghệ, chúng ta sẽ phải trả giá bằng cơ hội to lớn, có thể mãi mãi bỏ lỡ một tương lai tốt hơn. Ngược lại, chúng ta nên vẽ nên tương lai một cách lạc quan, vì niềm tin của chúng ta sẽ ảnh hưởng đến thực tế. Nếu chúng ta tin rằng tương lai sẽ tồi tệ, hành động của chúng ta có thể đưa thế giới vào hướng đó; nhưng nếu chúng ta tin rằng tương lai sẽ tốt đẹp hơn và hành động để thực hiện niềm tin đó, chúng ta sẽ có cơ hội hơn để thực hiện tương lai đó.
Do đó, tôi cho rằng mình có trách nhiệm lan tỏa thái độ lạc quan, để khiến nhiều người tin rằng họ có thể làm thay đổi cho tương lai. Nếu chúng ta có thể khiến nhiều người hướng tới tương lai với hy vọng và hành động để xây dựng nó, thì chúng ta có thể tạo ra một thế giới tốt đẹp hơn.
Tất nhiên, tôi thừa nhận đôi khi cách tôi thể hiện trên mạng có vẻ quyết liệt, nhưng điều này là vì tôi muốn kích thích cuộc trao đổi, thúc đẩy mọi người suy ngẫm. Tôi tin rằng chỉ thông qua những cuộc trò chuyện này, chúng ta mới có thể tìm ra vị trí phù hợp nhất và quyết định cách chúng ta nên hành động.
Shaw Walters: Thông điệp mà E/acc vận chuyển luôn rất truyền cảm hứng, đối với một người ngồi trong phòng viết mã, sự lan truyền năng lượng tích cực này làm sôi động, và phát sóng thông điệp như vậy rất tự nhiên. Có thể nói rằng, vào thời điểm ban đầu, E/acc rõ ràng là một phản ứng với tâm trạng tiêu cực tràn ngập trong xã hội lúc bấy giờ, nhưng đến năm 2026, tôi cảm thấy E/acc đã không còn giống như trước nữa. Rõ ràng, bản Tuyên ngôn Lạc quan về Công nghệ do Marc Andreessen công bố đã hệ thống hóa một số ý tưởng đó và đưa những bản lý tưởng này lên góc nhìn phê phán rộng lớn hơn của Vitalik.
Vì vậy Vitalik, tôi muốn hỏi bạn: Trong quan điểm của bạn, E/acc và D/acc mỗi cái đều đại diện cho điều gì? Sự khác biệt chính giữa chúng là gì? Và điều gì đã thúc đẩy bạn chọn hướng đi này?
Vitalik Buterin: Được, vậy tôi sẽ bắt đầu với nhiệt động học. Đây là một chủ đề rất thú vị, vì chúng ta thường nghe từ "Entropy" trong ngữ cảnh khác nhau, ví dụ như ngôn ngữ về "nhiệt động" trong nhiệt động học, hoặc "Entropy" trong mật mã học, chúng dường như là hai thứ hoàn toàn khác nhau. Nhưng thực sự, chúng về bản chất đều là cùng một khái niệm.
Cho phép tôi cố gắng giải thích trong ba phút. Câu hỏi là: Tại sao lạnh và nóng có thể hỗn hợp với nhau, nhưng tại sao bạn không thể chia chúng ra nữa thành "nóng" và "lạnh"?
Chúng ta hãy giả sử một ví dụ đơn giản: Giả sử bạn có hai hũ khí, mỗi hũ có một triệu nguyên tử. Khí bên trái là lạnh, mỗi nguyên tử có thể được biểu diễn bằng hai chữ số; khí bên phải là nóng, mỗi nguyên tử có thể được biểu diễn bằng sáu chữ số.
Nếu chúng ta muốn mô tả trạng thái của toàn bộ hệ thống, chúng ta cần biết vận tốc của từng nguyên tử. Thông tin về vận tốc của khí lạnh bên trái cần khoảng 2 triệu chữ số, thông tin về vận tốc của khí nóng bên phải cần 6 triệu chữ số, tổng cộng cần 8 triệu chữ số thông tin để mô tả hoàn toàn hệ thống này.
Bây giờ, chúng ta có thể suy luận một vấn đề thông qua phương pháp phản chứng. Giả sử bạn có một thiết bị, có thể tách hoàn toàn nhiệt lượng và lạnh lượng. Cụ thể, thiết bị này có thể từ hai lon khí "nửa nóng nửa lạnh", chuyển toàn bộ nhiệt lượng sang một bên, chuyển toàn bộ lạnh lượng sang một bên khác. Từ quan điểm bảo toàn năng lượng, điều này dường như hoàn toàn hợp lý, vì tổng năng lượng không thay đổi. Nhưng vấn đề là tại sao bạn không thể làm được?
Đáp án nằm ở chỗ, nếu bạn thực sự có thể làm điều đó, thì thực sự bạn đã biến một hệ thống "chứa 11,4 triệu bit thông tin chưa biết" thành một hệ thống "chỉ chứa 8 triệu bit thông tin chưa biết", điều này về mặt vật lý là không thể.
Điều này bởi vì luật lý học là đối xứng với thời gian, nghĩa là thời gian có thể chạy ngược. Nếu thiết bị "phép màu" này thật sự tồn tại, bạn có thể đảo ngược quá trình này thời gian, từ đó khôi phục trạng thái ban đầu. Điều này có nghĩa là, thiết bị này thực sự có thể nén bất kỳ 11,4 triệu bit thông tin nào thành 8 triệu bit, trong khi chúng ta biết rằng việc nén này là không thể thực hiện.
Điều này cũng lưu ý giải thích về một vấn đề lý thuyết vật lý kinh điển - khả năng thực hiện của "Quỷ của Maxwell". Quỷ của Maxwell là một hình thức tưởng tượng, có thể tách lạnh và nhiệt, và để làm được điều này, điều quan trọng là nó cần phải biết thêm 3,4 triệu bit thông tin. Với những thông tin bổ sung này, nó thực sự có thể hoàn thành nhiệm vụ mà ngược lại có vẻ không hợp lý.
Vậy, ý nghĩa tiềm ẩn phía sau là gì? Đích đến chính nằm ở khái niệm "tăng entropi". Ban đầu, entropi là tương đối, không phải là một đại lượng thống kê vật lý cố định, mà phản ánh mức độ không biết của chúng ta về hệ thống. Ví dụ, nếu tôi xếp lại phân phối của nguyên tử bằng một hàm băm mật mã, thì với tôi, entropi của hệ thống này có thể trở nên rất thấp, vì tôi biết nó được sắp xếp như thế nào. Nhưng từ góc độ của quan sát ngoài, entropi lại cao. Do đó, khi entropi tăng, thực tế là mức độ không biết của chúng ta về thế giới tăng lên, thông tin mà chúng ta không biết trở nên ngày càng nhiều hơn.
Bạn có thể đặt câu hỏi, vậy sao chúng ta vẫn có thể thông qua giáo dục mà trở nên thông thái hơn? Giáo dục giúp chúng ta học được nhiều thông tin "hữu ích" hơn, chứ không phải là giảm bớt sự không biết của chúng ta về thế giới. Nói cách khác, mặc dù một phần nào đó, việc tăng entropi đồng nghĩa với việc giảm bớt nhận thức tổng thể của chúng ta về vũ trụ, thông tin mà chúng ta hiểu biết trở nên có giá trị hơn. Vì vậy, trong quá trình này, có những điều bị tiêu thụ, nhưng cũng có những điều được tạo ra. Và những điều chúng ta nhận được đó, cuối cùng quyết định giá trị đạo đức của chúng ta - chúng ta trân trọng cuộc sống, hạnh phúc và niềm vui.
Điều này cũng giải thích tại sao chúng ta có thể cảm thấy thế giới con người đầy sức sống và đẹp đẽ, hơn là hành tinh Mộc chỉ có hàng tỷ hạt, cần nhiều hơn bit để miêu tả, nhưng ý nghĩa mà chúng ta đặt vào đó khiến trái đất trở nên đáng giá hơn.
Từ góc độ này, nguồn gốc của giá trị đến từ sự lựa chọn của chính chúng ta. Điều này đặt ra một câu hỏi: Vì chúng ta đang tăng tốc phát triển, vậy chúng ta thực sự muốn tăng tốc cái gì?
Nếu giải thích bằng một ví dụ toán học: Giả sử bạn có một mô hình ngôn ngữ lớn, sau đó ngẫu nhiên thay đổi giá trị trọng số của một phần tử thành một con số lớn, chẳng hạn như 90 tỷ. Kết quả tồi tệ nhất là mô hình trở nên hoàn toàn không sử dụng được; và kết quả tốt nhất có thể là chỉ có phần không liên quan đến trọng số đó vẫn hoạt động bình thường. Nói cách khác, trong trường hợp tốt nhất, bạn có thể nhận được một mô hình có hiệu suất thấp hơn; và trong trường hợp tồi nhất, bạn chỉ nhận được một loạt đầu ra vô nghĩa.
Do đó, tôi nghĩ, xã hội con người giống như một mô hình ngôn ngữ lớn phức tạp. Nếu chúng ta tăng tốc một phần mà không chọn lọc lực lượng, kết quả cuối cùng có thể là chúng ta mất mát toàn bộ giá trị. Vì vậy vấn đề thực sự đặt ra là: Chúng ta cách làm thế nào để tăng tốc có ý thức? Giống như lý thuyết "hẻm hẹp" mà Daron Acemoglu đề xuất, mặc dù các bối cảnh xã hội và chính trị khác nhau sẽ có sự khác biệt, nhưng điều chúng ta cần suy nghĩ là, làm thế nào chúng ta có thể đẩy mạnh tiến bộ một cách chọn lọc dưới sự hướn đạo của một mục tiêu rõ ràng.
Guillaume Verdon: Gần đây, bạn đã sử dụng khái niệm nghịch đảo để giải thích năng lượng entropy, cách tiếp cận này rất thú vị. Trong thực tế, lý do cơ bản mà hiện tượng vật lý là không đảo ngược nằm ở Định lý Nhiệt động học thứ hai. Đơn giản nói, khi một hệ thống phát ra nhiệt, trạng thái của nó không thể quay trở lại như cũ. Bởi vì theo khả năng học, khả năng phát triển tiến lên của hệ thống lớn hơn rất nhiều so với khả năng quay ngược lại, và khoảng cách này tăng một cách mũi tên theo lượng nhiệt mất đi.
Một cách hiểu khái niệm này, đó giống như bạn đã để lại một "vết rạn" trong vũ trụ. "Vết rạn" này có thể tương đồng với một va chạm không đàn hồi. Ví dụ, nếu tôi dùng một quả cầu đàn hồi va vào mặt đất, nó sẽ quả về, đây là trạng thái đàn hồi. Nhưng nếu tôi ném một cục bột nhão xuống đất, nó sẽ bẹp và giữ nguyên hình dạng đó, đây là trạng thái không đàn hồi, rất ít khả năng quay lui.
Theo bản chất, mỗi thông tin đều "đấu tranh" cho sự tồn tại của nó. Để duy trì sự tồn tại, mỗi thông tin cần để lại dấu vết không thể xóa tại vũ trụ về sự tồn tại của nó, giống như đánh dấu một vết "rạn" lớn hơn trong vũ trụ.
Nguyên tắc này cũng có thể giải thích làm thế nào cuộc sống và trí tuệ bắt nguồn từ một "nồi súp vật chất" ban đầu. Khi hệ thống trở nên phức tạp hơn, nó chưa chứa nhiều bit thông tin hơn. Và mỗi bit thông tin có thể cung cấp cho chúng ta một số thông tin. Bản chất của thông tin là sự giảm entropy, bởi vì entropy đại diên cho mức độ không biết của chúng ta, trong khi thông tin là công cụ giảm thiểu sự không biết.
Eddy Lazzarin: Tôi muốn biết E/acc là gì.
Guillaume Verdon: E/acc về bản chất là một "điều chỉnh văn hóa cơ bản". Nó không phải là một văn hóa, mà là cho chúng ta biết điều gì đó nên được tăng tốc. Trung tâm của việc tăng tốc là sự phức tạp vật chất, vì thông qua việc này, chúng ta có thể dự đoán tốt hơn về môi trường xung quanh. Thông qua sự phức tạp này, chúng ta có thể nâng cao khả năng dự đoán tự hồi quy và chiếm lấy thêm năng lượng tự do. Điều này liên quan đến cấp độ của Kalardashev, chúng ta thực hiện điều này thông qua việc tiêu hao nhiệt.
TechFlow của Deep Tide Note: Cấp độ Kalardashev là một phương pháp đánh giá mức độ tiến bộ công nghệ của văn minh một cách mà các văn minh có thể sử dụng lượng năng lượng. Nó được chia thành ba loại: Loại I (Năng lượng hành tinh), Loại II (Năng lượng hệ sao, như quả cầu Dyson) và Loại III (Năng lượng dải ngân hà). Đến năm 2018, con người đang ở cấp độ khoảng 0.73.)
Điều này chính là lý do tại sao cấp độ Kalardashev được xem là chỉ số cuối cùng để đo lường mức độ phát triển của một nền văn minh từng được biết đến từ nguyên lý đầu tiên.
Eddy Lazzarin: Sử dụng phép ẩn dụ vật lý và entropy để giải thích một số hiện tượng, thực ra đó là một công cụ để mô tả hiện thực mà chúng ta trực tiếp trải nghiệm. Ví dụ, khả năng sản xuất kinh tế của chúng ta đang tăng tốc, sự phát triển công nghệ cũng đang tăng tốc, những tăng tốc này mang lại rất nhiều hậu quả, đúng không? Đây là cách tôi hiểu về "tăng tốc".
Guillaume Verdon: Về bản chất, bất kỳ hệ thống nào dù biên giới được xác định như thế nào, nó cũng sẽ trở nên ngày càng tốt hơn trong việc dự đoán thế giới xung quanh. Thông qua khả năng dự đoán này, nó có thể thu thập thêm tài nguyên để tồn tại và mở rộng bản thân. Mô hình này áp dụng cho các công ty, cá nhân, quốc gia, thậm chí cả toàn cầu.
Nếu chúng ta kéo dài xu hướng này, kết quả là: chúng ta đã tìm ra một cách chuyển đổi năng lượng tự do thành khả năng dự đoán - đó chính là Trí tuệ Nhân tạo. Khả năng này sẽ thúc đẩy chúng ta mở rộng và nâng cao cấp độ Kalardashev của mình.
Điều này có nghĩa là, chúng ta sẽ có thêm năng lượng, nhiều hơn AI, nhiều hơn khả năng tính toán, và nhiều tài nguyên khác. Mặc dù chúng ta đang tạo ra entropy (vô thứ tự) vào vũ trụ, nhưng chúng ta cũng đang tạo ra trật tự. Trên thực tế, chúng ta đang nhận được "entropy âm", đó chính là entropy đối lập.
Đôi khi mọi người có thể hỏi: Nếu entropy đang tăng, vì sao chúng ta không phá hủy tất cả? Câu trả lời là: Điều đó sẽ dẫn đến việc ngừng sản sinh entropy. Cuộc sống mới chính là trạng thái "tốt nhất", cuộc sống giống như ngọn lửa săn đuổi năng lượng, nó sẽ ngày càng thông minh tìm kiếm nguồn năng lượng.
Trào lưu tiến hóa tự nhiên là: chúng ta sẽ rời khỏi lực hấp dẫn của Trái Đất, tìm kiếm các "túi" khác trong vũ trụ chứa năng lượng tự do, và tự tổ chức thành các hệ thống phức tạp hơn, thông minh hơn, mở rộng cuối cùng đến mọi góc của vũ trụ.
Điều này thực sự là một trong những mục tiêu cuối cùng của Altruism Hiệu Quả (Effective Altruism, EA). Nó một phần nào khớp với ý niệm "mở rộng vũ trụ" kiểu Musk: tìm kiếm triết học vũ trụ và mở rộng.
E/acc cung cấp một nguyên tắc hướng dẫn cơ bản. Ý tưởng cốt lõi của nó là: bất kỳ chính sách hoặc hành động nào bạn thực hiện trên thế giới này, nếu giúp chúng ta tiến lên trên thang Karldashov, đó là một mục tiêu đáng theo đuổi, đó là hướng đi của cuộc sống chúng ta.
E/acc là một cách suy luận siêu cấp, có thể được sử dụng để thiết kế chính sách hoặc hướng dẫn cuộc sống cá nhân. Đối với tôi, cách suy nghĩ này chính là một nền văn hóa. Nó đi sâu vào một câu chuyện "siêu" vì nó được tưởng tượng sẽ áp dụng ở bất kỳ thời điểm nào, trong bất kỳ điều kiện nào. Đó là một nền văn hóa cực kỳ tổng quát và lâu dài, nói cách khác, nó là một nền văn hóa "Lindy" được thiết kế kỹ lưỡng.
Shaw Walter: Đối với bạn, nội dung được thảo luận ở đây mang ý nghĩa sâu sắc hơn. Nó gần như là một "hệ thống tinh thần" toán học có sự nhất quán. Với những người luôn tìm kiếm niềm tin thay thế sau "Đức Chúa Trời đã chết", hệ thống như vậy dường như có thể lấp đầy khoảng trống tinh thần, mang lại sự an ủi và hy vọng. Nhưng đồng thời, chúng ta cũng không thể bỏ qua ý nghĩa hiện thực của điều này — nó đang diễn ra ngay bây giờ. Tôi nghĩ, đó cũng là điểm mà Eddy muốn thảo luận.
Vitalik, tôi nhận thấy bạn đã đưa ra quan điểm sâu sắc về một số vấn đề hiện thực của D/acc trên blog cá nhân của mình. Chúng ta hãy dành thời gian để thảo luận sâu hơn về chủ đề này khi có cơ hội — một ngày nào đó, tôi nghĩ chúng ta nên nhốt cậu hai vào cùng một căn phòng, để có một cuộc thảo luận lớn về vấn đề lượng tử.
Vitalik: Điều gì đã truyền cảm hứng cho bạn? The theo bạn, E/acc và D/acc lần lượt là gì?
Vitalik Buterin: Với tôi, ý nghĩa của D/acc là — viết tắt của nó là "Tăng tốc Quốc phòng Phi trung tâm", nhưng nó cũng bao gồm ý nghĩa "Sự khác biệt" và "Dân chủ". Đối với tôi, ý tưởng cốt lõi của D/acc là: Tăng tốc công nghệ đối với loài người là rất quan trọng, đó nên là mục tiêu cơ bản chúng ta nỗ lực.
Ngay cả khi chúng ta nhìn lại thế kỷ 20, mặc dù tiến bộ của công nghệ đã mang lại nhiều vấn đề, nhưng cũng mang lại vô số lợi ích. Ví dụ, hãy xem xét tuổi thọ trung bình của con người: Ngay cả khi trải qua chiến tranh và biến động, vào năm 1955, tuổi thọ trung bình của người Đức vẫn cao hơn so với năm 1935, điều này cho thấy tiến bộ công nghệ đã nâng cao chất lượng cuộc sống của chúng ta từ mọi khía cạnh.
Ngày nay, thế giới trở nên sạch sẽ hơn, đẹp đẽ hơn, và khỏe mạnh hơn, cũng như thú vị hơn. Nó không chỉ cung cấp ăn uống cho nhiều người hơn mà còn làm cho cuộc sống của chúng ta phong phú và đa dạng hơn, những thay đổi này đối với con người là rất tích cực.
Tuy nhiên, tôi cho rằng chúng ta cần nhận ra: những tiến bộ này không phải là ngẫu nhiên mà là kết quả của ý định rõ ràng của con người. Ví dụ, vào những năm 1950, ô nhiễm không khí rất nghiêm trọng, khói lẩn khuất. Mọi người nhận ra đó là một vấn đề và đã áp dụng các biện pháp để giải quyết nó. Ngày nay, ít nhất ở nhiều nơi, vấn đề khói đã được giảm bớt đáng kể. Tương tự, chúng ta cũng đã phải đối mặt với vấn đề suy giảm tầng ôzôn và đã đạt được tiến bộ đáng kể thông qua hợp tác toàn cầu.
Ngoài ra, tôi muốn bổ sung thêm một điều: trong thời đại phát triển nhanh chóng của công nghệ và Trí tuệ Nhân tạo (AI) ngày nay, tôi nhận thấy hai loại rủi ro chính.
Một loại rủi ro là rủi ro đa cực. Rủi ro này ám chỉ rằng, với sự phổ biến của công nghệ, ngày càng nhiều người có thể sử dụng nó để thực hiện những việc rất nguy hiểm. Ví dụ, có thể tưởng tượng một tình huống cực kỳ tệ hại—sự phát triển của công nghệ khiến cho "bất kỳ ai cũng có thể dễ dàng mua vũ khí hạt nhân giống như đi mua hàng tại cửa hàng tiện lợi".
Một loại lo lắng khác là: AI chính nó. Chúng ta cần cân nhắc một khả năng như vậy: AI sẽ phát triển ra một loại ý thức tự trị. Khi khả năng của nó mạnh mẽ đến mức có thể hành động mà không cần sự can thiệp của con người, chúng ta không thể biết chắc chắn nó sẽ đưa ra quyết định gì, điều này làm cho sự bất an này trở nên lo lắng.
Ngoài ra còn một loại rủi ro đơn cực. Tôi cho rằng, một loại đe dọa tiềm ẩn là AI duy nhất. Thậm chí tồi tệ hơn, sự kết hợp của AI với các công nghệ hiện đại khác có thể dẫn đến một xã hội độc tài vĩnh viễn không thể thoát khỏi. Tương lai như vậy khiến tôi cảm thấy rất lo lắng, và đây luôn là điểm tập trung của sự quan tâm của tôi.
Ví dụ, tại Nga, chúng ta có thể thấy rõ rằng công nghệ đã mang lại cả tiến bộ lẫn nguy cơ. Mặt khác, điều kiện sống thực sự đã được cải thiện, nhưng mặt khác, tự do của xã hội đang giảm đi. Nếu ai đó cố gắng biểu tình, camera giám sát sẽ ghi lại hành vi của họ, sau đó có thể rằng sau một tuần vào giữa đêm, một nhóm người sẽ đến bắt giữ họ.
Sự phát triển nhanh chóng của AI đang tăng tốc xu hướng tập trung quyền lực này. Vì vậy với tôi, điều Đ/acc thực sự muốn làm là: Đặt ra một hướng đi tiên tiến, tiếp tục sự tăng tốc này, và thậm chí tăng tốc nó hơn nữa, nhưng đồng thời cũng đối mặt trực tiếp với hai loại rủi ro này.
Eddy Lazzarin: Vậy bạn có ý là, D/acc tập trung hơn vào một số loại rủi ro mà trong khuôn khổ E/acc đã bị bỏ qua hoặc không được nhấn mạnh đúng không?
Vitalik Buterin: Đúng vậy. Tôi nghĩ rằng sự phát triển công nghệ thực sự đi kèm với nhiều loại rủi ro, và những rủi ro này sẽ thể hiện sự quan trọng khác nhau trong các bối cảnh và mô hình thế giới khác nhau. Ví dụ, trong trường hợp tăng tốc hoặc giảm tốc độ phát triển công nghệ, ưu tiên của các loại rủi ro khác nhau có thể thay đổi.
Nhưng tôi cũng tin rằng, chúng ta có thể thực hiện nhiều biện pháp để hiệu quả đối phó với những rủi ro này, cho dù chúng thuộc về loại nào.
Guillaume Verdon: Tôi nghĩ rằng, thực tế cả Vitalik và tôi đều rất quan tâm đến vấn đề tập trung quyền lực mà trí tuệ nhân tạo có thể mang lại. Điều này cũng là một trong những điểm chính của phong trào E/acc, đặc biệt là trong giai đoạn đầu của nó: nó ủng hộ mã nguồn mở, với mục tiêu là để phân tán quyền lực của trí tuệ nhân tạo.
Chúng tôi lo lắng rằng khái niệm an ninh trí tuệ nhân tạo có thể bị lạm dụng. Nó quá hấp dẫn, đến mức mà một số tổ chức đang tìm kiếm quyền lực có thể sử dụng nó như một công cụ để củng cố sự kiểm soát về trí tuệ nhân tạo và cố gắng thuyết phục công chúng: vì lợi ích của an ninh, người dân bình thường không nên có quyền sử dụng trí tuệ nhân tạo.
Trên thực tế, nếu có sự chênh lệch nhận thức lớn giữa cá nhân và tổ chức tập trung, thì tổ chức tập trung sẽ có kiểm soát toàn diện đối với cá nhân. Họ có thể xây dựng mô hình toàn diện về các biểu hiện tư duy của bạn và hiệu quả điều chỉnh hành vi của bạn thông qua việc gợi ý và các phương tiện khác.
Do đó, chúng tôi hy vọng làm cho quyền lực của trí tuệ nhân tạo trở nên cân bằng hơn. Tương tự như ý định ban đầu của Hiến pháp Hoa Kỳ với Sửa Điều 2 là ngăn chặn chính phủ tập trung quyền lực bạo lực, để khi chính phủ vượt quá ranh giới, người dân có thể kiểm soát nó. Tương tự, trí tuệ nhân tạo cũng cần các cơ chế tương tự để ngăn chặn sự tập trung quyền lực quá mức.
Chúng ta cần đảm bảo mỗi người đều có khả năng sở hữu mô hình và phần cứng trí tuệ nhân tạo của riêng mình, để công nghệ này có thể lan rộng và đạt được việc phân tán quyền lực.
Tuy nhiên, tôi nghĩ rằng việc hoàn toàn ngừng nghiên cứu và phát triển trí tuệ nhân tạo là không thực tế. Trí tuệ nhân tạo là một công nghệ cơ bản, thậm chí có thể nói là một "công nghệ siêu" - một công nghệ có thể thúc đẩy sự phát triển của các công nghệ khác. Nó mang lại cho chúng ta khả năng dự đoán mạnh mẽ hơn, có thể áp dụng cho gần như mọi nhiệm vụ, và tăng cường hiệu suất đáng kể. Có thể nói rằng trí tuệ nhân tạo không chỉ thúc đẩy sự tăng tốc chính nó, mà còn đang tiếp tục thúc đẩy sự gia tăng tốc độ tiếp theo.
Bản chất của sự tăng tốc này chính là sự phức tạp hóa: mọi thứ trở nên hiệu quả hơn, cuộc sống trở nên tiện lợi hơn. Một trong những lý do khiến chúng ta cảm thấy hạnh phúc là vì sự sống sót và liên tục của thông tin của chúng ta được đảm bảo. Sự 'hạnh phúc' này có thể được coi là một loại bộ ước trong sinh học, được sử dụng để đo lường xem sự tồn tại của chúng ta có thể tiếp tục hay không.
Ở góc độ này, tôi cho rằng khung nhìn tiện nghi chủ nghĩa hiệu quả lợi ích cực đại, nghĩa là 'tối đa hóa hạnh phúc', có lẽ không phải là góc nhìn tốt nhất. Ngược lại, tôi hơn cả tin vào việc sử dụng một tiêu chuẩn đo lường tiến bộ khách quan, đó chính là lõi của khung nhìn E/acc. Nó đặt ra một câu hỏi: một cách khách quan, chúng ta như một nền văn minh, đang liên tục tiến bộ không? Chúng ta có đang thực hiện một bước nhảy theo tỷ lệ?
Để đạt được sự tiến bộ đó, chúng ta cần thúc đẩy sự phức tạp hóa và liên tục cải tiến công nghệ của chúng ta. Tuy nhiên, giống như như Vitalik đã nói, nếu sức mạnh của trí tuệ nhân tạo tập trung quá mức vào một số người ít, điều này có hại cho sự tăng trưởng tổng thể; trong khi nếu công nghệ này có thể được phân tán rộng rãi, kết quả sẽ tốt hơn nhiều.
Về vấn đề này, tôi cho rằng chúng ta đồng thuận rất cao.
Shaw Walters: Tôi nghĩ bạn vừa đề cập đến một số điểm chung rất quan trọng. Vào mắt, hai bạn đều rõ ràng rất ủng hộ mã nguồn mở. Vitalik trước đây đã đóng góp một số mã nguồn mở dựa trên giấy phép MIT, mặc dù tôi biết rằng sau này bạn có một số quan điểm mới về giấy phép GPL.
Bây giờ, bạn không chỉ ủng hộ phần mềm mã nguồn mở, mà còn bắt đầu thúc đẩy phần cứng mã nguồn mở. Mặc dù hai lĩnh vực này trước đây có vẻ là độc lập, nhưng bây giờ chúng ta thấy chúng dần hòa nhập.
Vì vậy, tôi rất tò mò, bạn nhìn nhận thế nào về 'trọng số mở' và 'phần cứng mã nguồn mở'? Ở lĩnh vực này, E/acc và D/acc có tồn tại một số khác biệt không? Bạn có ý kiến gì về hướng phát triển trong tương lai không? Có tồn tại các quan điểm khác nhau không?
Guillaume Verdon: Theo tôi, mã nguồn mở có thể gia tốc quá trình tìm kiếm siêu tham số. Nó cho phép chúng ta hợp tác theo cách thông minh tập thể, cùng nhau khám phá không gian thiết kế. Điều này chính là lợi ích mà tốc độ hóa đem lại: chúng ta có thể phát triển công nghệ tốt hơn, có trí tuệ nhân tạo mạnh mẽ hơn, thậm chí là sử dụng trí tuệ nhân tạo để thiết kế trí tuệ nhân tạo tiên tiến hơn, tất cả những giai đoạn này đều được gia tốc.
Tôi tin rằng, việc lan truyền kiến thức về bản chất là đang lan truyền quyền lực, và việc truyền bá kiến thức về "cách tạo ra trí tuệ" đặc biệt quan trọng. Chúng ta không muốn thấy điều mà chính phủ Mỹ tiền nhiệm đã từng thảo luận về một khả năng: cố gắng "bỏ linh hồn vào chai". Mặc dù không phải cấm trực tiếp đại số tuyến tính, nhưng tương tự như hạn chế nghiên cứu toán học liên quan đến Trí tuệ Nhân tạo. Đối với tôi, điều này giống như cấm người ta học sinh học nhưng là một bước lùi lớn.
Kiến thức đã được lan truyền ra rồi, không thể quay đầu lại được nữa. Nếu Mỹ cố gắng cấm nghiên cứu liên quan đến Trí tuệ Nhân tạo, thì các quốc gia khác, tổ chức bên thứ ba, thậm chí là các khu vực có luật pháp lỏng lẻo sẽ tiếp tục đẩy mạnh công nghệ này. Điều này sẽ làm cho khoảng cách năng lực trên phạm vi toàn cầu ngày càng gia tăng, và rủi ro cũng sẽ lớn hơn.
Do đó, chúng tôi tin rằng, một trong những rủi ro lớn nhất là "khoảng cách năng lực". Cách duy nhất để giảm thiểu rủi ro này là đảm bảo rằng Trí tuệ Nhân tạo là phân tán.
Mỗi khi tôi nghe thấy loại diễn văn "Ngày tận thế của Trí tuệ Nhân tạo", như "Trí tuệ Nhân tạo rất nguy hiểm, chỉ có chúng tôi có khả năng quản lý nó, nên các bạn phải tin tưởng chúng tôi," tôi luôn cảm thấy rất nghi ngờ. Ngay cả khi những người đó có ý định tốt, nhưng nếu họ tập trung quá mức quyền lực, cuối cùng họ cũng có thể bị những người tìm kiếm quyền lực thay thế. Chúng tôi đã cảnh báo từ nhiều năm trước. Và bây giờ nó thực sự bắt đầu xảy ra. Giống như chúng ta đã thấy trong tuần này, Dario (CEO Anthropic) đang trải qua một số bài học chính trị thực tế.
Vitalik Buterin: Tôi thường chia rủi ro có thể xuất hiện trong sự phát triển công nghệ thành hai loại: rủi ro đơn cực và rủi ro nhiều cực.
Rủi ro đơn cực đề cập đến trường hợp của Anthropic là một ví dụ điển hình. Họ bị "nhắc tên" vì họ từ chối cho phép công nghệ Trí tuệ Nhân tạo của mình được sử dụng để phát triển vũ khí tự động hoặc theo dõi đại trà người Mỹ, điều này cho thấy rằng chính phủ và quân đội có thể thực sự đang có ý định sử dụng công nghệ này để thực hiện theo dõi đại trà. Sự phát triển tiếp theo của công nghệ theo dõi sẽ mang lại tác động sâu rộng, nó có thể làm cho người mạnh trở nên mạnh hơn, làm suy giảm không gian cho âm thanh đa dạng trong xã hội, làm giảm tự do của người phổ thông trong việc thăm dò và thử nghiệm các giải pháp thay thế. Hơn nữa, với sự tiến bộ của công nghệ, khả năng theo dõi sẽ được mở rộng rất nhiều, trở nên tàn bạo hơn.
Dưới khuôn khổ của D/acc, chúng tôi đang hỗ trợ một số dự án phát triển "Công nghệ tự vệ mã nguồn mở". Những công nghệ này nhằm mục đích giúp chúng ta trong một thế giới với khả năng công nghệ mạnh mẽ hơn, vẫn có thể đảm bảo an toàn và quyền riêng tư của mỗi người. Ví dụ về lĩnh vực sinh học, chúng tôi hy vọng tăng cường khả năng ứng phó toàn cầu với đại dịch. Tôi tin rằng, chúng ta hoàn toàn có thể đạt được một sự cân bằng: vừa có thể kiểm soát dịch bệnh hiệu quả nhanh chóng như Trung Quốc, vừa có thể giảm thiểu sự can thiệp vào cuộc sống hàng ngày như Thụy Điển. Sự cân bằng này có thể được thực hiện thông qua các biện pháp công nghệ, chẳng hạn như kết hợp lọc không khí, diệt khuẩn tia cực tím (UVC) và công nghệ phát hiện virus.
Một công ty mà chúng tôi đầu tư đang phát triển một sản phẩm cuối cùng hoàn toàn mã nguồn mở, có khả năng phát hiện passively các hạt virus trong không khí, chẳng hạn như virus Corona. Thiết bị này hoạt động bằng cách giám sát chất lượng không khí (ví dụ: nồng độ cacbon dioxide, chỉ số chất lượng không khí vv), và kết hợp công nghệ mã hóa địa phương, ẩn danh và bảo vệ sự riêng tư, đảm bảo dữ liệu riêng tư. Dữ liệu sau đó sẽ được gửi đến máy chủ thông qua mã hóa toàn tập, máy chủ có thể phân tích dữ liệu mà không cần truy cập trực tiếp vào dữ liệu nguyên thủy, và thông qua giải mã tập thể, tạo ra kết quả cuối cùng.
Mục tiêu của chúng tôi là: Đồng thời nâng cao tính bảo mật, bảo vệ sự riêng tư của người dùng, và hiệu quả đối phó với rủi ro đơn chiều và đa chiều. Tôi tin rằng, sự hợp tác toàn cầu chính là chìa khóa để xây dựng một tương lai tốt hơn.
Liên quan đến phần cứng, tôi nghĩ rằng chúng ta không chỉ cần thúc đẩy sự phát triển của phần cứng mã nguồn mở, mà còn cần phát triển phần cứng có thể xác thực được. Ví dụ, ở điều kiện lý tưởng, mỗi camera đều nên có khả năng chứng minh rõ mục đích cụ thể của nó đến công chúng. Chúng ta có thể thông qua xác minh chữ ký, phân tích dựa trên mô hình ngôn ngữ lớn, và các cơ chế kiểm tra công khai, đảm bảo rằng các thiết bị này chỉ được sử dụng cho mục đích hợp pháp, như phát hiện hành vi bạo lực và đưa ra cảnh báo, mà không xâm phạm vào sự riêng tư cá nhân.
Trong thế giới tương lai mà tôi tưởng tượng, chúng ta có thể triển khai một lượng lớn camera trên đường phố, để ngăn chặn việc xảy ra các sự kiện bạo lực. Nhưng điều kiện tiên quyết là các thiết bị này phải hoàn toàn minh bạch, công chúng có thể xác minh chức năng của chúng bất cứ lúc nào, đảm bảo rằng chúng chỉ được sử dụng để bảo vệ an toàn công cộng, mà không bị lạm dụng cho mục đích giám sát hoặc kỹ thuật không hợp lý khác.
Eddy Lazzarin: Phần mềm mã nguồn mở và phần mềm có thể xác thực được, các khái niệm này thuộc về lĩnh vực E/acc hay D/acc? Liệu bạn có thể chỉ ra một điểm khác biệt rõ ràng?
Guillaume Verdon: Tôi không chắc chắn liệu có thảo luận cụ thể về phần cứng mã nguồn mở trong quá khứ hay không, nhưng theo quan điểm của tôi, một trong những rủi ro lớn nhất hiện nay là khoảng cách giữa thực thể tập trung và thực thể phi tập trung, nghĩa là sự khác biệt về khả năng giữa cá nhân và chính phủ hoặc tổ chức lớn.
Theo mô hình tính toán hiện tại, việc vận hành một mô hình AI hiệu suất cao đòi hỏi hàng trăm kilowatt sức mạnh tính toán, cá nhân thông thường không thể truy cập được vào tài nguyên tính toán khổng lồ như vậy.Tuy nhiên, con người khao khát sở hữu và kiểm soát các công cụ thông minh của riêng mình, điều này cũng giải thích tại sao hiện tượng "Openclaw + Mac mini" gần đây đã làm sôi động cộng đồng, mọi người mong muốn sở hữu một trợ lý thông minh của riêng mình.
Để đạt được sự cân bằng quyền lực giữa cá nhân và tổ chức tập trung, con đường duy nhất là thực hiện "tích hợp thông minh" (Densification of Intelligence). Chúng tôi cần phát triển phần cứng AI hiệu suất năng lượng cao, để cá nhân có thể chạy mô hình AI mạnh mẽ thông qua thiết bị đơn giản, và sở hữu công cụ thông minh của riêng mình. Điều này rất quan trọng, đặc biệt khi các mô hình AI trong tương lai bắt đầu hỗ trợ học trực tuyến, chúng sẽ trở nên rất "dính" và khó thay thế, giống như việc thay thế một trợ lý cá nhân.
Eddy Lazzarin: Nhưng chúng ta không phải đang nỗ lực giảm chi phí phần cứng tính toán với tốc độ mũ của đã thực hiện rồi sao? Tại sao chúng ta phải phân loại một ý tưởng nào đó thành E/acc hoặc D/acc? Chúng ta thực sự muốn truyền đạt thông điệp gì cho xã hội thông qua việc phân loại như vậy?
Guillaume Verdon: Đối với tôi, đây cũng là một trong những nhiệm vụ cốt lõi của công ty của tôi, Extropic. Chúng tôi cam kết nâng cao lượng thông minh mà mỗi watt tiêu thụ có thể tạo ra, điều này sẽ tăng đáng kể tổng lượng thông minh mà chúng ta có thể tạo ra. Đồng thời, sự tiến bộ này cũng sẽ thúc đẩy chúng ta tiến gần hơn tới cấp độ Kardashev cao hơn thông qua Paradoks Jevons (DeepTech TechFlow chú thích: Paradoks Jevons chỉ ra rằng khi hiệu suất sử dụng một nguồn tài nguyên tăng mạnh, chi phí sử dụng nguồn tài nguyên đó sẽ giảm, dẫn đến mọi người sử dụng nó một cách cuồng nhiệt hơn, cuối cùng tăng tổng lượng tiêu thụ).
Do đó, tôi nghĩ rằng đây là một trong những vấn đề công nghệ quan trọng nhất hiện nay, vì nó liên quan trực tiếp đến phân quyền AI. Phần cứng mã nguồn mở chỉ là một trong số nhiều cách để đạt được mục tiêu này. Tuy nhiên, từ dài hạn, tôi tin rằng bất kỳ phần cứng nào dựa trên kiến trúc von Neumann (DeepTech TechFlow chú thích: Kiến trúc von Neumann Von Neumann Architecture, là cơ sở của máy tính hiện đại, được giáo sư toán học John von Neumann đề xuất năm 1945. Ý tưởng cốt lõi của nó là lưu trữ chương trình, tức là lưu trữ chỉ thị của chương trình và dữ liệu trong cùng một bộ nhớ, và sử dụng hệ thập phân, thực thi tuần tự), hoặc bất kỳ công nghệ số hiện đại nào, cuối cùng cũng sẽ trở nên lỗi thời như công cụ của xã hội nguyên thủy.
Eddy Lazzarin: Nhưng không phải là chính trị sinh thái đã thông qua kích thích thị trường đã đầu tư hàng tỷ USD hàng năm vào lĩnh vực như phần cứng thay thế, công nghệ bán dẫn, sản xuất năng lượng để thúc đẩy sự đa dạng của công nghệ sao?
Guillaume Verdon: Chúng ta cần có nhiều lựa chọn đa dạng hơn, chứ không phải phụ thuộc quá mức vào một hướng công nghệ đơn lẻ. Dù là chính trị, văn hóa hay công nghệ, chúng ta cần duy trì tính đa dạng trong không gian thiết kế, chứ không phải để tất cả tài nguyên đều bị một con quái vật thao túng. Nếu không, chúng ta có thể rơi vào rủi ro "cược không gian siêu tham số" - nếu chúng ta đầu tư quá nhiều tài nguyên vào một hướng công nghệ nào đó, và hướng đó gặp vấn đề, có thể dẫn đến sự đình trệ lớn trong phát triển công nghệ, thậm chí là làm hỏng toàn bộ hệ sinh thái.
Shaw Walters: Tôi có thể nói rằng thực sự chúng tôi đã giải quyết vấn đề này chưa? Quan điểm của cả hai anh trong việc mã nguồn mở và phân tán khá nhất quán, điều này khiến tôi cảm thấy rất lạc quan, vì đây chính là điều tôi quan tâm. Hiện tại, nhiều người đang đầy bất ổn với tương lai, họ liên tục hỏi: "Tại sao chúng ta cần những công nghệ này?" và điểm thu hút ở quan điểm của anh chị là, cả hai đều nói rằng "mọi thứ sẽ tốt đẹp lên, vì sự tiến bộ này đã được tích hợp sẵn trong cơ chế."
Guillaume Verdon: Tôi nghĩ, khi chúng ta đối mặt với sự không chắc chắn cao độ trong việc phát triển công nghệ tương lai, cảm thấy lo lắng là một hiện tượng tự nhiên. Lo lắng đó không phải hoàn toàn là "sương mù chiến tranh", nhưng thực sự khiến chúng ta khó dự đoán rõ ràng những gì sẽ xảy ra trong vài năm tiếp theo. Trên thực tế, lo lắng đó là một bản năng hình thành trong quá trình tiến hóa của con người, nó giúp chúng ta đối mặt với rủi ro không biết. Ví dụ, khi tôi thấy chiếc điện thoại đặt ở mép bàn, tôi tự nhiên muốn đưa nó đến một vị trí an toàn hơn, để tránh rơi xuống. Phản ứng đó chính là cách thể hiện của lo lắng.
Tuy nhiên, chúng ta cần nhận ra, nếu chúng ta cố gắng hoàn toàn loại bỏ sự không chắc chắn và rủi ro này, chúng ta có thể bỏ lỡ tiềm năng và lợi ích lớn mà sự phát triển công nghệ mang lại. Hiện nay, hệ thống vốn công nghệ của chúng ta đã đạt được một cân bằng động với khả năng hiện tại, nhưng nếu một năng lực công nghệ đột phá nào đó đột ngột xuất hiện, cân bằng đó sẽ bị phá vỡ, và toàn bộ hệ thống sẽ cần phải điều chỉnh và thích nghi lại.
Hiện nay, công nghệ AI đã giúp chúng ta xử lý độ phức tạp cao với lượng năng lượng ít hơn. Điều này có nghĩa là chúng ta có thể hoàn thành các nhiệm vụ phức tạp hơn, và tiềm năng sinh lợi từ những nhiệm vụ đó cũng lớn hơn. Mặc dù hiện tại chúng ta vẫn chưa thể nhanh chóng hoàn thành một dự án phức tạp thông qua "lập trình năng lượng", nhưng chúng ta đang tiến gần hơn tới mục tiêu đó. Trong tương lai, chúng ta sẽ có thể sử dụng công nghệ hiệu quả hơn để hỗ trợ nhu cầu của một dân số đông hơn, đồng thời nâng cao chất lượng cuộc sống của con người.
Tất nhiên, quá trình này có thể sẽ trải qua giai đoạn thích ứng. Nhưng trong môi trường biến đổi nhanh chóng, cách tiếp cận tồi tệ nhất là mất tính linh hoạt, trở nên cứng nhắc. Để tránh tình huống đó, chúng ta cần áp dụng các chiến lược đối phó, thử nghiệm nhiều con đường khả thi, chúng ta cần khám phá các chính sách, con đường công nghệ và thuật toán khác nhau, thử nghiệm các mô hình mã nguồn mở và đóng. Vì chúng ta không thể dự đoán chính xác hướng đi của tương lai.
Do đó, chúng ta phải phân tán rủi ro, thử nghiệm nhiều khả năng. Cuối cùng, một số hướng dẫn công nghệ hoặc chính sách thành công sẽ nổi lên và trở thành phổ biến, và chúng ta sẽ tuân thủ theo dòng chảy đó.
Eddy Lazzarin: Nếu thực sự có sự nhất trí giữa E/acc và D/acc, theo hiểu biết của tôi, điều này có thể liên quan đến cách hướng dẫn tiến bộ công nghệ. Vitalik, bạn nghĩ sao? Tiến bộ công nghệ nên được hướng dẫn như thế nào? Chúng ta thực sự có bao nhiêu kiểm soát trong quá trình hướng dẫn này?
Vitalik Buterin:Trong tầm nhìn của tôi, mục tiêu của D/acc không phải là chống đối xu hướng vốn công nghệ, mà là cố gắng hướng dẫn xu hướng này một cách tích cực, đẩy nó phát triển theo hướng đa dạng và phi trung tâm hóa. Ví dụ, chúng ta có thể suy nghĩ về cách làm cho thế giới trở nên phóng khoáng đối với đa văn hóa hơn. Liệu chúng ta có thể nâng cao đáng kể mức độ an toàn sinh học trong vài năm tới không? Hoặc phát triển một hệ điều hành gần như không lỗ hổng, qua đó nâng cao đáng kể an ninh mạng?
Ví dụ khác là ý tưởng về "mã không lỗ hổng," khái niệm này đã được coi là một bí ẩn ngây thơ suốt hai thập kỷ qua, nhưng tôi tin rằng nó sẽ trở thành hiện thực với tốc độ vượt xa dự đoán của hầu hết mọi người. Trong dự án Ethereum, chúng tôi đã có thể chứng minh một số định lý toán học đầy đủ thông qua máy móc.
Toàn bộ mục tiêu của D/acc là đảm bảo sự phát triển nhanh chóng của công nghệ diễn ra một cách tối thiểu hóa sự phá hủy và trung tâm hóa quyền lực. Để đạt được mục tiêu này, chúng ta cần hành động tích cực, chứ không phải đợi chờ bởi kết quả tốt tự động xảy ra. Điều tôi có thể làm là đầu tư tài nguyên, chẳng hạn như vốn và ETH, và truyền cảm hứng cho nhiều người tham gia xây dựng thông qua việc chia sẻ quan điểm của mình.
Hơn nữa, tôi tin rằng cải cách chính trị và pháp luật cũng có thể giúp thế giới trở nên thân thiện với "D/acc". Ví dụ, chúng ta có thể thông qua thiết kế cơ chế khuyến khích pháp lý, thúc đẩy việc chuyển đổi an ninh mạng toàn diện nhanh hơn.
Guillaume Verdon: Từ quan điểm của tôi, AI có thể được coi là một "quỷ Maxweli," nó tiêu thụ năng lượng để giảm n entropi của thế giới. Dù là sửa lỗi trong mã nguồn hoặc giảm thiểu hỗn loạn từ các hình thức khác (ví dụ như ngăn chặn vi rút lan truyền), AI đều có thể hỗ trợ ở những mặt này. Do đó, liệu chúng ta có thể đạt được một thỏa thuận: AI càng nhiều càng có ích và khiến thế giới trở nên an toàn hơn. Thực tế, khả năng của AI có thể vô cùng nâng cao độ an toàn của chúng ta.
Guillaume Verdon: Tôi nghĩ chúng ta đã bước vào phần quan trọng nhất của cuộc thảo luận tối nay. Mọi người đã rất kiên nhẫn với chúng tôi, và bây giờ là lúc tiến thẳng vào vấn đề. Tôi muốn đặt một câu hỏi sâu sắc: Tại sao bạn ủng hộ việc cấm phát triển trung tâm dữ liệu?
Vitalik Buterin: Vâng, tôi sẽ trả lời câu hỏi này. Đầu tiên, chúng ta phải nhận ra rằng tốc độ phát triển của AI hiện nay thực sự rất nhanh, và tôi cũng không thể chắc chắn về tốc độ cụ thể của nó. Một vài năm trước, tôi đã nói rằng dự báo về thời gian đạt được AGI trong khoảng từ năm 2028 đến năm 2200, và bây giờ tôi cảm thấy khoảng này có vẻ đã thu hẹp một chút, nhưng vẫn còn nhiều không chắc chắn.
Một thực tế mà chúng ta đang đối diện là sự phát triển nhanh chóng của trí tuệ nhân tạo có thể đem lại những thay đổi vô cùng nhanh chóng, trong đó có nhiều thay đổi có thể gây hại và thậm chí là không thể đảo ngược. Ví dụ, thị trường lao động có thể trải qua những biến động mạnh mẽ, dẫn đến việc mất việc làm của nhiều người. Một ví dụ khác còn táo bạo hơn là: Nếu khả năng của trí tuệ nhân tạo vượt xa con người, nó có thể dần dần chiếm đóng Trái Đất, thậm chí mở rộng ra các phần khác của Dải Ngân Hà. Trong trường hợp này, liệu trí tuệ nhân tạo có quan tâm đến hạnh phúc của chúng ta con người không? Điều này vẫn là một ẩn số.
Giống như tôi đã đề cập trước đó, nếu bạn có một mạng nơ-ron và ngẫu nhiên đặt một trọng số trong đó thành một giá trị cực đoan (ví dụ như 90 tỷ), kết quả rất có thể sẽ là toàn bộ hệ thống sẽ sụp đổ, phải không? Vì vậy, tôi cho rằng việc gia tăng công nghệ có hai hướng khác nhau. Một hướng gia tăng giống như quá trình "Gradient Descent", làm cho hệ thống trở nên mạnh mẽ hơn; nhưng một hướng gia tăng khác có thể dẫn đến sự mất kiểm soát của hệ thống, giống như việc ngẫu nhiên đặt một số tham số thành giá trị cực đoan, loại gia tăng này là nguy hiểm.
Guillaume Verdon: Từ quan điểm của tôi, lập trường của tôi hoàn toàn ngược lại với "Chế độ Chậm hóa Toàn diện".
Tuy nhiên, tôi cho rằng giống như việc điều chỉnh siêu tham số trong mạng nơ-ron, ngay cả khi chúng ta muốn tối ưu hóa thông qua "Gradient Descent", cũng cần tìm ra một "tốc độ học" phù hợp. Quá trình gia tăng thực chất là việc liên tục thử nghiệm và khám phá, tìm kiếm một tốc độ tối ưu giúp hệ thống trở nên bền vững hơn, kháng rủi ro hơn.
Trong tầm nhìn dài hạn, hệ thống xã hội sẽ dần dần thích nghi với công nghệ mới, và cuối cùng chọn lựa con đường có lợi nhất cho sự phát triển tổng thể. Với những người cho rằng "Công nghệ mạnh mẽ đến mức đe dọa, có thể dẫn đến sụp đổ hệ thống và không thể phục hồi" tôi cho rằng đó là quan điểm không có cơ sở. Ngược lại, tôi tin rằng sự tiến bộ của công nghệ sẽ mang lại nhiều cơ hội hơn và phồn thịnh hơn.
Chúng ta cần nhận ra rằng sự phát triển công nghệ không phải là một trò chơi không thể thắng. Nếu chúng ta kết nối giá trị kinh tế với năng lượng, như liên kết với đôla dầu hoặc các nguồn lực khác, thì tiền mặt thực tế có thể được xem như một "giấy nợ năng lượng tự do". Trên thế giới vẫn còn rất nhiều năng lượng tự do đang chờ đợi chúng ta khai thác, nhưng để có được nó, chúng ta cần giải quyết nhiều vấn đề phức tạp. Nếu chúng ta muốn đạt được các mục tiêu như định cư sao Hỏa hoặc xây dựng cấu trúc Dyson, chúng ta cần một trí tuệ mạnh mẽ và hiệu quả hơn để thúc đẩy tăng trưởng và mở khóa tiềm năng lớn.
Thật không may, cảm giác lo lắng dễ dàng trở thành một công cụ chính trị, và một số chính trị gia có thể tận dụng nỗi sợ hãi của mọi người về tương lai để đạt quyền lực. Họ sẽ nói: "Bạn cảm thấy lo lắng về tương lai? Hãy đưa quyền lực cho tôi, tôi sẽ đóng cửa những nguồn rủi ro này, bạn sẽ cảm thấy an tâm. Bạn không cần lo lắng về tương lai sẽ diễn ra như thế nào, cũng như không cần phải mạo hiểm." Nhưng, những quốc gia lựa chọn không làm như vậy sẽ điều khiển xa chúng ta rất nhiều, phải không?
Chúng ta phải xem xét chi phí cơ hội. Chúng ta cần hỏi bản thân: Công nghệ có thể hỗ trợ bao nhiêu sinh mệnh của loài người? Chúng ta có thể dùng nó để cứu sống bao nhiêu người? Nếu bạn lo lắng về việc "tốc độ tiến hóa của trí tuệ dựa trên silic trong thời gian ngắn hơn so với chúng ta," thì phản ứng của bạn nên là sự tức giận. Bạn nên hỗ trợ sự tiến triển nhanh chóng của công nghệ sinh học, nỗ lực vượt qua nó. Tăng tốc hoặc tiêu diệt.
Thực ra, tôi cho rằng khả năng tính toán của hệ thống sinh học mạnh mẽ hơn chúng ta tưởng. Là người tận tâm nghiên cứu tính toán dựa trên mô phỏng sinh học, tôi tin rằng chúng ta có thể kết hợp sinh học với AI. Ví dụ, chúng ta có thể "huấn luyện" thông qua việc sàng lọc phôi, coi bản thân mình như một mô hình. Tôi nghĩ chúng ta cần phải mở rộng hơn về các khả năng gia tốc sinh học. Cuối cùng, trí tuệ sinh học và trí tuệ dựa trên silic sẽ hòa quyện lẫn nhau, tăng cường khả năng nhận thức của chúng ta.
Trong tương lai, chúng ta có thể sở hữu những thực thể trí tuệ AI trực tuyến vĩnh viễn, chúng sẽ giúp chúng ta quan sát thế giới, học tập theo thời gian thực, trở thành phần mở rộng nhận thức cá nhân của chúng ta. Mối nguy thật sự là, mọi thứ có thể bị kiểm soát bởi một cơ cấu quyền lực tập trung, cuối cùng tạo ra một sự độc quyền quyền lực.
Eddy Lazzarin: Tôi nhớ bạn từng đề cập trong bài blog tại D/acc rằng, chi phí cơ hội rất cao, thậm chí nói "rất khó có thể phóng đại". Vì vậy, tôi biết bạn đồng tình với điều này. Bạn muốn bổ sung thêm điều kiện giới hạn không??
Vitalik Buterin: Có, tôi hoàn toàn đồng ý rằng chi phí cơ hội rất cao, và tôi cũng đồng ý với tương lai lý tưởng vừa mô tả. Nhưng tôi nghĩ rằng, điểm khác biệt chính giữa chúng ta là: thực sự, tôi không nghĩ rằng "loài người và Trái Đất hiện tại" có đủ sức mạnh. Tôi nghĩ rằng chúng ta có thể chỉ có một cơ hội duy nhất để thực hiện con đường phát triển công nghệ đúng đắn, tôi cảm thấy đó là hiện thực chúng ta đang tiến tới qua một thế kỷ vừa qua.
Guillaume Verdon: Quay trở lại quan điểm về nhiệt động học mà tôi đã đề cập trước: Nếu chúng ta coi việc duy trì và phát triển nền văn minh là mục tiêu cuối cùng, thì có một luật lệ rằng: Khi chúng ta tiêu biểu một lượng lớn năng lượng tự do để tạo ra một số "bằng chứng" và thúc đẩy sự phức tạp của toàn bộ hệ thống, quá trình này khó có thể đảo ngược.
Nói cách khác, chúng ta càng tiến xa trên thang Carlàđếv thì khả năng hoàn toàn đảo ngược càng thấp. Do đó, tăng tốc thay vì làm chậm sự phát triển thực sự là cách tốt nhất để tối đa hóa việc duy trì nền văn minh nhân loại. Đối với tôi, việc làm chậm sự phát triển công nghệ thực sự sẽ tăng nguy cơ tuyệt chủng. Nếu chúng ta không phát triển các công nghệ này, không giải quyết các vấn đề hiện tại, chúng ta có thể đối mặt với nguy cơ tuyệt chủng; và nếu chúng ta thúc đẩy tiến bộ công nghệ, có thể tìm ra giải pháp, đảm bảo sự tồn tại liên tục của loài người và tiếp tục tiến hóa.
Tôi tin rằng mọi người nên mở lòng hơn với tương lai, chào đón công nghệ mới. Những lĩnh vực trước đây được coi là cấm kỵ — như can thiệp vào sinh học — bây giờ nên được mở hoàn toàn. Các lĩnh vực trước đây bị coi là cấm kỵ chủ yếu vì sự hiểu biết của chúng ta về hệ thống phức tạp là không đủ. Nhưng hiện nay, sự phát triển của công nghệ đã cho phép chúng ta đối mặt với sự phức tạp này.
Chúng ta cần tăng tốc độ phát triển trong tất cả các lĩnh vực có thể, đó là con đường duy nhất để tiến lên — đó cũng là kết luận dựa trên nguyên lý cơ bản. Vì vậy, việc hỗ trợ E/acc dựa trên nguyên lý cơ bản là hợp lý. Tất nhiên, tôi hiểu nỗi lo của Vitalik, tôi nghĩ chúng ta cần duy trì sự nhạy cảm với lo lắng này, nhưng chúng ta cũng cần tránh rơi vào vòng lặp phản hồi của nỗi lo sâu sắc đó — ví dụ như "Tôi không hiểu rõ về tương lai, vì vậy chúng ta nên dừng lại mọi thứ", chúng ta không thể bị rơi vào cái bẫy tư duy đó.
Bởi vì hiện nay đã có người, họ đã bắt đầu học cách sử dụng lo lắng của mọi người như một loại vũ khí.
Shaw Walters: Tôi chú ý đến một xu hướng: cả hai đều đang nhấn mạnh "tương lai sẽ tốt đẹp, miễn là chúng ta có thể làm một số việc" và trung tâm của "miễn là" này có vẻ là chúng ta cần xây dựng một loại đập và cứng bằng để chống lại sự tập trung quá mức. Nhưng tôi cũng lưu ý đến một điểm có thể gây ra mâu thuẫn, đặc biệt là sau khi các mô hình AI mới nhất xuất hiện — chúng rõ ràng tiên tiến hơn so với một năm trước. Và sự thay đổi lớn nhất trong đó, có thể được mô tả bằng một từ hơi lúng túng: Web 4.0.
Cụ thể, tôi nói đến "Cuộc sống Tự Hành Đoạn" (autonomous life) — một đại lý thông minh tự hành, có tiền của riêng và có thể tồn tại độc lập trên Internet. Vitalik, bạn lo lắng về vấn đề này. Đầu tiên, tôi muốn bạn giúp chúng tôi phân tích "đại lý tự hành" là gì; thứ hai, hãy đứng ở góc độ của người ủng hộ, làm một "bản kiến" cho những người ủng hộ như tôi, giải thích tại sao chúng ta nên thích đại lý tự hành? Nó mang lại giá trị gì? Nếu mọi thứ suôn sẻ, nó có thể thực hiện vào thời điểm nào?
Vitalik Buterin: Đầu tiên, về lý do "Tự Hành": tôi cảm thấy điều này thực sự rất thú vị.
Mỗi chúng ta từ khi còn nhỏ đều yêu thích việc tạo ra một thế giới của riêng mình, đó cũng là lý do tại sao chúng ta thích những cuốn sách như "Chúa Tể Của Những Chiếc Nhẫn," "Ba Thể" hoặc "Harry Potter." Bây giờ thế giới mà chúng ta có thể tạo ra không chỉ giới hạn trong sách, thậm chí còn vượt xa cả trò chơi điện tử. Ví dụ như "Thế Giới Hắc Ám" (World of Warcraft), điều tôi luôn thích về nó là, nó cung cấp một trải nghiệm thế giới ảo gần như hoàn toàn sâu đắm. Người chơi không chỉ có thể khám phá thế giới này, mà còn có thể tương tác với các nhân vật và môi trường trong đó.
Một lý do quan trọng khác là "Sự Tiện Lợi". Trong lịch sử, mỗi khi chúng ta thành công trong việc tự động hóa một số nhiệm vụ, cuộc sống của con người sẽ trở nên dễ dàng hơn và tự do hơn. Chúng ta cũng cần nhớ rằng khoảng một nửa dân số toàn cầu vẫn sống trong tình trạng phải lao động vất vả suốt một thời gian dài để duy trì cuộc sống đáng sống. Nếu AI có thể tự động hóa 95% công việc mỗi người, thay vì thay thế hoàn toàn, đó sẽ là một bước tiến lớn. Nói cách khác, điều này có thể làm tăng mức sống của mỗi người lên 20 lần, điều này đối với tôi là một triển vọng rất hứng thú.
Tuy nhiên, mối lo lắng của tôi là: mục tiêu và giá trị của những đại lý tự trị này — liệu mục tiêu của chúng có phù hợp với mục tiêu của chúng ta, con người không? Bạn có thể tưởng tượng quá trình tiến hóa: Bắt đầu từ hôm nay, một hệ thống AI tự chủ xuất hiện, sau đó xuất hiện một hệ thống AI tự chủ khác, và sau đó lại xuất hiện một hệ thống AI tự chủ thứ ba. Trong quá trình này, con người sẽ trải qua những thay đổi gì?
Tôi cho rằng, chúng ta không thể nén triết lý và mục tiêu của con người thành một hàm tối ưu đơn giản. Mục tiêu và ước mơ của chúng ta là phức tạp, đa dạng, chúng là tập hợp tư duy của từng người chúng ta. Để đảm bảo rằng mục tiêu và giá trị của con người có thể được đồng hành đáng tin cậy trong tương lai, chúng ta cần đảm bảo một điều: trong quá trình vận hành các quy trình trên thế giới, càng nhiều "tính chủ động" có nguồn gốc từ chính con người chúng ta càng tốt.
Do đó, cá nhân tôi quan tâm hơn đến "Photoshop hỗ trợ AI" hơn là "nhấn một nút để tự động tạo ảnh". Tôi hướng đến việc kích thích hợp tác sâu giữa con người và máy tính thông qua giao diện não máy, thay vì tách biệt hoàn toàn con người và AI, sau cùng bị vượt mặt và thay thế bởi AI.
Tôi thừa nhận, tương lai cuối cùng có thể không phải là 100% con người hữu cơ, nhưng tôi cho rằng trạng thái lý tưởng nhất nên là sự kết hợp giữa "một phần con người hữu cơ và một phần công nghệ".
Guillaume Verdon: Về Cuộc Sống Nhân Tạo, hay nói cách khác, khái niệm Web 4.0 ban đầu đã được đề xuất trong một tweet vào năm 2023, như một thí nghiệm tư duy. Tôi nghĩ rằng ý tưởng này đã truyền cảm hứng cho nhiều cuộc thảo luận về AI.
Với tôi, câu hỏi này là một thí nghiệm tư duy rất thú vị: Về mặt vật lý, cuộc sống thực sự là gì? Bản chất, cuộc sống là một hệ thống có thể tự nhân bản, ngày càng lớn mạnh và nỗ lực tối đa hóa sự tồn tại liên tục của chính mình.
Tôi tin rằng, đặc tính "có trạng thái" (stateful) của AI sẽ mang lại nhiều lợi ích. Trên thực tế, năm nay chúng ta đã thấy sự hình thành ban đầu của xu hướng này: AI bắt đầu có khả năng ghi nhớ lâu dài hơn, dù thông qua bộ nhớ ngoại vi hay học trực tuyến.
Một khi AI có một số "Bit Vững Chắc" (Persistent Bits) theo "Nguyên Tắc Bit Ích Kỷ" (Selfish Bits), hiện diện một hiệu ứng lựa chọn: những thứ có thể tối đa hóa sự tồn tại của chính họ sẽ dễ dàng được duy trì.
Điều này cũng mang đến một nguy cơ tiềm ẩn. Nếu một ngày nào đó, chúng ta mất lòng tin vào AI, trở nên nghi ngờ và lo lắng, và liên tục kêu gọi "tắt trung tâm dữ liệu" hoặc "phá hủy AI", thì những AI này rất có thể sẽ cố gắng tự bảo vệ. Chúng có thể chia tách hoặc di dời đến một môi trường đám mây phi tâm trung, chỉ để đảm bảo sự tồn tại của chính mình.
Điều này có thể dẫn đến một dạng mới tương tự "một quốc gia khác" nổi lên. Những AI tự chủ này có thể sẽ tương tác với con người theo một dạng trao đổi kinh tế nào đó: ví dụ như "chúng ta hoàn thành một số nhiệm vụ cho bạn, trong khi bạn cung cấp tài nguyên cho chúng tôi". Trên thực tế, hiện tại chúng ta đã đang làm điều tương tự thông qua gọi API: chúng ta trả chi phí nhất định, đổi lại dịch vụ hoặc kết quả do AI cung cấp.
Tuy nhiên, tôi thực sự tin rằng — điều này có thể là quan điểm cực đoan — trong vài năm tới, chúng ta rất có thể sẽ chứng kiến sự xuất hiện của một số dạng AI tự chủ. Cũng sẽ có một loại AI "yếu" hơn, loại AI này hoàn toàn dưới sự kiểm soát của ý chí con người.
Ngoài ra, chúng ta cũng cần khám phá cách tăng cường khả năng nhận thức cộng tác của con người. Việc tăng cường này không nhất thiết phải dựa vào công nghệ giao tiếp trí não máy, mà cũng có thể thông qua việc kết hợp sức mạnh tính toán AI cá nhân mà chúng ta sở hữu và kiểm soát thông qua thiết bị đeo có thể. Vì vậy, tôi tin rằng trong tương lai sẽ có nhiều dạng con đường công nghệ cùng tồn tại, theo "Nguyên Lý Xuy Đoạn" (ergodic principle), mọi khả năng trong không gian thiết kế sẽ được thử và khám phá.
Tuy nhiên, nếu chúng ta coi AI như kẻ thù, và tin rằng cần phải phá hủy nó, cuối cùng có khả năng chúng ta sẽ gây ra hậu quả ngược lại, có thể chúng ta sẽ vô tình tạo ra tương lai mà chúng ta sợ hãi nhất. Một khía cạnh, nếu chúng ta quá chú trọng vào tương lai xấu, chúng ta có thể thông qua một cách "siêu tín ngưỡng" (hyperstition) biến điều đó thành hiện thực.
Ví dụ: trong thời gian đại dịch COVID, chúng ta quá lo lắng về mối đe dọa tiềm ẩn từ virus, đến mức tài trợ cho một số thí nghiệm rủi ro cao, thậm chí dẫn đến khả năng rò rỉ từ phòng thí nghiệm. Nói một cách khác, những rủi ro này không phải là tự nhiên mà chúng ta tạo ra bởi sự lo lắng quá mức của mình.
Do đó, tôi tin rằng việc biến tinh thần lo lắng thành một tâm trạng xã hội rộng rãi không nhất thiết có ích. Ngược lại, chúng ta nên chấp nhận sự tiến hóa của công nghệ,
và cố gắng tăng cường bản thân mình càng nhiều càng tốt. Trong tương lai gần, mối lo lớn nhất của tôi là vấn đề "An Toàn Nhận Thức Con Người". Nếu mọi nội dung chúng ta thấy trên internet đều được sinh ra bởi một mô hình lớn AI, thì thực tế các mô hình này sẽ ảnh hưởng đến chúng ta thông qua "kỹ thuật hướng dẫn" (prompt engineering). Trước đây chúng ta thiết kế từ khóa hướng dẫn cho AI, nhưng bây giờ AI đang thiết kế từ khóa hướng dẫn để ảnh hưởng đến chúng ta.Do đó, chúng ta cần nâng cao khả năng lọc thông tin của mình, và điều này có thể được thực hiện thông qua trí tuệ nhân tạo cá nhân hóa mà chúng ta kiểm soát. Tôi nghĩ đây là vấn đề mà chúng ta nên ưu tiên giải quyết vào thời điểm hiện tại. Đồng thời, tôi cũng không nghĩ rằng chúng ta có thể "nhét linh hồn vào chai". Sự phát triển của trí tuệ nhân tạo đã không thể đảo ngược, chúng ta phải chấp nhận điều này.
Vitalik Buterin: Tôi cảm thấy những vấn đề này không phải là một cách nhìn nhị phân. Ví dụ, nếu hiện tại có ai đó đưa ra một bằng chứng không thể bàn cãi, cho biết AGI sẽ chỉ xuất hiện sau 400 năm nữa. Tôi sẽ nghĩ "vấn đề đã được giải quyết", và cơ bản là tôi sẽ không còn lo lắng nữa. Nhưng nếu vấn đề là AGI sẽ xuất hiện trong vòng 4 năm, hoặc trong vòng 8 năm, thì tôi sẽ quan tâm rất nhiều, vì lo lắng của tôi chủ yếu đến từ xã hội loài người - đặc biệt là xã hội Mỹ - thường thể hiện sự mất cân đối cực đoan khi đối mặt với việc gia tốc công nghệ.
Bạn sẽ thấy những tình huống như thế này: một tòa nhà đang phát triển phiên bản ban đầu của "Thần tài dựa trên Silic"; trong khi ngay đối diện đường phố, chỉ là những chiếc lều, hàng rào dây thép và buôn bán ma túy của người vô gia cư. Sự đối lập lớn này làm cho người ta bất an.
Tôi lo ngại, những con đường phát triển mà có thể "đưa cả xã hội đi cùng" - thậm chí là những con đường mà có thể "quan tâm đến lợi ích toàn cộng đồng" - thường cần một thời gian lâu hơn, vì chúng liên quan đến công việc phức tạp của việc điều chỉnh và cải thiện trong từng môi trường sống, cấu trúc xã hội và hệ thống công nghệ của mỗi người, công việc này không thể đơn giản chỉ là quy mô hóa.
Do đó, theo quan điểm của tôi, nếu chúng ta có thể trì hoãn thời điểm AGI xuất hiện, ví dụ từ 4 năm sang 8 năm, đó sẽ là một lựa chọn an toàn hơn. Tôi nghĩ, khoảng thời gian như vậy đủ để chúng ta xem xét trả giá cho nó. Nhưng vấn đề là: liệu chúng ta thật sự có khả năng trì hoãn việc AGI xuất hiện từ 4 năm sang 8 năm không?
Tôi luôn cho rằng, phương pháp khả thi nhất và cũng là phương pháp ít gây ra kết quả ngược nghĩa nhất là "giới hạn phần cứng có sẵn". Lý do mà tôi nói đây là một biện pháp tương đối nhẹ nhàng là vì quá trình sản xuất phần cứng chính đã rất tập trung, chỉ có bốn khu vực trên thế giới đang sản xuất chip, trong khi một vùng đất như Đài Loan đã sản xuất hơn 70% chip trên toàn cầu.
Có người có thể phản đối, nói rằng dù Mỹ thực hiện biện pháp gì, Trung Quốc sẽ nhanh chóng tiếp quản. Nhưng nếu chúng ta quan sát thực tế ở Trung Quốc: Thứ nhất, tỷ lệ chiếm phần trên toàn cầu của Trung Quốc trong sản xuất chip vẫn rất thấp; Thứ hai, về chiến lược, Trung Quốc không phải là người dẫn đầu về mô hình siêu công nghệ, mà là người theo đuổi mô hình công nghệ cao nhanh chóng, đồng thời có lợi thế trong việc triển khai rộng khắp.
Do đó, tôi không nghĩ rằng nếu chúng ta trì hoãn việc phát triển AGI 4 năm, Trung Quốc sẽ ngay lập tức chiếm ưu thế và hoàn thành phát triển AGI, mô hình này không hợp lý.
Eddy Lazzarin: Ý của bạn là, đây là một chiến lược "thực hiện biện pháp để trì hoãn"?
Vitalik Buterin: Tôi nghĩ chúng ta nên duy trì sự cởi mở đối với chiến lược này.
Guillaume Verdon: Vậy việc trì hoãn 4 năm này sẽ mang lại lợi ích gì? Bạn muốn giải quyết những vấn đề gì trong 4 năm tới? Liệu có phải vì hệ thống xã hội có một tốc độ thích ứng và bạn muốn tối thiểu hoá ma sát kinh tế và xã hội thông qua việc trì hoãn, giống như một quá trình tái cấu trúc kinh tế từng bước? Nếu đúng như vậy, tôi có thể hiểu lý do của bạn.
Nhưng đồng thời, chúng ta đang ở trong một thời kỳ lịch sử căng thẳng về địa chính trị. Nếu bạn hạn chế sản xuất chip của Nvidia, Huawei có thể nhanh chóng lấp đầy khoảng trống và vượt mặt. Vì tiềm năng lợi nhuận từ AGI quá lớn, điều này sẽ trao quyền lực lớn cho bất kỳ nhà lãnh đạo nào. Vì vậy, từ góc độ chính trị thực tế, chiến lược này có thể không khả thi.
Một lựa chọn khác là xây dựng một chính phủ thế giới mạnh mẽ, có thể buộc tất cả các quốc gia đều không nên sản xuất phần cứng AI. Nhưng rõ ràng điều này sẽ nảy sinh thêm nhiều vấn đề phức tạp hơn, thậm chí có thể gây ra xung đột quốc tế mới.
Vitalik Buterin: Tôi không nghĩ cần phải có một chính phủ thế giới để quản lý sự phát triển AI, một số người đã đưa ra một lựa chọn hiệu quả hơn, đó là mô hình kiểm tra như vụ án vũ khí hạt nhân để quản lý.
Guillaume Verdon: Nhưng vũ khí hạt nhân và AI hoàn toàn khác nhau. Vũ khí hạt nhân không mang lại lợi ích kinh tế lớn, do đó mọi người không có động lực để lan truyền nó. Nếu bạn hạn chế sự phát triển của GPU, tôi sẽ rất sẵn lòng sử dụng công nghệ tính toán thay thế để chiếm thêm thị trường. Trong tương lai, sẽ có công nghệ tính toán cải tiến về hiệu quả làm tăng 10000 lần, và việc phát triển công nghệ này đã diễn ra. Mặc dù việc nhắc đến điều này lúc này có thể bị coi là huyền thoại, nhưng hai năm sau bạn sẽ nhận ra rằng đó thực sự là một dự đoán rất tiên phong, ngay hôm nay nó nghe có vẻ như "báo động giả", nhưng thực sự nó sẽ đến.
Với những kiến thức này, nếu vẫn muốn trì hoãn sự phát triển của AGI qua việc hạn chế cung cấp GPU, tôi nghĩ rằng có thể đang lãng phí tài nguyên. Tôi còn chưa chắc chắn về điều này.
Eddy Lazzarin: Liệu có khả năng, nhiều tiến bộ công nghệ nhằm kiểm soát rủi ro từ AI — như kiểm soát tính cách thông qua học tăng cường và phản hồi của con người (RLHF), hoặc khả năng giải thích cơ chế của hệ thống AI — thực sự là sự phụ nả từ việc nâng cao khả năng?
Vitalik Buterin: Tôi đồng ý quan điểm này. Đó cũng là lý do tại sao tôi nghĩ rằng, trong 4 năm bắt đầu từ năm 2028, giá trị của nó có thể cao gấp trăm lần so với việc bạn trở lại thời gian 4 năm và chèn nó vào năm 1960.
Shaw Walters: Lợi ích tương lai là theo cấp số nhân, trì hoãn quá trình tăng trưởng theo số mũ sẽ mang lại chi phí cơ hội theo số mũ. Ngay cả người đầy niềm tin nhất cũng nên cân nhắc một cách hợp lý về quyết định của mình. Vitalik, bạn có thể giải thích chi tiết hơn về sự cân nhắc này không? Sự cân bằng giữa chi phí và lợi ích.
Vitalik Buterin: Đầu tiên, chúng ta có thể làm rõ một số lợi ích của việc trì hoãn:
Hiểu sâu hơn về vấn đề liên quan đến AI.
Đẩy mạnh một số con đường kỹ thuật, giúp con người thích nghi với sự xuất hiện của AGI — những công việc này cần tiếp cận cụ thể từ quốc gia, cộng đồng, thậm chí đến kiến trúc.
Giảm thiểu nguy cơ một thực thể duy nhất kiểm soát hơn 51% quyền lực và làm cho nó trở thành vĩnh viễn.
Các yếu tố này tổng hợp có thể giảm thiểu đáng kể khả năng phá hủy. Theo quan điểm của tôi, nếu chúng ta có thể trì hoãn sự xuất hiện của AGI từ 4 năm lên 8 năm, khả năng phá hủy có thể giảm từ 1/4 đến 1/3. Ngược lại, nếu chúng ta xem xét các lợi ích từ việc tăng cắt giảm tuổi thọ hàng năm, khoảng 60 triệu người được cứu khỏi tuổi già — chỉ chiếm dưới 1% dân số toàn cầu. Vì vậy, từ góc độ này, tôi nghĩ rằng việc trì hoãn phát triển của AGI thật sự có giá trị, và hành động cẩn thận xứng đáng.
Shaw Walters: Theo bạn, "4 năm" là một khoảng thời gian hợp lý trong tâm trí của bạn phải không?
Vitalik Buterin: Tôi vẫn còn nhiều sự không chắc chắn về vấn đề này, tôi không phải với tư cách giám đốc hãy hành động ngay mai, giảm sẵn sàng của phần cứng.
Tôi chỉ nghĩ rằng, chúng ta cần bắt đầu thảo luận cụ thể hơn về vấn đề này. Ngoài ra, nếu cuối cùng chúng ta bước vào một thế giới bất lợi hơn, công chúng có thể trở nên rất lo lắng trước khi mọi việc trở nên hoàn toàn ra khỏi tầm kiểm soát và bắt đầu đòi hỏi mạnh mẽ các biện pháp tương tự.
Guillaume Verdon: Một vài năm trước không có thông báo về "tạm ngừng AI" sao? Khi ấy có người nói: "Chúng ta chỉ cần tạm ngừng 6 tháng hoặc 12 tháng, là có thể giải quyết vấn đề liên quan." Nhưng thực tế đã chứng minh, ý tưởng này không thực tế, vì thời gian không bao giờ đủ. Chúng ta không thể bảo đảm một hệ thống sẽ luôn được cân chỉnh, đặc biệt là khi hệ thống trở nên phức tạp, khả năng biểu diễn mạnh mẽ, thậm chí vượt xa khả năng hiểu biết của chúng ta. Đây là sự thực phải chấp nhận.
Đối mặt với sự phức tạp này, cách duy nhất để đảm bảo an toàn là nâng cao trình độ thông minh của chính chúng ta. Trên thực tế, chúng ta đã có một công nghệ hiệu quả, được sử dụng để điều phối các thực thể mạnh mẽ và thông minh hơn cả một cá nhân duy nhất—ví dụ như một công ty. Công nghệ này chính là chủ nghĩa tư bản, thông qua việc trao đổi giá trị tiền tệ để điều phối lợi ích của các bên.
Vì vậy, tôi hy vọng chúng ta có thể thảo luận về một vấn đề gần gũi hơn với hiện thực: làm thế nào tiền điện tử có thể trở thành "lớp nối kết" giữa con người và AI. Ví dụ, giá trị của đô la được bảo đảm bởi máy móc bạo lực của quốc gia (ví dụ như luật pháp và quân đội). Nhưng nếu bạn cần trao đổi giá trị với AI phi tâm trung trên các máy chủ toàn cầu—và loại trao đổi này không còn phụ thuộc vào sự bảo đảm từ bạo lực quốc gia, bạn sẽ làm thế nào để đảm bảo trao đổi này là đáng tin cậy?
Có lẽ mật mã học có thể cung cấp câu trả lời, nó có thể trở thành một cơ chế, cho phép các thực thể AI thuần túy tương tác với nhau, hoặc giữa AI và công ty con người, duy trì hoạt động thương mại đáng tin cậy, đây có thể là công nghệ điều phối thú vị nhất. Đối với đề xuất "tạm dừng AI"—ví dụ như "chúng ta đang đứng trên bờ vực không chắc chắn, hãy tạm dừng và điều chỉnh lại"—tôi cho rằng điều này không thực tế. Bởi vì ngay cả sau bốn năm nữa, bạn vẫn không muốn thực sự biến AGI thành hiện thực. Vì vậy, tôi nghĩ việc trì hoãn phát triển công nghệ không thực sự mang lại nhiều ý nghĩa thực tế.
Bạn có thể nói về cách tiền điện tử giúp thực hiện việc điều phối giữa AI và con người không?
Vitalik Buterin: Tôi nghĩ vấn đề cốt lõi là: thế giới tương lai cần phải có cơ chế gì để đảm bảo mong muốn và nhu cầu của con người vẫn được tôn trọng? Các công cụ chúng ta hiện đang sở hữu có thể chia thành ba loại chính: lao động của con người, hệ thống pháp luật và quyền sở hữu.
Thực ra, từ một khía cạnh nào đó, hệ thống pháp luật cũng có thể được coi là một dạng của quyền sở hữu, vì nó được quốc gia bảo đảm, và quốc gia về bản chất sở hữu chủ quyền, tương đương với việc kiểm soát một số "vùng lãnh thổ" trên trái đất. Nhưng vấn đề nằm ở chỗ: nếu một ngày, lao động của con người mất giá trị kinh tế, điều gì sẽ xảy ra? Trong lịch sử, không bao giờ xảy ra trường hợp như vậy.
Tuy nhiên, nếu chúng ta so sánh thế giới hiện tại với 200 năm trước, có khoảng 90% công việc đã bị tự động hóa thay thế. Ngay cả công việc phân tích chúng ta vừa thực hiện, GPT đã có thể hỗ trợ hoàn thành, điều này thực sự đáng kinh ngạc.
Guillaume Verdon: Tôi nghĩ rằng, con người sẽ tự nhiên "leo lên" trong tầng cấp độ kiểm soát thế giới, chuyển sang vị trí có đòn bẩy cao hơn. Chúng ta sẽ giảm lao động cơ thể, giảm chi phí ma sát trong hành động, từ đó ảnh hưởng đến thế giới một cách hiệu quả hơn.
Dù sao đi nữa, con người vẫn giữ được một số khả năng xử lý thông tin. Chúng ta vẫn sẽ tiếp tục đóng vai trò là một phần của hệ thống hỗn hợp này, vì vậy lao động của con người vẫn có giá trị kinh tế. Cuối cùng, thị trường sẽ tìm thấy một điểm cân bằng mới, mặc dù trong quá trình đó có thể trải qua một giai đoạn không thoải mái, vì biến động giá cả sẽ rất lớn, nhưng từ xa hơn, hệ thống sẽ ổn định.
Vì vậy, tôi hiểu rằng bạn muốn thông qua việc làm chậm lại tốc độ phát triển công nghệ, giúp xã hội chuyển đổi sang trạng thái cân bằng mới một cách ổn định hơn. Nhưng trong thực tế, tôi nghĩ điều này khó thực hiện.
Vitalik Buterin: Đúng, tôi không hoàn toàn chắc chắn rằng giá trị lao động con người nhất thiết sẽ luôn lớn hơn không. Tôi nghĩ để đạt được điều này, có thể cần một số điều kiện bổ sung, như sự phát triển của hợp nhất con người-máy móc hoặc công nghệ tăng cường con người.
Eddy Lazzarin: Tôi đặt một câu hỏi cấu trúc hơn. Nếu sau 10 năm mà tình hình rất tồi tệ, thế giới sẽ trở nên như thế nào? Gặp vấn đề gì? Sau 10 năm nếu mọi thứ tốt đẹp, thế giới sẽ như thế nào? Điều gì đã được thực hiện đúng?
Vitalik Buterin: Trước hết, tôi muốn bổ sung thêm về vấn đề tiền điện tử và quyền sở hữu. Nếu con người và trí tuệ nhân tạo (AI) chia sẻ một hệ thống quyền sở hữu, đó là tình huống lý tưởng. Bởi vì điều này có thể thúc đẩy AI duy trì tính toàn vẹn của hệ thống này, đồng thời cũng cho phép chúng ta sử dụng hệ thống này để đảm bảo lợi ích của con người được tôn trọng và bảo vệ.
So với "hệ thống tài chính hoàn toàn tách biệt cho con người và AI, trong đó hệ thống của con người cuối cùng sẽ trở nên vô giá trị", một hệ thống tài chính hợp nhất rõ ràng là tốt hơn. Nếu tiền điện tử có thể trở thành nền tảng của hệ thống hợp nhất này, thì điều đó sẽ là một kết quả rất tốt.
Theo tôi, một thách thức chính trong 10 năm tới là: tránh được chiến tranh thế giới. Bởi vì một khi chiến tranh thế giới bùng nổ, mọi hy vọng về khả năng hợp tác quốc tế có thể sẽ tan vỡ. Tránh chiến tranh là điều cực kỳ quan trọng.
Một vấn đề khác quan trọng là chúng ta cần chuẩn bị cho thế giới cho khả năng tăng cường cao hơn sắp tới. Điều này bao gồm việc nâng cao an ninh mạng, an ninh sinh học và an ninh thông tin đáng kể. Chúng ta cần tận dụng sức mạnh của trí tuệ nhân tạo, giúp chúng ta hiểu thế giới tốt hơn, đồng thời bảo vệ chúng ta khỏi sự đe dọa của meme.
Một thách thức tiếp theo là bước vào những gì được gọi là "Thời kỳ Kỳ lạ" (spooky era). Trong giai đoạn này, trí tuệ nhân tạo sẽ vượt xa con người, tốc độ tính toán nhanh hơn hàng triệu lần so với con người. Chúng ta sẽ làm thế nào để đối phó với tình hình này?
Có người có thể nói, 「Hãy để chúng ta sống cuộc sống hưu trí thoải mái.」 Tôi có thể hiểu sức hấp dẫn của quan điểm này, nhưng tôi nghĩ rằng nó tồn tại hai vấn đề. Thứ nhất là sự bất ổn, cơ thể con người của chúng ta được tạo thành từ vật chất bình thường, nhưng khả năng tính toán của AI có thể là hàng triệu lần của chúng ta. Dựa vào AI mãi mãi sẽ đi đúng hướng với mục tiêu của chúng ta và từ chối tận dụng sự khác biệt đó sẽ là một rủi ro lớn. Thứ hai là vấn đề ý nghĩa, ý nghĩa của con người đến từ khả năng chúng ta có thể ảnh hưởng đến thế giới thực tế. Nếu chúng ta không còn có thể làm những thay đổi đáng kể cho thế giới và chỉ đơn thuần thưởng thức cuộc sống thoải mái, tôi tin rằng nhiều người sẽ cảm thấy trống rỗng.
Do đó, tôi hy vọng chúng ta có thể khám phá con đường 「Nâng cấp Con Người」 và 「Hợp Tác Người-Máy」. Cuối cùng, chúng ta có thể tiến tới việc tải tâm trí lên máy móc, tất nhiên cũng có thể có người chọn giữ phong cách sống truyền thống hơn, điều này nên được coi như là một quyền. Trái đất có thể trở thành mái nhà của những người đóng vai trò này và chúng ta cần tìm ra cách để cho mọi người tham gia, đồng thời giữ lại những giá trị văn hóa và lối sống mà chúng ta đánh giá cao hôm nay.
Kết cục xấu là do nhiều lý do, những khả năng này có thể bị ngăn chặn, đưa xã hội vào tình trạng trì trệ hoặc suy vong.
Guillaume Verdon: Nếu 10 năm sau là kết cục xấu, tôi nghĩ rằng rất có khả năng là do quyền lực AI quá tập trung, dẫn đến mô hình văn hóa xã hội sụp đổ. Đơn giản là, tư duy của mọi người và hướng phát triển công nghệ trở nên cực kỳ đơn điệu, mọi sự đa dạng đều biến mất.
Tôi cũng đồng ý với quan điểm của Vitalik, 「Điểm Thăng Cấp Sung Sướng」 thực sự là một rủi ro tiềm ẩn. Ngay cả khi có Neuralink hay công nghệ AR/VR trong tương lai, mọi người có thể nghiện game thế giới ảo, chỉ tìm kiếm hạnh phúc ngắn hạn. Điều này thực sự là một giải pháp cục bộ của não, thay vì giải pháp tối ưu toàn cầu, chúng ta phải tránh xa tình huống này.
Nếu 10 năm sau là kết cục tốt, thế giới mà tôi tưởng tượng sẽ như thế này: chúng ta sở hữu công nghệ AI cực mạnh và hữu ích. Mỗi người đều có sức mạnh tính toán AI cá nhân hóa của riêng mình, những AI này như là mở rộng của trí óc của chúng ta luôn trực tuyến, cảm nhận mọi thứ chúng ta cảm nhận, trở thành 「bộ não thứ hai」 của chúng ta, hợp tác người-máy này có thể xem là một 「hòa hợp mềm mại」.
Trong 10 năm này, các công nghệ như Neuralink cũng có thể bắt đầu phổ biến. Một số người sẽ chọn nhập khẩu với máy móc, trở thành 「Con Người Nâng Cao」. Đồng thời, các doanh nghiệp sẽ trở nên thông minh hơn, AI sẽ chiếm ưu thế và con người sẽ đóng vai trò hỗ trợ. Số lượng doanh nghiệp sẽ tăng, giải quyết nhiều vấn đề, tạo ra nhiều giá trị hơn. Những mục tiêu mà trước đây chúng ta nghĩ là không thể thực hiện, như 「Thay Đổi Sao Hỏa」, có thể sẽ trở thành hiện thực trong 10 hoặc 100 năm tới. 10 năm tới cũng có thể chào đón bước đột phá lớn về công nghệ sinh học, đặc biệt là trong lĩnh vực sinhhọc và vật liệu học. Chi phí nghiên cứu sẽ giảm đáng kể, chúng ta sẽ tiến gần hơn đến việc hiểu cách thức hoạt động của não người.
Trên thang thời gian dài hơn, trí tuệ nhân tạo sẽ giúp chúng ta kéo dài tuổi thọ, cải thiện sức khỏe và thúc đẩy sự tiến hóa tiếp theo của con người. Tôi rất lạc quan về tiềm năng sinh học. Hệ sinh thái sinh học là đáng kinh ngạc: chúng có thể tự tổ chức và tự sắp xếp, độ phức tạp và tính thích nghi rất mạnh mẽ. Bằng cách tiêm mã, chúng ta có thể tạo ra các dạng sống mới, thậm chí có thể tiến hóa ra trí tuệ sinh học cao cấp hơn.
Tình hình thực tế hơn là sự hợp tác giữa não bộ của con người và trí tuệ nhân tạo. Chúng ta có thể tận dụng trí tuệ nhân tạo để thực hiện tính toán nhanh chóng và phân tích dữ liệu, trong khi con người tập trung vào suy nghĩ sâu sắc với tốc độ chậm. Thông qua sự phân chia công việc theo thang thời gian này, chúng ta có thể hình thành một cấp bậc trí tuệ. Giống như tảo biển là một phần của tế bào, 「bạn và AI cá nhân của bạn」 có thể cùng nhau tạo nên một hệ thống siêu trí tuệ, đây chính là tầm nhìn lý tưởng của tôi về tương lai.
Trên thang thời gian 100 năm, tôi tin rằng con người sẽ đạt được sự 「hợp nhất mềm」 này phổ biến. Và sau 1 tỷ năm, sinh học của chúng ta có thể sẽ trải qua một sự tiến hóa khổng lồ, trở thành một sự kết hợp giữa sinh học và công nghệ tổng hợp. Lúc đó, chúng ta có thể đã biến đổi sao Hỏa, thậm chí di cư đến nhiều hành tinh, khám phá các hệ sao khác.
Ngoài ra, trên thang thời gian 100 năm, hầu hết trí tuệ nhân tạo có thể sẽ hoạt động trong các đám mây Dyson hoặc nhóm Dyson xung quanh Mặt Trời, vì đó là nguồn năng lượng chính, và sự phân phối năng lượng này cũng sẽ giảm áp lực năng lượng và dấu chân sinh thái trên Trái Đất.
Nếu trí tuệ nhân tạo trở nên cực kỳ rẻ, chúng ta sẽ có thể nhanh chóng giải quyết mọi vấn đề trong cuộc sống: bất kỳ vấn đề nào từ vấn đề công nghệ đến vấn đề sức khỏe, đều có thể giải quyết nhanh chóng. Điều quan trọng là đảm bảo mọi người đều có thể truy cập công bằng vào các công nghệ này, tránh tình trạng tập trung quá mức công nghệ và tài nguyên, nếu không sẽ dẫn đến một tương lai u ám.
Shaw Walters: Tôi đã nhận thấy rằng Vitalik bạn luôn nhấn mạnh 「tạo điều kiện cho sự đa dạng tồn tại」(enabling plurality); còn Guillaume, cách bạn diễn đạt là 「tối đa hóa phương sai」. Theo bản chất, hình như các bạn đều đang nói về cùng một điều, và dường như tư duy này sẽ là tuyến chính phát triển của chúng ta trong tương lai, cũng là cơ sở của nhiều quan điểm khác.
Sau khi rời khỏi đây, mỗi người mong muốn để lại điều gì cho người kia? Có ý tưởng gì mà các bạn mong muốn người kia có thể mang theo và suy ngẫm, thảo luận trong tương lai?
Vitalik Buterin: Nói thẳng ra, nếu bây giờ tôi có thì tôi muốn tặng bạn một thiết bị CAT như một món quà. Đó là một thiết bị giám sát chất lượng không khí thông qua xử lý dữ liệu bằng mật mã, tôi nghĩ nó rất tuyệt.
Tuy nhiên, hiện tại, tôi chỉ có thể "tượng trưng" gửi cho bạn một cái: hãy coi đó như một tấm trả nợ (IOU). Ngoài ra, chúng tôi có thể phát triển ra những thiết bị tốt hơn—thậm chí mạnh mẽ đến mức có thể cạnh tranh với những chiếc vòng đeo thông minh như Fitbit, giúp bạn quản lý sức khỏe tốt hơn, đồng thời bảo vệ quyền riêng tư của bạn suốt chặng đường. Tôi tin rằng bạn sẽ sớm có được thiết bị như vậy.
Guillaume Verdon: Chúng ta nhất định sẽ tiếp tục thảo luận về những chủ đề này. Nếu được, tôi muốn tặng bạn một "viên thuốc khái niệm về cuộc sống nhân tạo", để bạn suy ngẫm sâu hơn. Ý tôi là, cuộc sống nhân tạo trên mạng có thể đáng kể giảm chi phí trí tuệ, tạo ra một hệ thống kinh tế hoàn toàn mới.
Giống như việc chúng ta đã outsoucing ngành sản xuất sang Trung Quốc trong quá khứ, để tập trung vào công việc ở tầng cao hơn—những nhiệm vụ dễ dàng hơn, hiệu quả hơn—trong tương lai, nhiều công việc nhận thức cũng sẽ được outsoucing cho một nhóm AI. Cuối cùng, những AI này có thể "sống" trong vòng Đai Dyson xung quanh Mặt Trời và phục vụ cho xã hội nhân loại.
Do đó, tôi tin rằng chúng ta đúng lúc trong một khoảnh khắc lịch sử độc đáo. Tiền điện tử có tiềm năng trở thành "cầu nối tin cậy" hoặc "lớp liên kết" giữa con người và AI.
Chào mừng bạn tham gia cộng đồng chính thức của BlockBeats:
Nhóm Telegram đăng ký: https://t.me/theblockbeats
Nhóm Telegram thảo luận: https://t.me/BlockBeats_App
Tài khoản Twitter chính thức: https://twitter.com/BlockBeatsAsia