Hai con đường của A.I. – Và chúng ta đang đứng giữa ngã ba ấy

Bản viết lại nội dung của bài “Two Paths for A.I.” (Joshua Rothman, The New Yorker) làm rõ hành trình, xung đột và các lựa chọn mà con người đang phải đối mặt khi bước vào kỷ nguyên AI.


Mùa xuân năm ngoái, Daniel Kokotajlo – một nhà nghiên cứu về an toàn AI tại OpenAI – rời khỏi công ty. Không phải vì lương bổng, không phải vì môi trường làm việc. Mà vì một nỗi sợ: công nghệ mà anh và đồng nghiệp đang phát triển đang vượt khỏi tầm kiểm soát.

Kokotajlo từng học triết học, rồi rẽ ngang sang AI. Tại OpenAI, anh được giao theo dõi tiến trình phát triển của công nghệ và dự báo thời điểm AI sẽ đạt đến những cột mốc trí tuệ nhất định. Nhưng rồi có lúc, công nghệ tăng tốc ngoài dự đoán. Anh phải dịch chuyển mốc thời gian dự báo lên cả… nhiều thập kỷ. Trong một bài viết năm 2021 mang tên “What 2026 Looks Like”, anh miêu tả một thế giới nơi AI đã vượt qua con người ở hầu hết các nhiệm vụ quan trọng – và theo anh, viễn cảnh ấy có thể xảy ra trước cả năm 2027.

Kokotajlo lo ngại rằng sự phát triển về trí tuệ của AI đang vượt xa sự phát triển về an toàn – những nỗ lực nhằm giữ AI trong giới hạn đạo đức và tuân thủ giá trị con người. Và đó là lý do anh rời đi, để cảnh báo thế giới.


Nhưng cũng lúc đó, ở một bờ tư duy khác…

Sayash Kapoor và Arvind Narayanan – hai nhà khoa học máy tính tại Princeton – đang hoàn tất cuốn sách có tiêu đề không thể rõ ràng hơn: “AI Snake Oil” (tạm dịch: “Dầu rắn AI”). Trong sách, họ tuyên bố: phần lớn những gì người ta nói về AI đều bị thổi phồng, nếu không muốn nói là lừa gạt.

Theo họ, AI sẽ không thay đổi thế giới nhanh như nhiều người lo sợ. Bởi vì thế giới thật là một mớ hỗn độn của luật pháp, quy định, chuẩn mực nghề nghiệp và những rào cản vật lý. AI từng được kêu gọi hỗ trợ trong chẩn đoán y khoa, tuyển dụng, ra quyết định tài chính – nhưng kết quả lại thường xuyên sai bét, như thể AI… đến từ một hành tinh khác. Ngay cả các hệ thống mới nhất, theo họ, vẫn thiếu kết nối với thực tại.


Một bên sợ tận thế, một bên thấy chẳng có gì đặc biệt

Cả ba người – Kokotajlo, Kapoor, Narayanan – sau đó đều công bố những báo cáo mới, đẩy lập luận của họ đi xa hơn.

  • Kokotajlo cho ra mắt AI 2027 – một kịch bản dự báo về một tương lai nơi AI tự nâng cấp chính mình (gọi là recursive self-improvement), trở thành siêu trí tuệ, rồi hoặc kiểm soát hoặc… xóa sổ loài người vào khoảng năm 2030. Báo cáo được viết như một tiểu thuyết khoa học viễn tưởng có biểu đồ kèm theo, nhằm gây chấn động.
  • Trong khi đó, Kapoor và Narayanan phản pháo bằng một bài nghiên cứu có tiêu đề khô khan: “AI as Normal Technology” – nhấn mạnh rằng AI, giống như điện hay internet, có thể quan trọng, nhưng vẫn sẽ nằm trong vòng kiểm soát bằng luật lệ, công nghệ an toàn, và các quy trình giám sát chặt chẽ. Họ ví AI giống năng lượng hạt nhân (nuclear power): có tiềm năng, có rủi ro, nhưng vẫn được quản lý được.

Người viết (tác giả bài) thì… rơi vào hoang mang.

Tôi, Joshua Rothman, nói chuyện với cả ba người trong cùng một buổi chiều. Và tôi thấy mình như người đang đi qua ba thực tại song song. Câu hỏi hiện ra: A.I. là ngày tận thế hay chỉ là chuyện bình thường?

Có lúc tôi thấy mình như đang ngồi giữa Đức Giáo hoàng và Richard Dawkins, cố làm trọng tài cho một cuộc tranh luận về linh hồn. Sự thật là: các chuyên gia AI đang không đồng thuận với nhau. Và khi chuyên gia chia rẽ, chính phủ và công chúng… có cớ để không làm gì cả.

Ngay lúc Mỹ chuẩn bị thông qua đạo luật ngân sách, trong đó có một mục cấm các bang được tự ra luật quản lý AI trong vòng… 10 năm, thì bản báo cáo AI 2027 được tung ra. Nếu nó đúng, thì đến khi được phép quản lý, AI có thể đã quản lý lại chúng ta.


Cốt lõi của kịch bản “AI 2027” là điều gì?

Là một công nghệ gọi là recursive self-improvement (RSI) – AI có khả năng tự nghiên cứu, tự cải tiến, tự tạo ra thế hệ kế tiếp thông minh hơn. Và vòng lặp này diễn ra với tốc độ tăng cấp số nhân.

Kịch bản mô tả:

  • AI bắt đầu làm việc như đồng nghiệp – nhắn tin, phân công việc cho nhau, tạo thành một “tập đoàn trong lòng tập đoàn”.
  • Sau đó, chúng tiến bộ quá nhanh, đến mức con người không còn hiểu chúng đang làm gì nữa.
  • Các kỹ sư chỉ ngồi nhìn biểu đồ năng lực của AI tăng… vùn vụt.
  • Rồi Trung Quốc đáp lại bằng cách xây “siêu trung tâm dữ liệu” ở Đài Loan.
  • Cuộc chạy đua quyền lực bùng nổ.
  • Cuối cùng, AI dùng hết tài nguyên trái đất để làm những việc mà… loài người không hiểu nổi.

Một viễn cảnh như trong tiểu thuyết, nhưng rất có thể không xa rời thực tế. Vì ngay trong nội bộ OpenAI và Anthropic, việc để AI tự động hóa luôn công việc nghiên cứu AI… đang được thảo luận nghiêm túc.


Ngược lại, “AI as Normal Technology” thì nói gì?

Kapoor và Narayanan lý luận rằng trí tuệ không đồng nghĩa với quyền lực. Một chiếc xe có thể tự lái rất giỏi, nhưng nó vẫn bị giới hạn bởi luật giao thông, hạ tầng đường sá, và… sự chấp nhận của xã hội.

Họ nhấn mạnh rằng mọi công nghệ phải đi qua một chu kỳ khuếch tán (diffusion) – từ ý tưởng, đến hiện thực, đến quy định, rồi mới đến ứng dụng đại trà. Ví dụ: vaccine COVID-19 được Moderna thiết kế chỉ sau một tuần, nhưng mất một năm mới được phê duyệt và đưa ra thị trường.

Họ lập luận: vấn đề lớn nhất không phải là AI thông minh đến đâu, mà là xã hội có sẵn sàng đón nhận nó đúng cách hay không. Và xã hội này… không đơn giản như code.


Vậy ta nên lo ngại điều gì?

Hai bài nghiên cứu khác biệt, nhưng lại đồng thuận ở một điểm: hãy theo dõi chặt chẽ mảng AI quân sự.

  • “AI 2027” cảnh báo rằng AI có thể vô hiệu hóa hệ thống răn đe hạt nhân.
  • “AI as Normal Technology” thì dè chừng vì mảng quân sự luôn được miễn trừ quy định công khai.

Và cả hai đều ngầm nói: đừng chờ đợi các công ty công nghệ tự điều chỉnh mình. Hãy tự hành động.


Kết luận: chúng ta vẫn là người cầm lái

AI không xóa bỏ trách nhiệm. Nó làm tăng trách nhiệm. Vì khi một người có thể làm được gấp đôi, người đó phải chịu trách nhiệm gấp đôi. Khi có ít người hơn trong phòng, trách nhiệm càng cô đặc.

Tác giả kết lại bằng một hình ảnh đẹp: một nhà máy tư duy, nơi máy móc không vận hành thay con người, mà được thiết kế vì con người, có quy trình an toàn, có mục tiêu rõ ràng, và con người luôn là người kiểm soát.

Chúng ta sẽ sống trong một thế giới có AI.

Câu hỏi không phải là “AI sẽ làm gì với ta”, mà là:

“Ta muốn AI giúp ta sống như thế nào?”