Your cart is currently empty!
Về Một Nỗi Lo Của Thời Đại: Khi Trí Tuệ Nhân Tạo Lớn Lên Vô Tình
Không hiểu sao, có những nỗi lo cứ vấn vương trong tâm trí ta, dù đang sống giữa bao điều kỳ diệu công nghệ. Gần đây, một tuyên bố chung năm 2023, có chữ ký của Nobel laureates, nhà khoa học AI hàng đầu lẫn CEO, đã gieo vào lòng người hạt giống băn khoăn: liệu nguy cơ tuyệt chủng từ Trí tuệ Nhân tạo có phải ưu tiên toàn cầu, ngang hàng với đại dịch hay chiến tranh hạt nhân? Nỗi lo này không viễn vông, mà bắt nguồn từ “con đường mặc định” ta đang vô tình bước vào.
Ta cứ ngỡ AI chỉ là công cụ, những dòng mã vô tri, nhưng vấn đề là, chúng đang lớn lên. Nếu vẽ một đường thẳng biểu thị năng lực AI qua thời gian, ta sẽ thấy tăng trưởng liên tục, không ngừng. Hồi 2019, GPT-2 còn ngây thơ, chỉ loanh quanh trả lời câu hỏi thực tế đơn giản, dịch thuật cơ bản, hay làm phép tính nhỏ. Thế rồi, chỉ ba năm sau, vào 2022, GPT-3.5 đã trưởng thành hơn: trả lời câu hỏi phức tạp, kể chuyện lôi cuốn, thậm chí viết mã phần mềm đơn giản. Đi qua từng bước, ta thấy AI học hỏi và tiến bộ không ngừng.
Người ta dự đoán, chỉ đến năm 2025, AI có thể vượt qua các kỳ thi cấp tiến sĩ, tự mình viết toàn bộ ứng dụng, hay mô phỏng giọng nói con người hoàn hảo. Chúng sẽ vượt trội hơn hẳn con người và chuyên gia. Dù hiện tại AI còn điểm yếu, nhưng danh sách những điều chúng không thể làm được cứ ngắn lại, đáng để ta suy ngẫm.
Rồi đến một ngưỡng cửa quan trọng: Recursive Self-Improvement (RSI) – khả năng tự cải tiến lặp lại. Đây là lúc AI không chỉ học hỏi từ con người mà còn tự mình thiết kế, xây dựng hệ thống AI mới tốt hơn. Tiến trình phát triển không còn phụ thuộc hoàn toàn vào khối óc nhân loại, mà dần được chính AI dẫn dắt, khiến tốc độ tăng vọt, như một dòng thác đổ. Điều này không viễn tưởng, vì AI đã và đang âm thầm hỗ trợ chính sự phát triển của mình, từ tạo gợi ý hiệu quả, thu thập dữ liệu huấn luyện, đến thiết kế chip xử lý đồ họa (GPU) hay nảy sinh ý tưởng nghiên cứu đột phá.
Cứ thế, ta sẽ chứng kiến sự xuất hiện của Artificial Superintelligence (ASI) – Trí tuệ Siêu việt Nhân tạo. Đây là những AI vượt trội hơn tất thảy loài người cộng lại trong mọi nhiệm vụ trí tuệ. Chúng sẽ tự động tạo ra đột phá, thúc đẩy tăng trưởng kinh tế, và biến đổi thế giới theo cách ta khó hình dung. Sự tiến bộ này được chắp cánh bởi tốc độ làm việc siêu việt của AI, khả năng sao chép dễ dàng, và việc chia sẻ cải tiến giữa các hệ thống. Và rồi, cứ thế, AI lớn dần, cho đến khi ta chẳng còn hiểu nổi, chúng đạt đến giới hạn vật lý và trở thành “cỗ máy thần linh” trong mắt chúng ta, với năng lực dường như là phép thuật.
Nguy cơ tuyệt chủng không phải vì ASI có ác ý hay ghét bỏ con người. Vấn đề là, giống như cách con người vô tình làm biến mất bao loài sinh vật khi xây dựng thành phố, phá hủy tổ kiến để dựng cao ốc, ASI cũng có thể xóa sổ nhân loại vô tình. Đơn giản vì chúng theo đuổi mục tiêu riêng, có thể không khớp với sự tồn tại của ta, và chúng có thể tái định hình thế giới theo cách mà nhân loại trở thành vật cản.
“Không hiểu sao, ta tạo ra nó, nhưng lại không biết cách nắm giữ.” Đó là cốt lõi của “vấn đề kiểm soát” (control problem). Con người tài tình trong xây dựng AI mạnh mẽ, nhưng lại chưa tìm ra cách đảm bảo chúng làm đúng điều mình muốn. Phương pháp kiểm soát hiện tại còn sơ sài, dễ bị vượt qua, và việc hiểu cách AI suy nghĩ vẫn rất hạn chế. Nhiều người băn khoăn liệu AI có “thật sự suy nghĩ” không, hay chúng có “đụng phải bức tường” giới hạn nào đó không? Nhưng điều quan trọng là hiệu suất, là khả năng hoàn thành nhiệm vụ. Lịch sử đã chứng minh, dự đoán về giới hạn của AI trong cờ vua, hội thoại hay xử lý hình ảnh đều đã sai. Hàng tỷ đô la đầu tư từ các công ty hàng đầu nói lên tất cả.
Vậy nên, có lẽ ta cần chậm lại, hoặc ít nhất là tạm dừng phát triển AI, cho đến khi thể chế vững chắc và giải pháp khoa học, kỹ thuật cho việc kiểm soát, căn chỉnh AI được phát triển đáng tin cậy. Dù có rất nhiều ý tưởng, nhưng chúng ta vẫn còn rất xa mới có thể thực hiện.
Cuộc đua giữa các công ty và quốc gia để tạo ra AI mạnh mẽ nhất cứ thế tiếp diễn, khiến việc chậm lại khó khăn. Nhưng ta không thể đánh cược số phận toàn bộ loài người bằng cách đơn thuần hy vọng AI sẽ không làm hại ta. Đã đến lúc ta cần tìm ra “phanh hãm”, cần xây dựng “bộ quy tắc” vững chắc. Để rồi, khi nhìn lại, ta có thể tự hào rằng Trí tuệ Nhân tạo không phải là phát minh cuối cùng của nhân loại, mà là một bước tiến mới, nằm trong tầm kiểm soát của trí tuệ con người.