Your cart is currently empty!
AI: Tư Duy Thật Hay Chỉ Là Vỏ Bọc Của Ghi Nhớ?
Con gái tôi, mới sáu tuổi, đã sớm trở thành một “thần đồng” cờ vua ngay trong phòng khách nhà mình. Con bé không thực sự chơi cờ theo cách của một đại kiện tướng, nhưng lại có khả năng đáng kinh ngạc trong việc ghi nhớ các nước khai cuộc, nhớ lại những tàn cuộc thành công mà tôi từng chơi, và mô phỏng lại các chuỗi nước đi đã từng đưa con bé đến chiến thắng. Nhìn vào đó, ai cũng có thể lầm tưởng là sự tinh ranh, chiến lược, hay thậm chí là khả năng nhìn xa trông rộng thực sự. Cho đến khi, tôi đi một nước cờ hoàn toàn nằm ngoài những mô hình mà con bé đã biết, gương mặt nhỏ nhắn của nó sẽ nhăn nhó lại, và bàn cờ bỗng chốc trở thành một mớ hỗn độn những quân gỗ khó hiểu. Điều tôi nhận ra là, cái gọi là trí thông minh ấy, đôi khi chỉ là một dạng hồi tưởng (recall) cực kỳ tinh vi.
Điều này dẫn tôi đến một câu hỏi đang bắt đầu khuấy động một cách đáng lo ngại, lay chuyển tận nền tảng của ngành công nghiệp trí tuệ nhân tạo: Liệu AI, trong sự vươn lên chóng mặt của mình, có thực sự học cách tư duy, lập luận, khái quát hóa, hay nó chỉ đơn thuần là một phiên bản con gái tôi ở bàn cờ vua, nhưng tốt hơn theo cấp số nhân – một bậc thầy về các mô hình, dù phức tạp đến đâu, nhưng lại vỡ trận khi đối mặt với điều hoàn toàn mới lạ?
Trong một thời gian dài, câu chuyện chủ đạo vẫn là sự tăng tốc đến nghẹt thở. Chúng ta đã được nghe, và nhiều người trong chúng ta đã tin rằng, chúng ta đang đứng trước ngưỡng cửa của một kỷ nguyên mà máy móc không chỉ xử lý thông tin mà còn *lập luận* với nó. Sự phấn khích, niềm tin gần như cuồng tín, bắt nguồn từ lời hứa về “siêu trí tuệ” – một sự tiếp nối, như một số người nói, của xu hướng tăng trưởng khả năng tính toán không ngừng trong hàng trăm năm qua của nhân loại. Niềm tin này đã thúc đẩy một nhu cầu bùng nổ về sức mạnh tính toán, khi các công ty chi hàng tỷ đô la, theo đúng nghĩa đen, chỉ để tránh bị bỏ lại phía sau trong một cuộc đua mà vạch đích dường như liên tục lùi xa vào chân trời của những mô hình ngày càng thông minh hơn, trực giác sắc bén hơn, và những hệ thống được ca ngợi là “tư duy” có khả năng “chứng minh cách làm” và “phân tách vấn đề thành các bước”. Chúng ta đã được đảm bảo rằng đây là một sự dịch chuyển sâu sắc từ việc chỉ dự đoán từ ngữ sang chủ động lên kế hoạch hành động. Chúng ta nghe nói về các doanh nghiệp đang đổ những khoản tiền không tưởng vào việc ứng dụng AI, với các trường hợp sử dụng tăng lên chóng mặt. Giả định ngầm định, một nền tảng vững chắc, là quy mô có hiệu quả: mô hình càng lớn, dữ liệu càng nhiều, nó càng trở nên thông minh hơn. Đây chính là “định luật mở rộng quy mô” (scaling law) huyền thoại, một quy luật thực nghiệm mà cho đến gần đây, nhiều người trong lĩnh vực này coi là vững chắc như trọng lực.
Nhưng điều gì sẽ xảy ra nếu tất cả những điều này, hoặc ít nhất một phần, chỉ là một giấc mơ được hứa hẹn quá mức, dẫn chúng ta vào một hố tiền không đáy? Một loạt các nghiên cứu gần đây đã bắt đầu dội gáo nước lạnh vào xu hướng đang phát triển của cái gọi là “mô hình suy luận”, đặt câu hỏi liệu chúng có thực sự chính xác hơn, thông minh hơn, hay chỉ đơn thuần là sự bắt chước tinh vi hơn. Trong số những nghiên cứu nổi bật nhất, một bài báo của nhóm nghiên cứu tại Apple với tiêu đề thẳng thừng “Ảo ảnh của Tư duy” (The Illusion of Thinking) đã đưa ra một khả năng đáng suy ngẫm: khi vấn đề trở nên đủ khó, các mô hình suy luận được ca ngợi này đơn giản là ngừng hoạt động.
Lấy ví dụ, câu đố logic kinh điển Tháp Hà Nội. Ba cọc, một chồng đĩa, mục tiêu là di chuyển chúng từ cọc này sang cọc khác, giữ nguyên quy tắc đĩa lớn ở dưới, đĩa nhỏ ở trên, với số lần di chuyển ít nhất có thể. Đây là một nhiệm vụ đủ đơn giản cho một đứa trẻ, nhưng cũng là một bài kiểm tra áp lực mạnh mẽ cho khả năng suy luận thực sự. Ở dạng đơn giản nhất, chỉ với ba đĩa, các mô hình như của Anthropic hoạt động tương tự dù có bật hay không bật khả năng “suy luận” của chúng. Thêm một vài đĩa nữa, và phiên bản có suy luận sẽ vượt trội hơn. Nhưng rồi đến bước ngoặt, sự sụp đổ đáng lo ngại: sau bảy đĩa, hiệu suất giảm xuống không còn chính xác chút nào. Không chỉ đối với mô hình của Anthropic, mà cả của DeepSeek và OpenAI cũng vậy. Chính những nhiệm vụ mà các mô hình này được cho là sẽ thành thạo khi chúng trở nên khó hơn lại là nơi chúng thất bại hoàn toàn. Cùng một kiểu mẫu đáng lo ngại này đã xuất hiện với các trò chơi logic cơ bản khác, từ cờ caro đến các bài toán vượt sông.
Điều này cho thấy một kết luận đáng băn khoăn: các mô hình này *trông có vẻ* đang tư duy, nhưng những gì chúng thực sự làm có thể chỉ là một dạng khớp mẫu (pattern matching) cực kỳ tinh vi. Khi câu đố quen thuộc, khi nó giống với điều gì đó mà chúng đã “ăn vào” trong quá trình huấn luyện, chúng hoạt động đáng ngưỡng mộ. Nhưng đưa cho chúng một cái gì đó thực sự mới, một cái gì đó phức tạp và nằm ngoài các mô hình đã học, và chúng sẽ loạng choạng. Cái mà chúng ta đã ca ngợi là trí thông minh, trên thực tế, có thể không hơn gì sự ghi nhớ ở một quy mô chưa từng có.
Không chỉ Apple đang gióng lên hồi chuông cảnh báo. Salesforce, chẳng hạn, nói về “trí thông minh răng cưa” (jagged intelligence), làm nổi bật một vực sâu đáng kể giữa khả năng của các mô hình ngôn ngữ lớn hiện tại và những yêu cầu phức tạp của các vấn đề thực tế trong doanh nghiệp. Ngay cả Anthropic, một nhà lãnh đạo trong các mô hình tiên tiến này, gần đây cũng đã công bố một bài báo với tiêu đề “Mô hình suy luận không phải lúc nào cũng nói những gì chúng nghĩ” (Reasoning Models Don’t Always Say What They Think), bổ sung tiếng nói của mình vào làn sóng cảnh báo ngày càng tăng. Và một phòng thí nghiệm nghiên cứu của Trung Quốc, LEAP, đã kết luận rằng các phương pháp huấn luyện AI hiện nay vẫn chưa thể khơi gợi được khả năng suy luận thực sự mới mẻ.
Hạn chế cốt lõi, dường như, là sự thất bại trong việc khái quát hóa. Chúng ta có thể xây dựng một mô hình cực kỳ giỏi về Tháp Hà Nội, nhưng sau đó có hàng triệu vấn đề tương tự khác, và mô hình đã thành thạo vấn đề đầu tiên không thể tự mình chuyển giao sự hiểu biết đó. Nó thành thạo các nhiệm vụ cụ thể, xuất sắc trên các tiêu chuẩn đánh giá, và điều đó không thể phủ nhận là có giá trị cho các ứng dụng hẹp. Nhưng sự thật sâu sắc, được gợi ý bởi những bài báo này, là nó thường không thể khái quát hóa đến các kịch bản thông thường mà bạn hoặc tôi có thể giải quyết trong lúc ngủ. Điều này, theo tôi, đại diện cho một hạn chế cơ bản, đẩy giấc mơ về trí tuệ nhân tạo tổng quát (AGI) – một hệ thống có thể lập luận, thích nghi và tư duy vượt ra ngoài dữ liệu huấn luyện của nó, thông minh hơn chúng ta – đi xa hơn nhiều vào tương lai so với những gì từng tưởng tượng.
Tôi phải thú nhận, bản thân tôi cũng từng bị cuốn vào những lời tuyên bố đầy phấn khích. Lời hứa về những cỗ máy thực sự có thể *tư duy* dường như là một sự tiến hóa hợp lý, không thể tránh khỏi, một kiểu định mệnh công nghệ. Nhưng những phát hiện này, những nghi ngờ thầm lặng, dai dẳng này, đã buộc tôi phải xem xét lại không chỉ các cỗ máy, mà cả định nghĩa về trí thông minh của chính chúng ta. Liệu chúng ta có đang nhầm lẫn sự bắt chước tinh xảo với cái nhìn sâu sắc thực sự? Liệu chúng ta có đang phóng chiếu các quy trình trí tuệ của chính mình lên các thuật toán mà về cơ bản, đang hoạt động dựa trên những nguyên tắc hoàn toàn khác? Điều này khiến tôi nghĩ đến những khoảnh khắc khi tôi tỉ mỉ làm theo một công thức nấu ăn, tạo ra một món ăn trông hoàn hảo, mùi thơm tuyệt vời, nhưng bằng cách nào đó lại thiếu đi cái “linh hồn” không thể định nghĩa của một món ăn được *thực sự hiểu* bởi một đầu bếp nấu ăn bằng cảm giác, người có thể ứng biến và điều chỉnh khi thiếu nguyên liệu, người mà kiến thức của họ khái quát hóa vượt ra ngoài những chỉ dẫn cụ thể.
Vậy, điều này có ý nghĩa gì đối với ngành công nghiệp đã đặt cược rất nhiều vào cuộc theo đuổi sự toàn tri tính toán này? Nếu “định luật mở rộng quy mô” – ý tưởng rằng bộ não lớn hơn và nhiều dữ liệu hơn chắc chắn dẫn đến trí thông minh lớn hơn – bắt đầu sụp đổ, nó sẽ làm rung chuyển tận nền tảng của ngành kinh doanh AI. Lần cuối cùng một “bức tường” nhận thức được chạm tới, vào khoảng cuối năm 2024, đầu năm 2025, nó đã gây ra một cuộc khủng hoảng hiện sinh cho ngành. Trong khi các nhân vật lỗi lạc như Sam Altman khẳng định “Không có bức tường nào cả”, và những người khác, như Jensen Huang, vẫn kiên định với niềm tin vào việc tiếp tục mở rộng quy mô, thì đây chỉ là những quy luật thực nghiệm, không phải là định luật bất biến của vũ trụ. Suy luận được cho là lối thoát, là biên giới mới của trí thông minh sẽ biện minh cho làn sóng chi tiêu tiếp theo và giữ cho ngành kinh doanh AI tồn tại, thúc đẩy nhu cầu về mọi thứ từ chip đến các trung tâm dữ liệu siêu quy mô. Ngành đã hoàn toàn cam kết, với các thiết kế TPU mới được đặc biệt hướng đến “tư duy và suy luận ở quy mô lớn”.
Nhưng nếu lời hứa về khả năng suy luận có thể mở rộng quy mô không còn là điều hiển nhiên, nếu các mô hình này không thực sự khái quát hóa vượt ra ngoài dữ liệu huấn luyện của chúng, thì điều đó đặt ra những câu hỏi sâu sắc hơn về việc AI ngày nay có thể tiến xa đến mức nào. Nó phủ một cái bóng dài lên hàng tỷ đô la mà các doanh nghiệp đang đổ vào AI, hy vọng vào một lợi ích mang tính chuyển đổi có thể không thành hiện thực. Apple, trong bài báo gây tranh cãi của mình, có thể bị một số người coi là đang “thay đổi mục tiêu” – một cách kể chuyện tiện lợi từ một công ty đang chạy đua để bắt kịp trong cuộc đua AI – nhưng những mối lo ngại cơ bản rất khó bỏ qua, ngay cả khi Anthropic đã đưa ra phản hồi của riêng mình, “Ảo ảnh của Ảo ảnh của Tư duy” (The Illusion of the Illusion of Thinking).
Có lẽ điều bất ngờ lớn nhất từ tất cả những điều này là việc đẩy lùi mốc thời gian để đạt được trí tuệ nhân tạo tổng quát. Đó là một giấc mơ, được theo đuổi với chi phí cắt cổ bởi những tên tuổi lớn nhất trong ngành công nghệ, với những hàm ý to lớn về quan hệ đối tác và quyền kiểm soát đối với chính định nghĩa về trí thông minh. Suy luận, chúng ta đã được nói, sẽ là bước nhảy vọt vĩ đại tiếp theo của AI, cây cầu dẫn đến ý thức máy móc thực sự. Thay vào đó, nó có thể chỉ là bước khiến chúng ta nhận ra, với một sự rõ ràng đầy khiêm tốn, rằng chúng ta còn phải đi xa đến mức nào, và hành trình của sự hiểu biết thực sự vẫn còn phức tạp hơn rất nhiều.