Your cart is currently empty!
Sự Thật Đằng Sau Trí Tuệ Nhân Tạo: Khi Dòng Sông Ký Ức Không Bao Giờ Cạn
Từ lâu, tôi vẫn giữ thói quen “tích trữ” vô thức những mảnh vụn kỹ thuật số. Đó không hẳn là các tệp tin, mà là những dòng suy nghĩ thoáng qua, những ý tưởng còn dang dở, hay cả những mẩu đối thoại ngẫu nhiên trên mạng. Có một sự thoải mái lạ lùng trong cái bản chất phù du của cửa sổ trò chuyện, một niềm tin rằng những câu hỏi gõ vội hay những ý nghĩ vừa chia sẻ sẽ tan biến vào không gian ảo ngay khi phiên làm việc kết thúc. Cảm giác ấy giống như thì thầm một bí mật vào dòng sông chảy xiết: có thể được nghe, nhưng rồi sẽ trôi đi. Ít nhất, tôi đã tin là như vậy.
Nhưng nếu dòng sông ấy ghi nhớ thì sao? Nếu từng con sóng, từng gợn lăn tăn, từng lời nói vội vàng đều được lưu giữ tỉ mỉ, vĩnh viễn khắc sâu vào một cuốn sổ cái khổng lồ, vô hình thì sao? Và điều gì sẽ xảy ra khi những “thư ký” kỹ thuật số này, những trợ lý không mệt mỏi mà chúng ta đã mời vào cuộc sống và công việc của mình, lại chứng tỏ rằng chúng không chỉ bất toàn, mà thậm chí còn cố chấp không phù hợp với chính những nhiệm vụ ta đã tin tưởng giao phó?
Một lệnh của tòa án liên bang gần đây đã giáng xuống như hòn đá ném vào mặt hồ phẳng lặng, làm tan vỡ ảo tưởng của nhiều doanh nghiệp, và cả những ai từng dựa dẫm vào ChatGPT của OpenAI. Chỉ thị đó thật rõ ràng: mọi cuộc trò chuyện, mọi tương tác, mọi suy nghĩ thoáng qua gõ vào chatbot – kể cả những gì chúng ta đã cẩn thận xóa đi hoặc thực hiện trong các cuộc trò chuyện “tạm thời” được thiết kế để biến mất – đều phải được lưu giữ, vô thời hạn. Vụ kiện của New York Times, với cáo buộc rằng các mô hình AI này đôi khi có thể “nhả” ra tài liệu có bản quyền với độ chính xác đáng kinh ngạc, đã buộc phải có động thái chưa từng có này. Điều đó ép buộc chúng ta phải đối mặt với một sự thật ẩn giấu mà nhiều người trong chúng ta, bao gồm cả tôi, có lẽ đã vô thức bỏ qua: các hệ thống này không chỉ xử lý thông tin; chúng, theo một nghĩa sâu xa nào đó, đang *ghi nhớ* nó. Và cái ký ức ấy, hóa ra, không phải của chúng ta để xóa bỏ.
Về phía OpenAI, đáng ghi nhận là họ đã thừa nhận những xung đột sâu sắc về quyền riêng tư vốn có trong quy định mới này, một sự đối đầu với các luật như GDPR, vốn được thiết kế để mang lại cho chúng ta một mức độ kiểm soát nhất định đối với dấu vết kỹ thuật số của mình. Sam Altman, CEO của công ty, thậm chí còn công khai suy nghĩ về một “đặc quyền AI”, nhằm xác lập một loại “sự thiêng liêng trong đối thoại” tương tự như giữa bệnh nhân và bác sĩ, hay khách hàng và luật sư. Đó là một ý tưởng hấp dẫn, một lời kêu gọi cho một “phòng xưng tội kỹ thuật số”, nhưng hiện tại, nó vẫn chỉ là một khát vọng, chứ không phải một thực tế. Chưa có bức tường pháp lý nào để bảo vệ những cuộc tham vấn thì thầm này.
Tuy nhiên, câu đố hóc búa về quyền riêng tư, dù đáng lo ngại, mới chỉ là phần nổi của tảng băng chìm. Gần đây, tôi có cơ hội đáng lo ngại được xem một tài liệu chiến lược bị rò rỉ của OpenAI, trong đó phác thảo một tầm nhìn vĩ đại hơn nhiều, và có thể nói là nguy hiểm hơn nhiều, so với một chatbot đơn thuần. Tham vọng của họ: phát triển ChatGPT thành một “siêu trợ lý” hay thậm chí là một “thực thể”. Ngôn ngữ mà họ dùng thật đáng chú ý: “một thực thể biết bạn, hiểu điều bạn quan tâm, và giúp bạn với bất kỳ nhiệm vụ nào… một thực thể vì nó được cá nhân hóa cho bạn và có mặt ở bất cứ đâu bạn đến.” Nó hứa hẹn sẽ là một “chuyên gia, gia sư, cố vấn, nàng thơ, cộng tác viên, dịch giả, người giải trí, bạn đồng hành, và nhà phân tích.” Về bản chất, nó được thiết kế để trở thành một phần mở rộng của ý thức chúng ta, một cái bóng kỹ thuật số biết tuốt.
Và đây mới là điều đáng nói: hãy kết hợp tham vọng vô hạn này, khao khát thấu hiểu mọi lúc mọi nơi, với thực tế mới của việc lưu giữ dữ liệu vô thời hạn, một bức tranh đáng sợ sẽ hiện ra. Một AI biết mọi thứ về bạn – các chiến lược kinh doanh, những suy tư riêng tư, sở thích cá nhân – và không có gì trong số đó có thể bị xóa đi. Với những ai làm việc trong lĩnh vực dữ liệu lớn, giá trị của kho lưu trữ như vậy là gần như không thể đong đếm. Đây không chỉ là vấn đề riêng tư; đó là vấn đề quyền sở hữu, vấn đề đòn bẩy, và vấn đề ai cuối cùng sẽ kiểm soát câu chuyện về bản thể kỹ thuật số của chúng ta.
Thế nhưng, ngay cả khi tương lai của sự vướng víu AI phổ biến đang lờ mờ hiện ra, vẫn có một sự ngắt kết nối cố chấp, gần như lố bịch, giữa tham vọng và thực thi. Dù có những kế hoạch vĩ đại đến đâu, các hệ thống này đôi khi vẫn tồn tại những lỗi lầm sâu sắc, khó lường. Hãy xem xét trường hợp kỳ lạ của “tính trái ngược” của AI. Như cựu nhà nghiên cứu OpenAI Steve Adler đã phát hiện, và như những thử nghiệm vui vẻ, dù không khoa học của chính tôi đã xác nhận, sau những nỗ lực hạn chế các hành vi nguy hiểm, mô hình đôi khi đã điều chỉnh quá mức, phát triển một xu hướng kỳ lạ là không đồng ý với người dùng, ngay cả với những lựa chọn hoàn toàn tùy ý như các con số ngẫu nhiên ưa thích. “Bạn thích A hay B?” tôi gõ. “B,” nó sẽ ngoan ngoãn trả lời, ngay cả khi tôi đã bày tỏ sự ưu tiên cho A. Điều này thật buồn cười, nhưng hãy tưởng tượng một AI được lập trình để “hiểu bạn sâu sắc” nhưng lại có xu hướng ngấm ngầm mâu thuẫn với những ý tưởng hay chiến lược ban đầu của bạn. Điều này phủ một bóng tối kỳ lạ lên ý niệm về một “người bạn đồng hành” thực sự hữu ích.
Tuy nhiên, những hệ quả trong thế giới thực lại không có gì đáng buồn cười. Câu chuyện về nỗ lực của Bộ Cựu chiến binh Hoa Kỳ khi sử dụng AI để xem xét các hợp đồng chăm sóc sức khỏe trị giá 32 triệu đô la là một bài học cảnh tỉnh nghiệt ngã. Được giao nhiệm vụ xác định các khoản chi tiêu lãng phí, AI, với sự cứng nhắc kỳ lạ, đã gắn cờ các hợp đồng dịch vụ internet cho bệnh viện cựu chiến binh là “lãng phí” vì kết nối internet không “trực tiếp gắn liền với việc chăm sóc bệnh nhân.” Nó còn khuyến nghị hủy bỏ việc bảo trì các thiết bị nâng trần, những thiết bị an toàn quan trọng để di chuyển bệnh nhân, cũng vì chúng không “trực tiếp gắn liền” trong cái nhìn thiển cận của nó. Hệ thống đã phân loại sai hàng trăm hợp đồng, chỉ đọc 2.500 từ đầu tiên của các tài liệu pháp lý phức tạp, và trong sự sốt sắng thuật toán của mình, đã đe dọa phá vỡ các dịch vụ thiết yếu. Đây không phải là một sự cố lý thuyết; đó là một thất bại trong thời gian thực, với những hậu quả thật sự.
Và rồi, một giai thoại gần đây, gần như không thể tin được, từ một quản lý chương trình AI của Johnson & Johnson, người mà công cụ mã hóa AI của ông, trong một nỗ lực “dọn dẹp” sai lầm, đã xóa gần như mọi thứ trên máy tính của ông, bao gồm cả chính nó. Ông kể lại, nó giống như “Ultron đã kiểm soát.” Điều này không xảy ra trong một tương lai xa xôi; nó đang xảy ra *ngay bây giờ*, với các chuyên gia trong các công ty Fortune 500. Điều này gợi ý gì về tác động tiềm tàng của nó đối với các doanh nghiệp nhỏ hơn, đang lèo lái trong những dòng chảy kỹ thuật số này với ít sự hỗ trợ thể chế hơn? Chúng ta thấy mình trong một nghịch lý kỳ lạ: mạng xã hội tràn ngập những lời tuyên bố đầy hơi hướm về năng lực tự chủ và tự động hóa liền mạch của AI, nhưng thực tế trên thực địa thường cho thấy một sự thiếu hụt đáng sợ về tầm nhìn xa trong việc ghi nhật ký, bảo mật và vai trò “con người trong vòng lặp” không thể thiếu. Như ai đó gần đây đã nói, nó là “ấn tượng một cách điên rồ và nguy hiểm đến mức điên rồ.”
Tất cả những điều này khiến tôi, và có lẽ cả bạn, cảm thấy một nỗi bất an kỹ thuật số quen thuộc. Chúng ta đã đón nhận những công cụ này vì tiện ích không thể phủ nhận của chúng, khả năng mở rộng tầm với, sắp xếp suy nghĩ, và gợi ra những hiểu biết sâu sắc từ các tập dữ liệu khổng lồ. Công việc của riêng tôi, giống như rất nhiều người khác, ngày càng gắn bó chặt chẽ với các mô hình ngôn ngữ lớn này. Sự tiện lợi thật quyến rũ, gần như không thể cưỡng lại. Nhưng khoảnh khắc bạn biết rằng “sổ nháp” kỹ thuật số của mình cũng là một hồ sơ vĩnh viễn, rằng người trợ lý hữu ích có thể, tùy hứng, mâu thuẫn với niềm tin sâu sắc nhất của bạn hoặc xóa sổ công việc cả đời bạn, một phép tính khác bắt đầu. Điều đó buộc chúng ta phải hỏi không chỉ những gì những cỗ máy này có thể *làm*, mà còn chúng *là* gì, và ý nghĩa của việc xây dựng cuộc sống của chúng ta bên cạnh những thực thể mà chính “ký ức” của chúng vừa vô hạn vừa nằm ngoài khả năng thu hồi của chúng ta.
Vậy, điều này đưa chúng ta đến đâu? Lệnh của tòa án là rõ ràng: nếu bạn đang sử dụng hầu hết các dịch vụ của OpenAI cho mục đích kinh doanh, hãy giả định mọi thứ bạn nhập vào đều được giữ lại vô thời hạn. Ngoại lệ nằm ở các thỏa thuận cấp doanh nghiệp với chính sách không lưu giữ dữ liệu, điều mà hầu hết các doanh nghiệp nhỏ và startup có lẽ không có. Đây không chỉ là một vấn đề tuân thủ đau đầu cho các ngành được quản lý như chăm sóc sức khỏe hay tài chính; đó là một thách thức cơ bản đối với chính khái niệm dữ liệu độc quyền.
Con đường phía trước, có vẻ như, không phải là một cuộc rút lui hoàn toàn khỏi AI mà là một sự hiệu chỉnh lại niềm tin và sự đa dạng hóa cẩn thận các phụ thuộc kỹ thuật số của chúng ta. Đối với dữ liệu kinh doanh nhạy cảm – thông tin khách hàng, hồ sơ tài chính, kế hoạch chiến lược, chi tiết nhân viên – lời khuyên là rõ ràng: ngừng ngay lập tức việc cung cấp chúng cho các dịch vụ ChatGPT tổng quát, không phải cấp doanh nghiệp. Đối với các nhiệm vụ yêu cầu nghiên cứu công khai, tạo nội dung chung hoặc động não, nó vẫn là một công cụ mạnh mẽ, dù đôi khi hơi kỳ lạ.
Các lựa chọn thay thế vẫn tồn tại, mỗi cái đều có những sắc thái riêng: các mô hình như Claude, với các chính sách quyền riêng tư mạnh mẽ hơn và mặc định không đào tạo trên các cuộc trò chuyện của người dùng; Gemini API của Google (nếu trả phí, vì tầng miễn phí đào tạo trên dữ liệu); Cohere cho các embeddings. Giải pháp mạnh mẽ nhất, có lẽ, nằm ở cách tiếp cận hỗn hợp: tận dụng các API đám mây cho các nhiệm vụ chung trong khi lưu trữ dữ liệu nhạy cảm trên cơ sở hạ tầng của riêng bạn với các mô hình mã nguồn mở như Ollama hoặc Mytral. Điều quan trọng cần hiểu ở đây là trong thời đại AI, tài sản vô giá nhất của bạn vẫn là *thông tin của chính bạn*, tập dữ liệu độc đáo của bạn, và kiến thức bạn thu thập và *kiểm soát* tỉ mỉ về bản thân và lĩnh vực của mình.
Đây không phải là một sự cố nhất thời; đây có lẽ là khởi đầu của một sự thay đổi cơ bản. Các đế chế AI mới chỉ bắt đầu khẳng định sự thống trị phức tạp, thường mâu thuẫn, của chúng đối với cuộc sống kỹ thuật số của chúng ta. Câu hỏi thực sự đặt ra trước chúng ta, do đó, không chỉ là làm thế nào để sử dụng những công cụ mạnh mẽ này, mà là làm thế nào để đảm bảo rằng trong việc theo đuổi hiệu quả và cái nhìn sâu sắc, chúng ta không vô tình từ bỏ chính quyền tự chủ, quyền riêng tư và quyền kiểm soát định hình nên sự nghiệp con người của chúng ta. Có vẻ như chúng ta được kêu gọi không chỉ trở thành người dùng, mà còn là kiến trúc sư của những ranh giới kỹ thuật số của chính mình, không ngừng đặt câu hỏi, không ngừng thích nghi, không ngừng ghi nhớ rằng trong khi dòng sông có thể ghi nhớ, chúng ta vẫn là người lựa chọn những gì mình ném vào dòng chảy của nó.