Your cart is currently empty!
Chúng ta không sợ AI trở nên thông minh – chúng ta sợ nó không đủ nhân văn.
Video “No Priors Ep. 117 | Dr. Fei-Fei Li” là một cuộc trò chuyện sâu sắc giữa Dr. Fei-Fei Li — đồng giám đốc Stanford HAI (Institute for Human-Centered AI) — và nhóm No Priors, xoay quanh cách trí tuệ nhân tạo nên được phát triển có trách nhiệm, vì con người, và dựa trên bối cảnh xã hội – không chỉ là công nghệ đơn thuần.
🧠
Nội dung chính:
1.
AI không nên chỉ là “tool” – nó là yếu tố định hình xã hội
- Fei-Fei Li nhấn mạnh: Chúng ta đang sống giữa cuộc cách mạng giống như điện hoặc Internet.
- Nhưng AI không vô hình – nó ảnh hưởng trực tiếp đến y tế, giáo dục, quyền riêng tư, việc làm.
2.
Trung tâm HAI tại Stanford = Nơi kết nối giữa khoa học máy tính & nhân văn
- Mục tiêu: Phát triển AI có nhân tính.
- AI nên được thiết kế và kiểm soát bởi các nguyên tắc đạo đức, chứ không chỉ “hiệu suất cao.”
3.
Dự án World Labs:
- Một sáng kiến của Dr. Fei-Fei Li để xây nền tảng AI giáo dục toàn cầu, ưu tiên:
- Trẻ em, vùng sâu vùng xa.
- Nội dung giáo dục an toàn, cá nhân hóa, không định kiến.
4.
Những quan điểm quan trọng của Dr. Li:
- Chúng ta không chỉ cần “AI Engineer”, mà cần “AI Citizens” – tức là ai cũng nên hiểu và có tiếng nói về AI.
- “Trung lập công nghệ là một ảo tưởng.” → AI được thiết kế bởi người, nên luôn có thiên kiến – nhiệm vụ của ta là kiểm soát và nhận diện nó.
5.
Câu chuyện cá nhân của Dr. Li
- Từng là di dân gốc Hoa, làm việc trong phòng cấp cứu và phòng thí nghiệm song song để trang trải.
- Đó là lý do bà luôn nhấn mạnh: AI phải phục vụ người yếu thế – không phải tái hiện sự bất công.
🎯
Thông điệp cuối:
“Chúng ta không sợ AI trở nên thông minh – chúng ta sợ nó không đủ nhân văn.”
Và nếu bạn là người tạo ra AI, bạn có nghĩa vụ đạo đức với thế giới mà nó ảnh hưởng.