Trong thời đại công nghệ hiện nay, việc tìm kiếm và học hỏi thông tin mới đã trở thành một thách thức không nhỏ đối với người dùng. Điều này càng trở nên nghiêm trọng khi các công cụ AI sinh ra, như ChatGPT, thường xuyên tạo ra những thông tin sai lệch mà chúng ta gọi là “hallucinations”. Sự thật này đã được khẳng định bởi trải nghiệm của nhiều thư viện đại học trên toàn quốc.
Hiện Tượng “Hallucinations”
Khái niệm “hallucinations” trong lĩnh vực AI xuất hiện không lâu sau khi ChatGPT được ra mắt. Các thư viện đại học nhận thấy rằng sinh viên thường lãng phí thời gian tìm kiếm sách và bài báo mà thực tế không tồn tại. Khi được hỏi, họ đã tiết lộ rằng nguồn gốc thông tin đó đến từ ChatGPT. Trong bối cảnh này, từ “hallucinations” được sử dụng để chỉ những sản phẩm sai lệch do thuật toán không phải con người tạo ra, điều này gây hiểu lầm cho người dùng.
Một trong những ví dụ điển hình về vấn đề này là vào tháng 4 năm 2023, khi một bài báo tiết lộ rằng ChatGPT đã tạo ra những bài viết giả mạo từ tờ Guardian. Một độc giả đã yêu cầu thông tin về một bài viết mà phóng viên không thể nhớ đã viết và cuối cùng phát hiện ra rằng bài báo đó không hề tồn tại.
Giá Trị Cổ Phiếu và Thực Tế
Kể từ khi ra mắt hai năm trước, OpenAI, công ty đứng sau ChatGPT, đã ghi nhận giá trị lên đến 157 tỷ USD. Tuy nhiên, sự gia tăng này không đồng nghĩa với việc các vấn đề như “hallucinations” đã được giải quyết. Kristian Hammon, giáo sư và giám đốc Trung tâm Tiến bộ An toàn của Trí tuệ Máy móc, cho biết “hallucinations không phải là lỗi; chúng là một phần thiết yếu” trong cách hoạt động của AI sinh ra. Ông nhấn mạnh rằng mục tiêu không nên là loại bỏ chúng, mà là cung cấp thông tin chính xác nhất có thể cho các mô hình ngôn ngữ.
Thiếu Sót Trong Giáo Dục Công Chúng
Một trong những điều đáng chú ý là OpenAI vẫn chậm trễ trong việc giáo dục công chúng về các vấn đề này. Hướng dẫn đầu tiên dành cho sinh viên chỉ được phát hành vào tháng 11 năm 2024, gần hai năm sau khi ChatGPT ra mắt. Nội dung hướng dẫn chỉ đơn giản nhắc nhở: “Vì các mô hình ngôn ngữ có thể tạo ra thông tin không chính xác, hãy luôn kiểm tra lại các thông tin quan trọng.” Điều này cho thấy việc nâng cao nhận thức về thông tin sai lệch do AI tạo ra chưa được đặt lên hàng đầu.
Nguy hiểm hơn nữa, ngay cả các chuyên gia cũng gặp khó khăn trong việc phân biệt giữa thông tin đúng và sai do AI cung cấp. Một giáo sư tại Đại học Stanford đã phải xin lỗi vì đã sử dụng các trích dẫn do ChatGPT tạo ra trong một hồ sơ pháp lý. Những trích dẫn này dẫn đến các bài báo không tồn tại và các tác giả sai lệch, làm dấy lên câu hỏi về uy tín của ông.
Tác Động Trong Y Tế
Jean-Christophe Bélisle-Pipon, một giáo sư khoa học sức khỏe tại Đại học Simon Fraser ở British Columbia, cảnh báo rằng các “hallucinations” của AI có thể có “hệ quả nguy hiểm đến tính mạng” trong lĩnh vực y tế. Ông nhấn mạnh rằng các cảnh báo tiêu chuẩn từ AI như ChatGPT là không đủ để đảm bảo an toàn trong môi trường lâm sàng. Việc đào tạo các chuyên gia y tế về độ tin cậy của nội dung từ AI là một điều cần thiết.
Biểu Hiện của Sai Lầm Con Người
Một quan ngại lớn là nhiều người dễ dàng tin tưởng vào thông tin do AI cung cấp. Khái niệm “automated bias” cho thấy rằng con người có xu hướng tin tưởng vào các công cụ tự động. Emily Bender, giáo sư ngôn ngữ học tính toán, đã chỉ ra rằng “một hệ thống đúng 95% có thể nguy hiểm hơn một hệ thống đúng 50%”. Vì vậy, mọi người sẽ tin tưởng vào kết quả và ít khả năng kiểm tra lại 5% sai sót.
Nâng Cao Nhận Thức Về AI
Người dùng ChatGPT và các công cụ AI khác cần hiểu rằng thông tin sai lệch hay “hallucinations” không chỉ là một trục trặc kỹ thuật, mà còn là một mối nguy thực sự, từ những sai sót học thuật đến những lỗi y tế nguy hiểm. Chúng ta có trách nhiệm giáo dục sinh viên không chỉ làm thế nào để sử dụng AI mà còn là cách đánh giá một cách nghiêm túc các đầu ra từ AI.
Các cơ sở giáo dục có cơ hội và trách nhiệm tạo ra các khóa học và sáng kiến giúp sinh viên chuẩn bị đối mặt với những thách thức đạo đức mà AI mang lại. Tại Oregon State University, chúng tôi đang phát triển Trung tâm về Giáo Dục và Đạo Đức AI nhằm đáp ứng nhu cầu này.
Tóm lại, việc sử dụng AI trong cuộc sống hàng ngày đi kèm với rất nhiều thách thức, và trách nhiệm giáo dục phải thuộc về các cơ sở giáo dục, chứ không chỉ riêng các công ty công nghệ.