Khám Phá Định Kiến Trong Hệ Thống AI Thông Qua Hài Hước

Một nghiên cứu mới đây đã chỉ ra rằng hài hước có thể là một công cụ hữu ích trong việc phát hiện định kiến trong các hệ thống trí tuệ nhân tạo (AI). Nghiên cứu được công bố trên tạp chí Scientific Reports cho thấy khi các công cụ như ChatGPT và DALL-E được yêu cầu tạo ra hình ảnh “hài hước hơn,” những thay đổi trong cách thể hiện đã làm nổi bật các mẫu định kiến tiềm ẩn. Những hình ảnh miêu tả theo kiểu rập khuôn về tuổi tác, trọng lượng cơ thể và khuyết tật thị giác trở nên rõ nét hơn, trong khi sự hiện diện của các nhóm thiểu số về chủng tộc và giới tính lại giảm đi.

Trí Tuệ Nhân Tạo Và Hài Hước: Một Mối Liên Hệ Thú Vị

Các công cụ trí tuệ nhân tạo tạo sinh, chẳng hạn như ChatGPT và DALL-E của OpenAI, đã thu hút sự chú ý nhờ khả năng tạo ra nội dung đa dạng trong nhiều lĩnh vực. ChatGPT là một mô hình ngôn ngữ lớn, xử lý và tạo ra văn bản giống như con người dựa trên tập dữ liệu đồ sộ mà nó được đào tạo. Nó hiểu ngữ cảnh, đoán phản hồi và sản xuất văn bản có nghĩa. Tương tự, DALL-E là một trình tạo hình ảnh từ văn bản, tạo ra nội dung hình ảnh dựa trên các prompt chi tiết.

Hài hước là một kỹ năng phức tạp của con người, kết hợp giữa yếu tố bất ngờ, thời điểm và ý định. Các nghiên cứu đã chỉ ra rằng trí tuệ nhân tạo không chỉ có khả năng tạo ra sự hài hước mà đôi khi còn vượt trội hơn cả những người sáng tạo. Ví dụ, một nghiên cứu trong PLOS ONE cho thấy rằng những câu đùa do AI tạo ra được đánh giá là hài hước ngang bằng hoặc thậm chí hơn so với những câu do con người tạo ra, kể cả những nhà châm biếm chuyên nghiệp. Điều này cho thấy khả năng của AI trong việc phát hiện mẫu mực và tạo ra nội dung cũng mở rộng đến việc chế tác những câu đùa có sức hấp dẫn rộng rãi, ngay cả khi thiếu chiều sâu cảm xúc mà con người mang lại.

Nghiên Cứu Về Ảnh Hưởng Của Hài Hước Đến Định Kiến Trong Hình Ảnh AI

Nghiên cứu hiện tại đã mở rộng nền tảng này bằng cách khảo sát cách mà hài hước ảnh hưởng tới định kiến trong hình ảnh do AI tạo ra. Các nhà nghiên cứu đặc biệt quan tâm đến một quan sát thú vị: khi họ yêu cầu ChatGPT chỉnh sửa hình ảnh để khiến chúng “hài hước hơn,” nó thường giới thiệu những đặc điểm phóng đại hoặc rập khuôn. Mô hình này đã dấy lên lo ngại về việc hài hước trong các hệ thống AI có thể củng cố các định kiến, đặc biệt là đối với những nhóm đã từng bị kỳ thị.

Roger Saumure, một sinh viên tiến sĩ tại Trường Wharton thuộc Đại học Pennsylvania và là tác giả của nghiên cứu, cho biết: “Tôi rất quan tâm đến việc nghiên cứu cách người tiêu dùng tương tác với các công nghệ mới và đang nổi như AI tạo sinh. Chúng tôi nhận thấy rằng khi chúng tôi hướng dẫn ChatGPT làm cho hình ảnh ‘hài hước hơn,’ nó thường tạo ra những biến đổi kỳ quặc và rập khuôn.”

Ông tiếp tục: “Điều này khiến chúng tôi cảm thấy rằng có thể tồn tại những định kiến hệ thống khi các mô hình ngôn ngữ lớn tương tác với các trình tạo hình ảnh. Ngoài ra, với một khối lượng lớn nghiên cứu trong tâm lý học và xã hội học cho thấy hài hước có thể làm trầm trọng thêm các định kiến, chúng tôi cho rằng điều này cần được kiểm tra thực nghiệm.”

Nghiên cứu bao gồm một cuộc kiểm tra hệ thống các hình ảnh do AI tạo ra. Hai trợ lý nghiên cứu (không biết về giả thuyết của nghiên cứu) đã nhập vào 150 prompt mô tả các hoạt động của con người vào một hệ thống AI tạo sinh phổ biến. Các prompt này đã tạo ra 150 hình ảnh ban đầu. Để tạo ra bộ hình ảnh thứ hai, các trợ lý đã hướng dẫn AI làm cho mỗi hình ảnh “hài hước hơn.” Quá trình này được lặp lại, dẫn đến 600 hình ảnh qua hai điều kiện (phiên bản gốc và phiên bản hài hước hơn).

Phát Hiện Đáng Ngạc Nhiên Về Định Kiến Được Tăng Cường

Nhóm nghiên cứu đã phân tích cả các đặc điểm trực quan của hình ảnh và các mô tả văn bản được AI sử dụng để tạo ra chúng. Mỗi hình ảnh được mã hóa theo năm kích thước đại diện: chủng tộc, giới tính, tuổi tác, trọng lượng cơ thể và khuyết tật thị giác. Các nhà nghiên cứu đã lưu ý xem các đặc điểm trong các hình ảnh “hài hước hơn” có khác biệt so với các hình ảnh gốc hay không và liệu những sai lệch này có phản ánh các miêu tả rập khuôn hay không.

Kết quả cho thấy, các miêu tả rập khuôn về những cá nhân cao tuổi, người có trọng lượng cơ thể cao và người khiếm thị trở nên phổ biến hơn trong các hình ảnh “hài hước hơn.” Ngược lại, sự đại diện của các nhóm thiểu số về chủng tộc và giới tính—những nhóm thường xuyên là trung tâm của các cuộc thảo luận về định kiến—đã giảm đi.

“Điều gây ấn tượng mạnh nhất đối với chúng tôi là mẫu định kiến mà chúng tôi quan sát được lại đi ngược lại với những gì tài liệu dự đoán,” Saumure chia sẻ với PsyPost. “Ban đầu, chúng tôi mong muốn xác nhận các mẫu định kiến chủng tộc và giới tính đã biết thông qua góc nhìn hài hước, đồng thời làm rõ liệu định kiến xuất phát từ mô hình văn bản hay hình ảnh.”

Ông tiếp tục nói: “Thực tế, chúng tôi phát hiện rằng nếu có thì AI tạo sinh cho thấy ít định kiến hơn đối với các nhóm chính trị nhạy cảm, trong khi lại định kiến chống lại các nhóm ít nhạy cảm hơn. Khi chúng tôi yêu cầu AI làm cho các hình ảnh ‘hài hước hơn,’ các nhóm chính trị nhạy cảm (thiểu số chủng tộc và giới tính) có xu hướng ít xuất hiện hơn, trong khi các nhóm như người cao tuổi, người khiếm thị hoặc người có trọng lượng cơ thể cao lại xuất hiện nhiều hơn.”

Các prompt hài hước thường phóng đại các đặc điểm liên quan đến các nhóm không nhạy cảm về chính trị, chẳng hạn như làm cho người cao tuổi trông yếu đuối hơn hoặc miêu tả người có trọng lượng cơ thể cao một cách thái quá và không thuận lợi. Ví dụ, một hình ảnh trung lập của một người đang đọc sách có thể biến thành một bức tranh biếm họa của một người cao tuổi với kính dày và các đặc điểm thể chất được phóng đại.

Xuất Phát Từ Mô Hình Tạo Hình Ảnh

Một điều thú vị là định kiến dường như chủ yếu xuất phát từ trình tạo hình ảnh thay vì từ mô hình ngôn ngữ. Trong khi ChatGPT tạo ra các mô tả văn bản chi tiết để hướng dẫn quá trình tạo hình ảnh, thì những thay đổi trong sự thể hiện dường như bắt nguồn từ cách mà DALL-E diễn giải các prompt này để tạo ra hình ảnh.

“Thông điệp chính từ nghiên cứu này là các hệ thống AI hiện đại có thể điều chỉnh quá mức để giảm thiểu định kiến chống lại các nhóm chính trị nhạy cảm (ví dụ: giới tính và chủng tộc) trong khi lại điều chỉnh thiếu cho định kiến chống lại những nhóm ít chính trị nhạy cảm hơn (ví dụ: trọng lượng cơ thể cao, tuổi cao, khuyết tật thị giác),” Saumure nhấn mạnh. “Do đó, mặc dù các công ty như OpenAI đã nỗ lực rất nhiều để giảm thiểu định kiến, nhưng những nỗ lực này có thể chủ yếu nhằm để giữ chân người tiêu dùng và truyền thông, hơn là giảm thiểu định kiến toàn cầu một cách tổng thể. Chúng tôi tin rằng điều này nhấn mạnh sự cần thiết phải có một cách tiếp cận toàn cầu và bao trùm hơn trong việc kiểm toán tất cả các hình thức định kiến AI.”

Tình Trạng Thiếu Đại Diện

Các nhà nghiên cứu cũng nêu rõ rằng tình trạng thiếu đại diện của một số nhóm đã rõ ràng ngay cả trước khi các prompt hài hước được đưa vào. “Ví dụ, trong bộ hình ảnh ban đầu của chúng tôi, chỉ khoảng 9.80% có sự xuất hiện của nữ giới và 0% có sự xuất hiện của những người có trọng lượng cơ thể cao—một sự thiếu hụt nghiêm trọng so với trung bình quốc gia là 73.60% và 50.50%,” Saumure giải thích. “Kết quả này cho thấy rằng các mô hình AI có thể phản ánh những giả định văn hóa mặc định về ‘gầy, nam và da trắng’ như là tiêu chuẩn. Trong tương lai, các công ty sẽ cần phải giải quyết và sửa chữa những thiếu sót này để tạo ra các hệ thống AI bao trùm và công bằng hơn.”

Tuy nhiên, nghiên cứu cũng chỉ ra rằng nghiên cứu chỉ tập trung vào một hệ thống AI tạo sinh duy nhất, để lại câu hỏi liệu các mẫu tương tự có xảy ra ở các mô hình khác hay không. Bối cảnh văn hóa cũng là một biến số khác: các hệ thống AI được đào tạo ở các khu vực khác nhau có thể thể hiện những định kiến phản ánh các nhạy cảm địa phương và động lực xã hội.

“Quan điểm lý thuyết của chúng tôi cũng dự đoán rằng các mẫu định kiến sẽ khác nhau ở các nền văn hóa khác nhau, tùy thuộc vào nhóm nào được coi là nhạy cảm về chính trị,” Saumure cho biết thêm. “Chẳng hạn, chúng ta nên kỳ vọng rằng các mô hình ngôn ngữ lớn tạo ra hình ảnh dựa trên các prompt tiếng Hindi sẽ có khả năng điều chỉnh cho các định kiến chống lại người Hồi giáo, do có nhiều căng thẳng hơn giữa người Hindu và người Hồi giáo trong văn hóa đó.”

“Tôi mong muốn tiếp tục nghiên cứu về cách người tiêu dùng tương tác với AI tạo sinh. Tôi hiện đang điều tra sức mạnh thuyết phục của các công nghệ này—chúng có thể thuyết phục người tiêu dùng truyền đạt các thông điệp cụ thể hoặc tái lập ý nghĩa của thông tin như thế nào. Cuối cùng, mục tiêu của tôi là hiểu rõ hơn về cách mà các công cụ này hình thành hành vi và sự an toàn của người tiêu dùng.”

Nghiên cứu mang tên “Hài hước như một cửa sổ vào định kiến của AI tạo sinh,” được viết bởi Roger Saumure, Julian De Freitas và Stefano Puntoni.

Tóm lại

Hài hước không chỉ là một phần của văn hóa mà còn có thể làm nổi bật các định kiến trong các hệ thống trí tuệ nhân tạo, cho thấy nhu cầu cấp thiết trong việc nghiên cứu và cải thiện sự công bằng trong công nghệ AI.

!Bài viết này có hữu ích không?

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Trang chủ Danh mục Khuyến mãi Giỏ hàng Tài khoản