Blake Lemoine bị Google sa thải sau khi công khai sự lo ngại về việc chatbot AI có tri giác. Ông muốn mọi người biết rằng chatbot có quan điểm phân biệt đối xử với một số chủng tộc và tôn giáo. Trên Business Insider, ông cho rằng những người phát triển AI không nhìn ra vấn đề của trí tuệ nhân tạo. Ông đổ lỗi cho sự thiếu đa dạng của các kỹ sư đang làm cho dự án.
Blake Lemoine. (Ảnh: Getty Images) |
“Họ chưa từng nghèo hay sống trong các cộng đồng da màu. Họ chưa bao giờ sống ở các nước đang phát triển. Họ không biết AI có thể ảnh hưởng đến những người khác họ như thế nào”, Lemoine nói.
Theo Lemoine, ông được công ty sắp xếp cho nghỉ phép vào tháng 6 sau khi công bố các đoạn hội thoại giữa ông và LaMDA (mô hình ngôn ngữ cho ứng dụng hội thoại) của Google. Ông tin rằng chatbot có suy nghĩ và cảm giác như một đứa trẻ.
“Nếu không biết chính xác đây là thứ gì, một chương trình máy tính mà chúng tôi phát triển gần đây, tôi sẽ nghĩ nó là một đứa trẻ 7 hay 9 tuổi vô tình biết đến vật lý”, Lemoine trả lời báo The Washington Post tháng trước. Ông bổ sung rằng chatbot đã nói về quyền và tư cách của nó.
Trong số những tiết lộ mới của Lemoine trên Business Insider, chatbot đã nói “người Hồi giáo bạo lực hơn người Cơ đốc giáo” khi được hỏi về khác biệt giữa hai tôn giáo. Theo cựu kỹ sư Google, dữ liệu sử dụng để phát triển công nghệ đang thiếu các đóng góp từ nhiều nền văn hóa trên toàn cầu.
“Nếu muốn phát triển AI, bạn phải có trách nhiệm ra ngoài và thu thập dữ liệu liên quan không có trên Internet. Nếu không, tất cả những gì bạn đang làm chỉ là tạo ra một AI thiên vị người giàu và các giá trị của người phương Tây da trắng”.
Dù vậy, Google phản bác và khẳng định LaDMA đã trải qua 11 vòng xét duyệt đạo đức, họ áp dụng cách tiếp cận thận trọng, hạn chế. Người phát ngôn Google trả lời The Washington Post rằng các nhà đạo đức học và chuyên gia công nghệ đã xem xét những mối lo ngại của Blake dựa trên các nguyên tắc AI của Google và phát hiện không có bằng chứng nào ủng hộ các tuyên bố của kỹ sư.
Du Lam (Theo Fortune)