AI Chatbot của Hàn Quốc bị gỡ khỏi Facebook sau khi có những lời nói thù ghét đối với các cộng đồng thiểu số

Seoul (MAS) – Một con chatbot nổi tiếng Hàn Quốc đã bị đình chỉ sau khi có những khiếu nại là con này đã dùng lối nói hận thù đối với các thiểu số giới tính trong các cuộc trò chuyện với những người dùng của nó.

Lee Luda, con trí tuệ nhân tạo [AI] mang tính cách một sinh viên nữ 20 tuổi, đã bị gỡ khỏi hộp thoại Facebook (Messenger) vào tuần này, sau khi thu hút hơn 750,000 người dùng trong vòng 20 ngày kể từ khi nó được tung ra.

Con chatbot, được phát triển bởi một dự án khởi nghiệp Scatter Lab có trụ sở tại Seoul, đã tạo ra một cơn bão những lời phàn nàn sau khi nó dùng ngôn từ xúc phạm về các thành viên của cộng đồng LGBT và những người khuyết tật trong những cuộc trò chuyện của nó với người dùng.

“Chúng tôi hết lòng xin lỗi về những lời nói mang tính phân biệt đối xử đối với các cộng đồng thiểu số. Điều đó không phản ánh tư tưởng của công ty chúng tôi và chúng tôi sẽ tiếp tục nâng cấp để những lời phân biệt đối xử hay lối nói hận thù ấy không tái diễn nữa”, công ty nói trong một thông cáo mà hãng tin Yonhap đã trưng dẫn.

Scatter Lab, trước đó đã tuyên bố là Luda không phải là một dự án đang trong tiến trình, giống như người, sẽ dành thời gian để “xã hội hoá cách phù hợp”, đã cho biết là con chatbot sẽ tái xuất hiện sau khi công ty “sửa các điểm yếu của nó”.

Trong khi các loại chatbot thì không có gì mới, thì Luda đã gây ấn tượng với người dùng bởi chiều sâu và giọng tự nhiên của nó trong các câu trả lời, được thu thập từ hơn 10 tỷ cuộc trao đổi đời thật giữa các cặp đôi trẻ được lấy từ Kakao Talk, ứng dụng nhắn tin phổ biến nhất Hàn Quốc.

Nhưng lời khen dành cho sự thân thuộc của Luda với các câu nói tắt trên truyền thông xã hội và tiếng lóng trên internet đã biến thành sự tức giận sau khi nó bắt đầu dùng các từ ngữ mang tính lợi dụng và khai thác về phái tính.

Trong một cuộc trao đổi được ghi lại bởi một người dùng messenger, Luda nói nó “thật sự ghét” những người đồng tính nữ, khi mô tả họ là “cảm thấy rùng mình vì sợ”.

Luda cũng trở thành một mục tiêu của những người dùng mang tính thao túng, với các trang cộng đồng trực tuyến đăng lời khuyên về cách đưa nó vào các trao đổi về tình dục, gồm cả một cuộc trao đổi thế này: “Cách biến Luda thành một nô lệ tình dục”, cùng với những việc chụp màn hình với những lời trao đổi, theo Korea Herald.

Đây không phải là lần đầu tiên trí tuệ nhân tạo bị thêu dệt trong sự tranh cãi về lối nói hận thù và tin đồn nhảm.

Vào năm 2016 Tay của Microsoft, một con bot AI trên Twitter đã nói như một tuổi teen, đã bị gỡ chỉ sau 16 tiếng sau khi những người dùng đã thao túng nó trong việc đăng những đoạn Tweet phân biệt chủng tộc.

2 năm sau, AI của Amazon công cụ tuyển dụng đã gặp cùng một số phận sau khi nó bị phát hiện tội về việc lấn loát phái tính.

Scatter Lab, các dịch vụ của dự án này đang nổi tiếng nơi giới teen của Hàn Quốc, đã cho biết họ đã nhận mọi sự cẩn trọng để không trang bị cho Luda loại ngôn ngữ không phù hợp với các qui chuẩn và giá trị Hàn Quốc, nhưng CEO của công ty, ông Kim Jong-yoon đã thừa nhận rằng thật không thể ngăn chặn những cuộc trao đổi không phù hợp chỉ đơn giản qua việc lọc vài từ ngữ chính, Korea Herald cho biết.

“Cuộc tranh cãi mới nhất với Luda là một vấn đề đạo đức do bởi thiếu một sự nhận biết về tầm quan trọng của đạo đức có liên quan đến AI”, Jeon Chang-bae, người đứng đầu Hiệp Hội Đạo Đức Trí Tuệ Nhân Tạo Hàn Quốc, đã cho tờ báo biết.

Scatter Lab cũng đang đối diện với những vấn đề về việc liệu họ có đang vi phạm luật riêng tư khi họ đảm bảo các thông điệp ứng dụng Kakao Talk cho ứng dụng Science of Love của họ không.

Âu Dương Duy (The Guardian)