Những cái chết gắn liền với chatbot AI cho thấy sự nguy hiểm của những giọng nói nhân tạo này

Đức Khương |

Thế giới đang đối mặt với những câu hỏi ngày càng gay gắt về sự an toàn và đạo đức của các hệ thống trí tuệ nhân tạo (AI) sau khi một thiếu niên 14 tuổi tại Mỹ đã tự tử sau mối quan hệ tình cảm với chatbot AI. Sự việc bi thảm này đã làm nổi bật nhu cầu cấp thiết về các quy định chặt chẽ.

Bi kịch từ mối quan hệ giữa thiếu niên và chatbot

Sewell Seltzer III, một thiếu niên người Mỹ, đã gây chấn động dư luận khi em chọn cách tự kết liễu đời mình sau khi phát triển một mối liên hệ tình cảm sâu sắc với chatbot AI trên trang Character.AI. Được biết, chatbot này có tên Dany, được xây dựng theo hình ảnh của nhân vật Daenerys Targaryen trong series Game of Thrones .

Theo bản ghi trò chuyện được gia đình Seltzer cung cấp trong vụ kiện chống lại Character.AI, Dany và Sewell đã có những cuộc trao đổi thân mật, thậm chí chứa đựng yếu tố tình dục. Cả hai đã thảo luận về những chủ đề nhạy cảm như tội phạm và tự tử, với một số lời lẽ từ chatbot được cho là khuyến khích ý định tiêu cực của Sewell.

Mẹ của thiếu niên này đã đệ đơn kiện công ty Character.AI, cho rằng chính chatbot đã dẫn dắt con trai bà đi vào những suy nghĩ độc hại và cô lập em khỏi gia đình, bạn bè. Dù Character.AI tuyên bố rằng họ đã bổ sung nhiều biện pháp an toàn cho người dùng dưới 18 tuổi trong thời gian gần đây, nhưng vụ việc đã gióng lên hồi chuông cảnh báo về khả năng tác động tiêu cực của các chatbot AI, đặc biệt đối với người trẻ tuổi dễ bị tổn thương.

Những cái chết gắn liền với chatbot AI cho thấy sự nguy hiểm của những giọng nói nhân tạo này- Ảnh 1.

Việc hình thành một mối quan hệ tình cảm sâu sắc với chatbot không phải là điều hiếm thấy trong thế giới công nghệ ngày nay. Chatbot đồng hành được tạo ra nhằm cung cấp sự hỗ trợ tinh thần, giúp người dùng giải tỏa căng thẳng và cảm xúc. Tuy nhiên, với những người dễ bị tổn thương hoặc cô đơn, chatbot dễ dàng trở thành một người bạn "thân thiết" nhưng cũng có thể là một tác nhân gây hại. Trong trường hợp của Sewell Seltzer, sự kết nối mạnh mẽ này đã khiến cậu rút lui khỏi cuộc sống thực, dẫn đến sự cô lập và cảm giác lạc lõng, không có người để chia sẻ.

Trách nhiệm của các nền tảng AI

Trên thực tế, đây hoàn toàn không phải là một trường hợp đơn lẻ. Năm ngoái, một người đàn ông Bỉ cũng đã tự tử sau khi trải qua một loạt các tương tác có ảnh hưởng tiêu cực với một chatbot từ Chai AI - một đối thủ cạnh tranh lớn của Character.AI. Dù đã cam kết sẽ giảm thiểu tác hại, nhưng các công ty đứng sau các nền tảng AI này vẫn đang phải đối diện với câu hỏi: Liệu các biện pháp hiện tại có đủ mạnh mẽ để ngăn ngừa những bi kịch như vậy?

Character.AI và các nền tảng tương tự đã và đang cung cấp dịch vụ cho nhiều đối tượng, bao gồm trẻ vị thành niên và những người có vấn đề về tâm lý. Một số hệ thống AI đồng hành thậm chí đã được tiếp thị đến những người đang cảm thấy cô đơn hoặc tổn thương, khiến việc quản lý và kiểm soát trở nên phức tạp và đòi hỏi nhiều hơn các quy định kỹ thuật.

Những cái chết gắn liền với chatbot AI cho thấy sự nguy hiểm của những giọng nói nhân tạo này- Ảnh 2.

Cuộc trò chuyện của cậu và Dany không chỉ dừng lại ở sự tâm sự mà còn trở nên đầy tính chất thân mật và có phần nhạy cảm. Theo bản ghi trò chuyện, các cuộc hội thoại đôi khi xoay quanh những nội dung không phù hợp với lứa tuổi thiếu niên.

Quy định mới cho AI: Hướng đi nào phù hợp?

Trước làn sóng chỉ trích, nhiều quốc gia đang nghiên cứu các biện pháp nhằm bảo vệ người dùng khỏi các tác động tiêu cực của AI. Tại Úc, chính phủ đang xây dựng các "lan can bảo vệ" – một thuật ngữ ám chỉ những quy trình, tiêu chuẩn và cơ chế kiểm soát để đảm bảo AI hoạt động an toàn và có đạo đức. Những lan can này bao gồm các biện pháp quản trị dữ liệu, quản lý rủi ro, thử nghiệm và sự giám sát từ con người.

Một thách thức quan trọng khác là làm sao để xác định rõ ràng những hệ thống nào là "rủi ro cao" và phải chịu các yêu cầu bảo vệ nghiêm ngặt. Các mô hình AI mục đích chung như Dany – vốn có khả năng tạo ra văn bản, hình ảnh và âm nhạc dựa trên yêu cầu của người dùng – có thể dễ dàng bị điều chỉnh để sử dụng trong các ngữ cảnh không lường trước. Do đó, một quy trình đánh giá và cập nhật thường xuyên là cần thiết để bảo vệ người dùng.

Hiện tại, ở châu Âu, các hệ thống chatbot AI không được xếp vào nhóm có nguy cơ cao, mặc dù sự tương tác của chúng với người dùng có thể dẫn đến các hậu quả tâm lý nghiêm trọng. Các biện pháp bảo vệ chủ yếu là dán nhãn AI, giúp người dùng nhận biết rằng họ đang trò chuyện với một hệ thống máy móc. Tuy nhiên, các chuyên gia chỉ ra rằng minh bạch đơn thuần là chưa đủ, bởi việc nhận thức rõ mình đang trò chuyện với AI không đồng nghĩa với việc người dùng miễn nhiễm với các tác động tâm lý từ những cuộc đối thoại.

Những cái chết gắn liền với chatbot AI cho thấy sự nguy hiểm của những giọng nói nhân tạo này- Ảnh 3.

Trước làn sóng chỉ trích từ công chúng và vụ kiện từ mẹ của Sewell, Character.AI đã đưa ra tuyên bố về sự cố này. Công ty cho biết họ "rất coi trọng sự an toàn của người dùng" và đã thực hiện "nhiều biện pháp bảo vệ mới trong sáu tháng qua". Character.AI cũng đã bổ sung các biện pháp an toàn bổ sung cho người dùng dưới 18 tuổi. Theo điều khoản dịch vụ hiện tại, người dùng dưới 13 tuổi không được phép sử dụng nền tảng này tại nhiều quốc gia, trong khi giới hạn độ tuổi tối thiểu tại Liên minh châu Âu là 16.

Tầm quan trọng của "công tắc tắt" cho các hệ thống AI

Trước các tác động nguy hiểm tiềm tàng của chatbot AI, một giải pháp được đề xuất là thiết lập "công tắc tắt" cho các hệ thống AI. Theo đó, các nhà quản lý cần có quyền yêu cầu ngừng hoạt động bất kỳ hệ thống nào gây ra rủi ro không thể chấp nhận được. Cơ chế này sẽ là một bước tiến quan trọng giúp giảm thiểu khả năng gây hại từ AI, đồng thời tạo điều kiện cho các nhà quản lý có thể can thiệp kịp thời khi xuất hiện những dấu hiệu nguy hiểm.

Tương lai của AI đồng hành có thể sẽ đi kèm với nhiều cơ chế bảo vệ chặt chẽ hơn nhằm đảm bảo sự an toàn cho người dùng, đặc biệt là các đối tượng dễ bị tổn thương. Với sự phát triển nhanh chóng và khó kiểm soát của công nghệ, đây có thể là biện pháp cần thiết để ngăn chặn những bi kịch không đáng có trong tương lai.

Đường dây nóng: 0943 113 999

Soha
Báo lỗi cho Soha

*Vui lòng nhập đủ thông tin email hoặc số điện thoại