Theo tạp chí Time, ChatGPT được ca ngợi là một trong những cải tiến công nghệ ấn tượng nhất của năm 2022 khi được phát hành. Chatbot sử dụng trí tuệ nhân tạo (AI) có thể trả lời hầu hết mọi chủ đề mà kể cả một đứa trẻ 5 tuổi cũng có thể hiểu được. Trong vòng một tuần, ChatGPT đã đạt được một triệu người dùng.
Theo các nguồn tin, OpenAI, công ty đứng sau ChatGPT đang đàm phán với các nhà đầu tư để huy động thêm vốn. Microsoft được cho là sẽ rót khoảng 10 tỷ cho OpenAI. Điều này có thể biến nó trở thành dự án AI có giá trị lớn nhất thế giới.
Tuy nhiên, để ChatGPT có thể thành công, đằng sau những thiên tài ở Thung lũng Silicon còn một góc khuất khác, OpenAI đã phải thuê những nhân viên IT ở Kenya làm việc trong môi trường độc hại với giá chỉ khoảng 2 USD/giờ để cải thiện ChatGPT.
Công việc rất quan trọng đối với OpenAI nhưng độc hại với người thực hiện
Theo Time, ứng dụng tiền nhiệm của ChatGPT, GPT-3, đã thể hiện khả năng ấn tượng khi có thể xâu chuỗi các câu lại với nhau. Nhưng phiên bản này có xu hướng đưa ra những nhận xét bạo lực, phân biệt giới tính và phân biệt chủng tộc. Điều này là do AI được đào tạo trên hàng trăm tỷ miền dữ liệu ở Internet, một kho ngôn ngữ rộng lớn.
Tập dữ liệu khổng lồ giúp GPT-3 có khả năng ngôn ngữ ấn tượng nhưng cũng đem lại những rủi roc ho ứng dụng. Để xây dựng hệ thống an toàn cho GPT-3, OpenAI đã học hỏi Facebook, tìm cách loại bỏ các lời nói có tính thù địch, độc hại và ngăn nó khỏi nền tảng.
Để phân biệt, dán nhãn cho những ngôn từ độc hại, OpenAI đã gửi hàng chục nghìn đoạn văn bản đến một công ty gia công phần mềm ở Kenya từ tháng 11/2021. Phần lớn văn bản đó dường như được lấy từ những nơi “tối tăm” nhất của Internet, chứa đựng nhiều tình huống, ngôn từ độc hại.
Đối tác gia công phần mềm của OpenAI ở Kenya là Sama, một công ty có trụ sở tại San Francisco sử dụng công nhân ở Kenya, Uganda và Ấn Độ để dán nhãn dữ liệu cho các khách hàng ở Thung lũng Silicon như Google, Meta và Microsoft. Sama tự quảng cáo mình là một công ty “có đạo đức” và tuyên bố đã giúp hơn 50.000 người thoát nghèo.
Những nhân viên IT của Sama được trả 1,32-2 USD/giờ để dán nhãn cho dữ liệu của OpenAI, theo hiệu suất và thâm niên. Câu chuyện về những người “công nhân IT” đã tạo ra ChatGPT có thể cung cấp một cái nhìn thoáng qua về các điều kiện trong lĩnh vực ít được biết đến này của ngành công nghiệp AI.
Người phát ngôn của OpenAI đã xác nhận rằng các nhân viên ở Kenya đã đóng góp cho công cụ phát hiện nội dung độc hại, được tích hợp vào ChatGPT.
Người phát ngôn cho biết: “Sứ mệnh của chúng tôi là đảm bảo trí tuệ nhân tạo nói chung mang lại lợi ích cho toàn nhân loại và chúng tôi nỗ lực xây dựng các hệ thống AI an toàn và hữu ích nhằm hạn chế nội dung thiên vị và có hại. Việc phân loại và lọc [văn bản và hình ảnh] có hại là một bước cần thiết để giảm thiểu lượng nội dung bạo lực và tình dục có trong dữ liệu đào tạo và tạo ra các công cụ có thể phát hiện nội dung có hại”.
Tuy nhiên, trải ngược với vẻ hào nhoáng về bức tranh AI trong tương lai, môi trường làm việc của những người dán nhãn dữ liệu cho thấy mặt tối của ngành. Họ bị bóc lột sức lao động trong khi đang đóng góp cho lĩnh vực công nghệ tương lai, được định giá hàng chục tỷ USD.
Một nhân viên Sama đã chia sẻ với TIME rằng anh ta thường xuyên bị ảo giác, ám ảnh sau khi đọc mô tả hình ảnh độc hại. Người nhân viên này chia sẻ: “Đó như màn tra tấn. Tôi phải đọc những văn bản (độc hại) như vậy cả tuần. Đến thứ 6, tôi dần rối trí khi nghĩ về hình ảnh đó". Người đàn ông quyết định kết thúc công việc vào tháng 2/2022, sớm hơn 8 tháng so với hợp đồng.
Hợp đồng rẻ mạt của Sama
Các tài liệu của TIME cho thấy, OpenAI đã ký ba hợp đồng tổng trị giá khoảng 200.000 USD với Sama vào cuối năm 2021 để gắn nhãn các ngôn từ độc hại.
Khoảng ba chục “công nhân IT” được chia thành ba đội, mỗi đội tập trung vào từng đối tượng. Ba nhân viên của Sama chia sẻ với TIME rằng họ phải đọc và dán nhãn từ 150 đến 250 đoạn văn bản mỗi ca làm việc kéo dài 9 giờ. Những đoạn trích đó có thể nằm trong khoảng từ khoảng 100 từ đến hơn 1.000 từ.
Văn phòng của Sama tại Kenya.
Tất cả nhân viên được TIME phỏng vấn đều chia sẻ bản thân bị tổn thương tinh thần vì công việc. Mặc dù họ được quyền tham dự các buổi tư vấn về “sức khỏe”, nhưng những người này đều cho biết các buổi tư vấn không hữu ích.
Theo hợp đồng, OpenAI sẽ trả mức lương 12,5 USD mỗi giờ cho Sama, gấp 6-9 lần số tiền mà nhân viên Sama được nhận. Mức lương cơ bản của những nhân viên Kenya là 170 USD mỗi tháng. Thêm các phần phụ thu, thưởng năng lực, mức lương mỗi giờ là 1,3-2 USD/giờ. Người phát ngôn của Sama cho biết rằng mức 12,5 USD là chưa bao gồm các chi phí khác. Do vậy, con số sẽ giảm đi khi đến tay người trực tiếp làm việc.
Trong khi đó, OpenAI phủ nhận trách nhiệm. Người phát ngôn của OpenAI cho biết họ không áp mục chỉ tiêu năng suất và Sama phải tự đảm bảo chất lượng sức khỏe tinh thần cho nhân viên của họ. Người phát ngôn nói thêm: “Chúng tôi rất coi trọng sức khỏe tinh thần của nhân viên và của các nhà thầu của chúng tôi”.
Mối quan hệ của OpenAI với Sama sụp đổ
Vào tháng 2/2022, Sama bắt đầu công việc thử nghiệm cho một dự án riêng cho OpenAI, thu thập hình ảnh khiêu dâm và bạo lực để gửi tới OpenAI. Tuy nhiên, hành vi này được coi là trải pháp luật theo luật của Mỹ. Do đó, hợp đồng của Sam vaf OpenAI đã kết thúc trước thời hạn.
Trong vòng vài tuần, Sama đã hủy bỏ tất cả công việc của mình cho OpenAI, sớm hơn tám tháng so với thỏa thuận trong hợp đồng. Quyết định của Sama chấm dứt công việc với OpenAI có nghĩa là nhân viên của Sama không còn phải đối phó với văn bản và hình ảnh gây phiền nhiễu, nhưng cũng có tác động lớn đến kế sinh nhai của họ. Do các hợp đồng bị hủy sớm, cả OpenAI và Sama đều cho biết khoản tiền 200.000 USD mà họ đã đồng ý trước đó không được thanh toán đầy đủ.
Sau khi nhiều sự thật được phơi bày, Sama phải dừng nhiều kế hoạch kinh doanh với nội dung độc hại. Ngày 10/1, công ty thông báo không gia hạn hợp đồng kiểm duyệt nội dung cho Facebook, trị giá 3,9 triệu USD. Cùng với đó, 200 việc làm ở Nairobi cũng sẽ không được duy trì và phải đi tìm công việc mới.
Nguồn: Time