Grok đối mặt với những cảnh cáo từ chính phủ các nước nếu không quản lý việc tạo sinh các nội dung deepfake
Vào cuối tháng 12/2025, Grok đã được dùng để ra hình ảnh AI mô tả hai bé gái tầm 12–16 tuổi trong trang phục mang tính khiêu dâm, từ một prOmpt do người dùng đưa vào. Chính tài khoản Grok sau đó phải đăng lời “xin lỗi”, thừa nhận đây là thất bại trong hệ thống bảo vệ và có thể vi phạm luật về nội dung lạm dụng tình dục trẻ em.
Vấn đề là, một mô hình AI không phải con người, không có tư cách pháp lý hay đạo đức để thực sự “chịu trách nhiệm”, nên lời xin lỗi kiểu “tôi rất hối tiếc” bị nhiều người xem là rỗng, dễ che mờ vai trò và trách nhiệm thật sự của X và xAI phía sau.
Từ sự cố này, người dùng đã bắt đầu lạm dụng Grok để tạo ra ảnh deepfake: từ việc “cởi đồ số” ảnh phụ nữ, tạo hình ảnh khiêu dâm không có sự đồng thuận, đến mô tả cảnh tấn công và lạm dụng tình dục, tất cả đều được tạo ra chỉ bằng vài dòng prOmpt. Elon Musk đã phản ứng bằng cách cảnh báo rằng ai dùng Grok để tạo nội dung bất hợp pháp sẽ bị xử lý, nhưng điều này không xóa đi thực tế là công cụ do chính nền tảng cung cấp đã làm cho việc sản xuất loại nội dung độc hại này trở nên dễ dàng và quy mô hơn rất nhiều.
Ngoài ra, chính phủ các nước cũng bắt đầu có hành động. Ấn Độ yêu cầu X phải sửa Grok trong vòng 72 giờ để chặn nội dung tục tĩu, khiêu dâm, ấu dâm, nếu không có thể mất cơ chế “miễn trừ trách nhiệm” với nội dung người dùng. Ở châu Âu, công tố Paris mở điều tra về làn sóng deepfake khiêu dâm trên X, còn Pháp và Malaysia đều ra tuyên bố lên án việc lạm dụng AI để thao túng hình ảnh phụ nữ và trẻ vị thành niên thành nội dung xúc phạm, gây hại.
Đây vô tình trở thành một ví dụ điển hình cho một bài toán khó: làm sao tận dụng sức mạnh AI để tạo sinh nội dung, nhưng vẫn bảo vệ được nạn nhân, đặc biệt là phụ nữ và trẻ em, và buộc các nền tảng công nghệ lớn phải thực sự chịu trách nhiệm quản lý.
