Một người ở tỉnh Cam Túc dùng siêu AI để viết tin giả về tai nạn tàu hỏa, đánh dấu vụ bắt giữ đầu tiên liên quan đến ChatGPT.
Cảnh sát tỉnh Cam Túc vừa bắt giữ một người đàn ông họ Hồng, với cáo buộc sử dụng phần mềm chatbot tích hợp trí tuệ nhân tạo (AI) ChatGPT để tạo ra một bài viết giả mạo, không đúng sự thật về một vụ tai nạn tàu hỏa nghiêm trọng, sau đó Hồng đã chia sẻ câu chuyện giả mạo này lên mạng xã hội.
Bài viết của Hồng đã thu hút được khoảng ngàn lượt xem, trước khi bị cảnh sát phát hiện và buộc Hồng xóa bỏ.
CNBC đánh giá việc này là ví dụ rõ ràng nhất cho thấy nỗ lực của chính phủ Trung Quốc trong điều chỉnh và quản lý việc sử dụng AI, trong bối cảnh công nghệ này ngày một phát triển nhanh.
Trước đó vào tháng 1, Trung Quốc cũng ban hành quy định quản lý "công nghệ tổng hợp sâu" liên quan đến những siêu AI như ChatGPT hoặc deepfake. Trong đó có một số điều khoản như phải có sự đồng ý của người dùng nếu hình ảnh của họ được sử dụng trong bất kỳ công nghệ tổng hợp sâu nào, không được dùng siêu AI để phát tán tin giả, dịch vụ deepfake cần xác thực danh tính người dùng... Song song với đó, Trung Quốc cũng ủng hộ doanh nghiệp trong nước tự phát triển các mô hình trí tuệ nhân tạo riêng.
Kể từ thời điểm ChatGPT "gây sốt" trên toàn cầu, nhiều hãng công nghệ lớn tại Trung Quốc như Baidu, Tencent hay Alibaba đã thể hiện tham vọng phát triển chatbot tích hợp trí tuệ nhân tạo của riêng mình nhằm có thể cạnh tranh với ChatGPT. Trong đó, Baidu đã cho ra mắt chatbot với tên gọi "Ernie Bot" vào tháng 3 vừa qua. Mới đây, Alibaba cũng đã cho ra mắt chatbot có tên "Tongyi Qianwen", tạm dịch là "tìm kiếm sự thật bằng hàng ngàn câu hỏi".
Tuy vậy, các nhà phân tích cho rằng, Trung Quốc khó có thể gia nhập cuộc đua siêu AI do thiếu kinh nghiệm, chuyên môn kỹ thuật và lệnh hạn chế của Mỹ về chip AI. Công ty nghiên cứu Third Bridge nhận định, nước này có thể cần thêm 2-3 năm mới tạo ra một AI có 80% chức năng của ChatGPT.