Báo cáo này có tên là “Sử dụng trí tuệ nhân tạo vào việc ác”, trong đó có cảnh báo những nguy hiểm có thể xảy ra khi kẻ xấu lợi dụng sự tiến bộ của công nghệ AI. Những người thực hiện báo cáo này là các nhà nghiên cứu từ đại học Cambridge, Oxford, Yale và tổ chức Open-AI do Elon Musk tài trợ.
Những ví dụ mà báo cáo này đưa ra là: Xe tự vận hành bằng AI có thể gây tai nạn giao thông khi nhận tín hiệu giả, máy bay không người lái chạy bằng AI có thể bị điều khiển để thực hiện các cuộc tấn công bất ngờ, hoặc các hacker có thể thực hiện các cuộc tấn công mạng bằng AI mà không cần nhiều công sức lao động như khi không có AI.
Các nhà nghiên cứu cho rằng: “Nếu một số các nghiên cứu thích đáng và các công việc tổng hợp có thể được tự động hoá, nhiều người có thể tham gia vào tấn công lừa đảo”. Trong lĩnh vực chính trị, AI có thể làm giả video những nhà lãnh đạo cấp cao đang phát biểu, kêu gọi những thông tin sai lệch, kích động. Hoặc lồng hình ảnh người đó vào các bộ phim khiêu dâm để bôi nhọ.
Sẽ thế nào khi AI được dùng vào việc ác độc?
Báo cáo ghi rõ: “Chúng tôi cũng dự báo các cuộc tấn công mới nhờ vào tiến bộ của khả năng phân tích hành vi con người, tâm trạng, và niềm tin dựa trên các dữ liệu cho sẵn”. Báo cáo dự đoán một số viễn cảnh được nêu ra có thể được thực hiện trong 5 năm tới, một số viễn cảnh khác có thể xảy ra trong một thời điểm không xác định.
Tuy nhiên báo cáo không ghi rõ cách nào có thể ngăn chặn được những nguy hiểm tiềm ẩn này. Các nhà nghiên cứu chỉ đưa ra đề xuất kêu gọi hợp tác giữa các nhà nghiên cứu và các nhà làm chính sách. Trên thực tế, AI đang được đầu tư rất lớn với hàng tỷ đô la đã được chi ra.
Với việc trí tuệ nhân tạo (Artificial Intelligence - AI) đạt được nhiều bước tiến đáng kể trong thời gian gần đây, hứa...
Nguồn tin: www.24h.com.vn
Ý kiến bạn đọc
Những tin mới hơn
Những tin cũ hơn