Giới khoa học tiếp tục cảnh báo nguy cơ từ trí tuệ nhân tạo

23/02/2018 10:31 GMT+7

TTO - 26 nhà nghiên cứu từ 14 tổ chức đã soạn bản báo cáo dày cả 100 trang cảnh báo về những nguy cơ liên quan tới trí tuệ nhân tạo (AI).

Giới khoa học tiếp tục cảnh báo nguy cơ từ trí tuệ nhân tạo - Ảnh 1.

Ảnh minh họa: SHUTTERSTOCK

Theo trang Motherboard, khi nghĩ về trí tuệ nhân tạo, chúng ta thường nghĩ tới những dạng thức hoạt động trên nền tảng thuật toán machine learning như các trợ lý ảo Siri hay Alexa, tuy nhiên sự thật thì AI có mặt ở khắp nơi quanh chúng ta, hầu hết hoạt động ở cơ chế nền tảng.

Theo đó công nghệ AI đang từ từ thâm nhập vào mọi vấn đề, từ y học cho tới tài chính, và hiện rất khó để đánh giá hết quy mô cũng như mức độ ảnh hưởng của chúng với đời sống con người.

Trên thực tế, tại thời điểm này, hầu hết các công nghệ AI hiện nay vẫn còn "khá ngu ngốc" nếu so với con người, một thuật toán machine learning mới chỉ có thể đánh bại con người ở một nhiệm vụ cụ thể nào đó kiểu như thi đấu game, và AI vẫn còn "thua xa" con người ở nhiều tác vụ thường nhật khác.

Tuy nhiên một nhóm gồm 26 nhà nghiên cứu AI hàng đầu đã gặp nhau tại Oxford vừa qua để cùng thảo luận về những tác động nguy hiểm của AI với nhân loại trong tương lai.

Kết quả của hội nghị kéo dài hai ngày này là bản báo cáo dài 100 trang vừa được công bố với nội dung đào sâu vào những nguy cơ đe dọa loài người trong tình huống AI rơi vào tay kẻ xấu. Bên cạnh đó là những chiến lược hành động để giảm nhẹ các nguy cơ đó.

Báo cáo đưa ra một trong những khuyến cáo quan trọng là các nhà nghiên cứu và các kỹ sư công nghệ làm việc trong lĩnh vực trí tuệ nhân tạo cần cân nhắc thấu đáo về bản chất hoàn toàn có thể bị lạm dụng cho mục đích xấu với các phát kiến công nghệ của họ.

Khuyến nghị này có liên quan cụ thể tới xu hướng mới nổi gần đây của bộ công cụ "deepfakes", một thuật toán trí tuệ nhân tạo chủ yếu bị sử dụng để hoán đổi mặt của các diễn viên nữ Hollywood thay vào mặt của các diễn viên đóng phim khiêu dâm.

Vấn đề này cho thấy thực tế rõ ràng của việc một công nghệ trí tuệ nhân tạo đã bị kẻ xấu lợi dụng như thế nào và cũng làm dấy lên câu hỏi những đối tượng nào mới được phép tiếp cận những công cụ như thế.

Mặc dù deepfakes được đề cập cụ thể trong báo cáo, tuy nhiên các nhà nghiên cứu cũng nhấn mạnh tình trạng sử dụng các kỹ thuật tương tự để tùy biến, thao túng video về các nguyên thủ thế giới, một điều có thể trở thành nguy cơ an ninh chính trị.

ĐỖ DƯƠNG
Bình luận (0)
    Xem thêm bình luận
    Bình luận Xem thêm
    Bình luận (0)
    Xem thêm bình luận