Chưa yên tâm trao quyền cho xe tự lái

TRƯỜNG SƠN 15/07/2016 22:07 GMT+7

TTCT - Trên số báo cuối tháng 6, The Economist nhắc câu nói nổi tiếng của tỉ phú công nghệ Elon Musk: “Với trí thông minh nhân tạo, chúng ta đang triệu hồi quỷ dữ”.

Bạn có tin tưởng vào quyết định của xe tự lái?
Bạn có tin tưởng vào quyết định của xe tự lái?


 Chưa đầy một tuần sau, Công ty Telsa của Musk đối mặt tin dữ: đã có người chết vì xe tự lái của hãng. Dù Telsa trang bị cho những chiếc xe của mình công nghệ AI (trí tuệ nhân tạo) hiện đại nhất để chúng có thể tự vận hành, song chính nhà tỉ phú vẫn lo sợ về tương lai mà “AI trở nên mạnh đến mức vượt tầm kiểm soát của con người”.

Sự cố chết người đầu tiên có liên quan đến công nghệ tự lái Autopilot của Telsa có thể sẽ khiến Musk phải lo nghĩ về một khía cạnh “quỷ dữ” khác của trí tuệ nhân tạo: vấn đề đạo đức. Câu hỏi cốt lõi khi bàn đến quy chuẩn đạo đức cho xe tự lái là trong trường hợp tai nạn, ai sẽ là người chịu trách nhiệm - người ngồi trên xe hay hãng sản xuất xe?

Làm sao để những cỗ xe tự hành có thể đưa ra các lựa chọn mang tính đạo đức trong các tình huống tai nạn mà ở đó nó chỉ có thể chọn một trong hai: phải “hi sinh” người trên xe hay người mà nó sắp tông phải?

Lỗi của ai?

Tạp chí Forbes ngày 1-7 giật tít: “Telsa có phải chịu trách nhiệm trong vụ tai nạn chết người vì công nghệ tự lái không?”, và tự trả lời “Có lẽ có” ngay trong tựa bài.

Vì sao Forbes tin rằng chính hãng sản xuất xe hơi, chứ không phải người ngồi trên xe, mới phải chịu trách nhiệm cho vụ tai nạn ngày 7-5? Telsa giải thích: nạn nhân đang ngồi sau tay lái chiếc Model S có bật chế độ tự lái Autopilot trên một xa lộ ở Florida thì bị một chiếc xe đầu kéo cắt ngang.

“Cả Autopilot lẫn tài xế đều không thấy phần hông màu trắng của chiếc xe tải vì bị lóa nắng, khiến chiếc Model S chạy xuyên qua gầm của xe này và bị phần đuôi của container đập vào kính chắn gió” - thông cáo của Telsa viết.

Hãng xe biện luận rằng chế độ Autopilot có trạng thái mặc định là tắt, và một khi được kích hoạt, hệ thống sẽ liên tục thông báo với tài xế rằng công nghệ này vẫn còn ở giai đoạn chạy thử và rằng “(Autopilot) chỉ là tính năng trợ giúp và đòi hỏi tài xế phải luôn đặt tay lên vôlăng suốt thời gian di chuyển”.

Hệ thống cũng khuyến cáo tài xế “phải chịu trách nhiệm với chiếc xe của mình và luôn sẵn sàng nắm lại quyền điều khiển (từ Autopilot)”. Hệ thống sẽ tự động giảm tốc độ xe nếu nhận ra tay tài xế đã rời vôlăng.

Forbes cho rằng nhiều người đã dựa vào các khuyến cáo kiểu miễn trừ trách nhiệm nói trên để khẳng định tài xế phải chịu trách nhiệm trong tai nạn thay vì Telsa. Theo Forbes, Telsa đã vi phạm các chuẩn mực đạo đức khi để con người tham gia vào quá trình chạy thử nghiệm công nghệ của họ.

Nếu việc chạy thử một phần mềm máy tính bình thường cùng lắm là làm treo máy, mất dữ liệu của khách hàng, thì tác hại của việc để con người chạy xe có công nghệ tự lái chưa hoàn thiện chính là mạng người. Ngay cả khi tài xế đồng ý tham gia thử nghiệm, họ có nguy cơ gây nguy hiểm cho các tài xế cùng những người đi đường khác, những người chẳng hề thỏa thuận gì với Telsa.

Forbes cho rằng Telsa đang lấy con người ra làm chuột bạch, và những thí nghiệm như vậy cần được một ủy ban đạo đức thông qua trước khi được tiến hành, điều mà hiển nhiên hãng xe của Elon Musk không hề thực hiện.

Ngoài ra, vẫn theo Forbes, Telsa cũng phải chịu trách nhiệm nếu họ không báo trước cho các tài xế hết những mối nguy hiểm tiềm tàng trong công nghệ của mình. Ngay cả khuyến cáo buộc người dùng phải luôn chú ý dù xe đang lái tự động cũng được cho là phi thực tế, giống như “bắt những đứa trẻ phải ngồi yên trước đống kẹo mà không được mó tay vào”.

Lựa chọn hi sinh

Trang LiveScience ngày 1-7 đặt vấn đề về khía cạnh đạo đức của xe tự lái: khi xảy ra tai nạn nghiêm trọng, trí thông minh nhân tạo đang điều khiển chiếc xe phải lựa chọn nên cứu ai?

The Huffington Post giả định: Bạn đang thong dong ngồi ở ghế sau của một chiếc xe tự lái trên xa lộ thì một đội cổ vũ băng qua đường. Với vận tốc 75 km/h, chiếc xe sẽ không thể thắng kịp và chỉ có hai lựa chọn: hoặc tông vào nhóm người đó, hoặc ngoặt sang phải để né họ - đồng nghĩa với việc xe sẽ lao thẳng vào rào chắn và bạn có thể thiệt mạng.

Trong trường hợp này, trí thông minh nhân tạo đang vận hành chiếc xe phải xử trí thế nào khi chỉ có một tích tắc để đưa ra quyết định? Nếu tài xế là con người, nhiều khả năng họ sẽ chọn giữ tính mạng cho chính mình. Điều quan trọng là họ có thể sẽ không bị buộc tội dựa theo các quy tắc đạo đức hiện tại, bởi lỗi thuộc về người đi đường chứ không phải tài xế. Nhưng quy chuẩn đạo đức đó có áp dụng được cho máy móc hay không?

Quan điểm của Forbes về “lựa chọn hi sinh” của xe tự lái cũng đồng nhất như với việc ai phải chịu trách nhiệm khi tai nạn xảy ra. “Trao cho người dùng quyền “cài đặt đạo đức” để xe phải lựa chọn ai trong những tình huống như vậy không nhất thiết đồng nghĩa với việc giải phóng nhà sản xuất khỏi các trách nhiệm, vì chính họ đã buộc khách hàng phải đưa ra lựa chọn khó khăn đó” - Forbes kết luận.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận