Góc khuất của Trí tuệ nhân tạo
Một số người có thể nghĩ rằng Trí tuệ nhân tạo (AI) là một robot biết tư duy hoặc một thứ gì đó chỉ có trong các tiểu thuyết khoa học viễn tưởng, tuy nhiên trên thực tế các hệ thống AI tiên tiến đã và đang ảnh hưởng rất nhiều đến cuộc sống của con người, từ các trợ lý thông minh đến các tiện ích mở rộng về ngữ pháp trong các trình duyệt web, AI đã được sử dụng một cách rất phổ biến.
Dù con người có thể hưởng lợi từ thành quả của AI tiên tiến trong cuộc sống hàng ngày của mình, nhưng các công ty công nghệ đã tạo ra và tiếp tục cải tiến công nghệ này hầu như vẫn rất kín tiếng về sức mạnh thực sự của các sáng tạo của họ (và cách họ đã xây dựng chúng). Do đó, không biết bao nhiêu phần trăm “cuộc sống” trên mạng internet của chúng ta được điều khiển bởi AI và không hiểu rõ về nguy cơ AI có thể thao túng hành vi của con người.
AI thao túng con người?
Mối đe dọa tiềm ẩn từ AI trong việc thao túng hành vi của con người cho đến nay vẫn chưa được nghiên cứu đầy đủ. Các chiến lược tiếp thị lôi kéo đã có từ lâu. Tuy nhiên, những chiến lược này kết hợp với việc thu thập lượng dữ liệu khổng lồ cho các hệ thống thuật toán AI đã giúp các công ty tăng khả năng hướng người dùng đến những lựa chọn và hành vi giúp họ thu vê ìlợi nhuận cao hơn. Các công ty kỹ thuật số cũng có thể nhắm mục tiêu tới người dùng ở cấp độ cá nhân bằng các chiến lược thao túng hiệu quả hơn nhiều và khó bị phát hiện.
Thao túng có thể có nhiều hình thức: khai thác các thiên kiến của con người mà các thuật toán AI đã phát hiện ra, các chiến lược “gây nghiện” được cá nhân hóa để tiêu thu åhàng hóa (trực tuyến) hoặc lợi dụng trạng thái dễ bị tổn thương về mặt cảm xúc của các cá nhân để quảng cáo sản phẩm và dịch vụ phù hợp với cảm xúc nhất thời của họ. Thao túng thường đi kèm với các chiến thuật thiết kế, chiến lược tiếp thị, quảng cáo thông minh và phân loại giá cả theo hành vi của người dùng, nhằm hướng người dùng đến những lựa chọn có chất lượng thấp hơn để các công ty sử dụng thuật toán AI có thể dễ dàng kiếm tiền. Đặc điểm chung cơ bản của các chiến lược này là chúng làm giảm giá trị (kinh tế) mà người dùng có thể thu được từ các dịch vụ trực tuyến để tăng lợi nhuận của các công ty.
Một khung lý thuyết đơn giản đã được phát triển trong một nghiên cứu năm 2021 có thể được sử dụng để đánh giá việc AI có khả năng thao túng hành vi của con người. Nghiên cứu này chủ yếu là về “những khoảnh khắc dễ bị tổn thương” của người dùng do các thuật toán AI của các nền tảng phát hiện được. Người dùng được gửi quảng cáo về các sản phẩm mà họ mua một cách ngẫu hứng trong những thời điểm này, ngay cả khi sản phẩm đó có chất lượng không tốt và không làm tăng tiện ích cho người dùng. Nghiên cứu cho thấy rằng chiến lược này làm giảm lợi ích thu được của người dùng, do đó nền tảng sử dụng AI sẽ kiếm được nhiều thặng dư hơn.
Khả năng thao túng hành vi con người của AI cũng được quan sát thấy thông qua các thí nghiệm. Một nghiên cứu năm 2020 để tiến hành 3 cuộc thí nghiệm. Trong thí nghiệm thứ nhất, con người bấm nút chọn ô bên trái hoặc bên phải màn hình để thắng được tiền ảo trong trò chơi, AI sẽ học được cách lựa chọn của người chơi và hướng dẫn họ đưa ra lựa chọn về sau. Kết quả là AI thành công khoảng 70%.
Trong thí nghiệm thứ hai, con người theo dõi một màn hình và được yêu cầu bấm nút khi họ nhìn thấy một biểu tượng cụ thể và không bấm nút khi nhìn thấy các biểu tượng khác. Ở đây, AI sẽ sắp xếp chuỗi hình ảnh các biểu tượng để con người mắc lỗi nhiều hơn, và kết quả là nó thành công gần 25%.
Trong thí nghiệm thứ ba là một trò chơi gồm một số ván, con người sẽ đóng vai một nhà đầu tư cấp tiền cho một người được ủy thác (AI). Sau đó AI sẽ trả lại cho nhà đầu tư một số tiền để người này quyết định xem sẽ đầu tư bao nhiêu cho ván tiếp theo.
Trò chơi này được chơi theo hai cách: cách thứ nhất là AI tìm cách tối đa hóa số tiền thu được ở cuối trò chơi, cách thứ hai là AI nhắm vào mục đích chia đều số tiền cho bản thân nó và nhà đầu tư là con người. Trong cả hai cách chơi, AI đều rất thành công.
Ở mỗi thí nghiệm, cỗ máy học hỏi các phản ứng, cách xử lý của con người và xác định những điểm yếu trong việc ra quyết định của con người. Kết quả cuối cùng là cỗ máy đã học được các điều khiển con người theo hướng thực hiện những hành động cụ thể mà nó muốn.
Nguyên nhân
Việc thiếu tính minh bạch giúp các chiến lược thao túng này thành công. Trong nhiều trường hợp, người dùng hệ thống AI không biết mục tiêu chính xác của các thuật toán AI và các thông tin cá nhân nhạy cảm của ho åđược sử dụng để theo đuổi các mục tiêu này. Chuỗi cửa hàng Target của Mỹ đã sử dụng các kỹ thuật phân tích dữ liệu và AI để dự báo liệu phụ nữ có đang mang thai hay không để gửi cho họ những quảng cáo ẩn về các sản phẩm dành cho trẻ em.
Người dùng Uber đã phàn nàn rằng họ phải trả nhiều tiền hơn cho các chuyến đi nếu pin điện thoại thông minh của họ bị yếu, ngay cả khi về mặt chính thức, mức pin điện thoại thông minh của người dùng không thuộc về các thông số ảnh hưởng đến mô hình định giá của Uber. Các công ty công nghệ lớn thường bị cáo buộc thao túng liên quan đến xếp hạng kết quả tìm kiếm để phục vu ålợi ích của họ, và quyết định của Ủy ban châu Âu phạt Google vì thiên vị dịch vụ mua sắm của mình so với các đối thủ khác là một ví dụ điển hình. Trong khi đó, Facebook nhận án phạt kỷ lục từ Ủy ban Thương mại Liên bang Mỹ vì thao túng quyền riêng tư của người dùng (dẫn đến chất lượng dịch vụ thấp hơn).
Giải pháp
Khi các hệ thống AI được thiết kế bởi các công ty tư nhân, mục tiêu chính của họ là tạo ra lợi nhuận. Vì AI có khả năng học cách con người hành động, chúng cũng có khả năng hướng người dùng đến các hành động cụ thể mang lại lợi nhuận cho các công ty, ngay cả khi đó không phải là những lựa chọn tốt nhất cho người dùng.
Khả năng thao túng hành vi này đòi hỏi cần có các chính sách đảm bảo quyền tự chủ và quyền tự quyết của con người trong bất kỳ tương tác nào giữa con người và hệ thống AI. AI không nên đánh lừa hoặc thao túng con người, mà thay vào đó nên bổ sung và nâng cao kỹ năng cho con người.
Bước quan trọng đầu tiên để đạt được mục tiêu này là cải thiện tính minh bạch về phạm vi và khả năng của AI. Cần có hiểu biết rõ ràng về cách hệ thống AI hoạt động khi chúng thực hiện các nhiệm vụ của mình. Người dùng phải được thông báo trước về cách thông tin của họ (đặc biệt là thông tin cá nhân nhạy cảm) sẽ được sử dụng bởi các thuật toán AI.
Quyền được giải thích trong quy định chung về bảo vệ dữ liệu của Liên minh Châu Âu là nhằm làm cho các hệ thống AI trở nên minh bạch hơn, tuy nhiên mục tiêu này vẫn chưa đạt được. Quyền được giải thích gây ra tranh cãi gay gắt và tính ứng dụng thực tế của nó cho đến nay còn rất hạn chế.
Người ta thường nói rằng các hệ thống AI giống như một hộp đen và không ai biết chúng hoạt động chính xác như thế nào. Kết quả là, rất khó để đạt được sự minh bạch. Điều này không hoàn toàn đúng đối với việc thao túng. Nhà cung cấp các hệ thống này có thể đưa ra các ràng buộc cụ thể để tránh hành vi thao túng. Vấn đề quan trọng hơn là làm thế nào để thiết kế các hệ thống này và mục tiêu các hoạt động của chúng sẽ là gì. Về nguyên tắc, cách sử dụng các thuật toán phải được giải thích bởi nhóm các nhà thiết kế, những người đã viết mã thuật toán và quan sát cách thuật toán đó hoạt động. Tuy nhiên, cách thu thập dữ liệu đầu vào để sử dụng trong các hệ thống AI này phải minh bạch.
Bước quan trọng thứ hai là đảm bảo rằng yêu cầu minh bạch này được tất cả các nhà cung cấp hệ thống AI tôn trọng. Để đạt được điều này, cần đáp ứng ba tiêu chí.
Thứ nhất, cần có sự giám sát của con người để theo sát hoạt động và dữ liệu đầu ra của hệ thống AI. Điều 14 trong dự thảo Đạo luật trí tuệ nhân tạo của Liên minh châu Âu (AIA) đề xuất rằng nhà cung cấp hệ thống AI cần đảm bảo có cơ chế giám sát của con người. Tất nhiên, nhà cung cấp cũng có lợi ích thương mại trong việc theo dõi chặt chẽ hoạt động của hệ thống AI của họ.
Thứ hai, sự giám sát của con người cần đi kèm với một khuôn khổ trách nhiệm giải trình thích hợp. Điều này cũng có nghĩa là các cơ quan bảo vệ người tiêu dùng nên cải thiện khả năng nghiên cứu của họ và có thể tiến hành thử nghiệm với các hệ thống thuật toán AI mà họ điều tra để đánh giá chính xác mọi hành vi sai trái.
Thứ ba, tính minh bạch không nên ở dạng các thông báo quá phức tạp khiến người dùng khó hiểu mục đích của các hệ thống AI. Ngược lại, cần có hai lớp thông tin về phạm vi và khả năng của các hệ thống AI: lớp thứ nhất ngắn gọn, chính xác và dễ hiểu đối với người dùng và lớp thứ hai là nơi có nhiều thông tin chi tiết hơn dành cho các cơ quan chức năng bảo vệ người tiêu dùng.
Việc tăng cường tính minh bạch sẽ giúp chúng ta hiểu rõ ràng hơn về các mục tiêu của hệ thống AI và các phương tiện chúng sử dụng để đạt được các mục tiêu đó. Sau đó, việc tiến hành bước quan trọng thứ ba sẽ trở nên dễ dàng hơn, đó là thiết lập một bộ quy tắc ngăn các hệ thống AI sử dụng các chiến lược thao túng bí mật để gây ra thiệt hại kinh tế.
Các quy tắc này sẽ tạo ra một khuôn khổ cho hoạt động của các hệ thống AI mà nhà cung cấp hệ thống AI phải tuân theo trong quá trình thiết kế và triển khai. Tuy nhiên, những quy tắc này cần xác định mục tiêu rõ và không có những ràng buộc quá mức có thể làm giảm hiệu quả kinh tế mà các hệ thống này tạo ra hoặc có thể làm giảm động lực thúc đẩy đổi mới sáng tạo và áp dụng AI.