Đừng để AI "ảo giác" thay con người

18:35 28/09/2025

Là con người, khó tránh khỏi việc đôi khi chúng ta sẽ thấy những điều không tồn tại. Trong tâm lý học, người ta gọi đó là ảo giác. Trí tuệ nhân tạo (AI) cũng có thứ "ảo giác" khi chúng tạo ra kết quả không tồn tại trong thực tế, thậm chí vô nghĩa hoặc sai lệch, nói cách khác là hệ thống đã "nhìn thấy" hoặc "nghĩ ra" thứ chưa từng có và có thể không bao giờ có. Điều này thường dễ xảy ra với các hệ thống nhận dạng hình ảnh, với kết quả đầu ra là những thứ kỳ quái, siêu thực.

Phản ánh và khuếch đại định kiến

Năm 2022, Galactica của Meta bị gỡ bỏ nhanh chóng chỉ sau vài ngày ra mắt do cung cấp thông tin sai lệch và có thành kiến trong câu trả lời. Technology Review khi đó bình luận rằng AI của Meta giống như "con bot không có đầu óc", không thể phân biệt thật giả, vốn là yêu cầu cơ bản với mô hình ngôn ngữ được thiết kế để tạo ra văn bản khoa học. Những sai sót có thể không qua mặt được các nhà khoa học, nhưng có thể khiến những người chưa am hiểu hiểu nhầm, kéo theo nhiều hệ lụy đáng lo ngại.

Ảo giác của AI đem đến những phản hồi "nghe có vẻ" đúng đắn và thuyết phục (Ảnh đồ họa của Thomas Fuller/SOPA Images/LightRocket qua Getty Images)

Năm 2017, Joy Buolamwini triển khai dự án Gender Shades để kiểm thử các hệ thống nhận diện khuôn mặt thương mại của các tập đoàn lớn như IBM, Microsoft và Megvii với công nghệ Face++. Nghiên cứu sử dụng bộ dữ liệu Pilot Parliaments Benchmark gồm 1.270 khuôn mặt đại diện đa dạng về giới tính và tông màu da, tập trung đánh giá độ chính xác phân loại giới tính. Kết quả cho thấy sự chênh lệch đáng kể trong độ chính xác giữa các nhóm: các hệ thống này cho kết quả tốt nhất với nhóm nam giới có làn da sáng, trong khi nhóm nữ giới có làn da tối lại có tỷ lệ phân loại sai cao nhất.

Nguyên nhân chính được xác định là do dữ liệu huấn luyện thiếu đa dạng, có thiên lệch tập trung nhiều hình ảnh nam giới da sáng hơn, khiến thuật toán không thể nhận diện chính xác các nhóm khác. Nghiên cứu này đã làm nổi bật vấn đề định kiến trong AI, góp phần nâng cao nhận thức về sự cần thiết của công bằng, minh bạch và đa dạng trong phát triển các công cụ AI. Dự án Gender Shades được xem là dấu mốc quan trọng mở ra cuộc thảo luận rộng rãi về các hệ quả xã hội và đạo đức của định kiến trong AI.

Những công cụ AI tạo sinh như Stable Diffusion cũng vướng phải những vấn đề tương tự. Nghiên cứu năm 2023 về hơn 5.000 hình ảnh do Stable Diffusion tạo ra cho thấy hệ thống này có cả định kiến giới và sắc tộc. Không chỉ riêng AI tạo ảnh, các công cụ tạo văn bản như ChatGPT cũng nhiều lần tạo ra nội dung mang định kiến, thiên lệch hoặc không hề căn cứ trên thực tế song thoạt nhìn lại rất thuyết phục. Vấn đề nghiêm trọng ở chỗ khi nhận kết quả và phản hồi từ các công cụ công nghệ, con người có xu hướng tin tưởng hơn và ít thừa nhận rằng dữ liệu đầu ra có thể sai lệch.

Con dao 2 lưỡi từ sự tự tin của AI

Các nhà khoa học và nghiên cứu chỉ ra rằng ảo giác AI thường bắt nguồn từ một số yếu tố.

Thứ nhất, là "quá khớp mô hình" (overfitting), hiện tượng xảy ra khi mô hình học thuộc lòng dữ liệu huấn luyện thay vì học quy luật tổng quát, dẫn đến dự đoán sai trong tình huống mới. Mô hình tạo sinh hoạt động giống như công cụ tự động hoàn thành, dựa trên mẫu đã quan sát và tiếp nhận, với mục tiêu là tạo ra nội dung "hợp lý", chứ không phải kiểm chứng tính đúng đắn. Công nghệ đằng sau các công cụ AI tạo sinh chưa được thiết kế để phân biệt sự thật với giả và ngay cả khi được huấn luyện chỉ trên dữ liệu chính xác, mô hình vẫn có thể tạo ra thông tin mới nhưng sai lệch khi kết hợp các mẫu dữ liệu.

Thứ hai, do thiên lệch hoặc lỗi dữ liệu huấn luyện. Nếu dữ liệu đầu vào thiếu cân bằng hoặc không đại diện, mô hình sẽ suy diễn sai, phản ánh các định kiến hoặc tạo ra mẫu ảo. Các mô hình AI tạo sinh được huấn luyện trên khối lượng dữ liệu khổng lồ từ Internet, vốn chứa đa dạng thông tin, có chính xác và cũng có cả sự sai lệch, và tất nhiên, không thể bỏ qua những định kiến xã hội - văn hóa. Các mô hình chỉ mô phỏng các mẫu trong dữ liệu mà không phân biệt đúng - sai do đó có thể tái tạo những sai sót hoặc thiên kiến vốn có.

Thứ ba, ảo giác có thể xuất hiện khi mô hình có sự phức tạp quá cao, với số lượng tham số hoặc dữ liệu quá lớn, khiến chúng có xu hướng đưa ra những phản hồi khó giải thích.

Theo OpenAI, các bài kiểm thử nội bộ cho thấy mô hình o3 có tỷ lệ trả lời sai tới 33% trong bài kiểm tra PersonQA, vốn yêu cầu trả lời câu hỏi về nhân vật của công chúng; và lên đến 51% trong bài SimpleQA với những câu hỏi dữ kiện ngắn. Mô hình o4-mini, vốn được thiết kế gọn hơn để tối ưu tốc độ, thậm chí sai tới 79% trong bài kiểm tra SimpleQA. Điều đáng nói là phiên bản ChatGPT mới nhất GPT-4.5, ra mắt tháng 2/2025, có tỷ lệ sai thấp hơn - khoảng 37,1% trong SimpleQA - con số cho thấy những cải tiến nhưng chưa đủ để giải quyết triệt để vấn đề.

Các thử nghiệm độc lập của Vectara, công ty hàng đầu trong lĩnh vực phát hiện và ứng phó mối đe dọa mạng từ AI, cũng cho thấy tình hình tương tự. DeepSeek R1, mô hình của Trung Quốc, có tỷ lệ sai 14,3%, cao hơn hẳn DeepSeek-V2.5 (2,4%). IBM Granite 3.2, phiên bản 2B, có tỷ lệ sai lên đến 16,5%, cao hơn các thế hệ trước.

 AI có thể bị ảo giác khi "quá tải" (Ảnh: aitificial.blog)

Các công ty phát triển AI đều đã lên tiếng thừa nhận thực tế này. OpenAI cho biết mô hình o3 có xu hướng trả lời dứt khoát hơn, khiến số câu trả lời đúng tăng nhưng số câu sai cũng nhiều hơn. CEO Sam Altman thậm chí cho rằng hiện tượng này giống "tính năng" hơn là "lỗi", vì "nhiều giá trị của hệ thống đến từ việc chúng luôn có câu trả lời". Google, Microsoft và Anthropic đều đang phát triển các công cụ cảnh báo như Microsoft Correction hay Google Vertex để gắn cờ những thông tin có khả năng sai, dù giới chuyên môn nhận định đây chỉ là giải pháp giảm thiểu chứ không khắc phục tận gốc rủi ro.

Theo một số nhà nghiên cứu, tuy khó có thể loại bỏ hoàn toàn ảo giác của AI, các nhà phát triển hoặc bản thân người dùng có thể giảm thiểu nguy cơ bằng cách dạy mô hình biết thừa nhận khi không biết câu trả lời, không hoàn toàn chắc chắn hoặc tự ý đặt giả thuyết nội dung, hoặc dùng các công cụ khác để truy xuất dữ liệu tin cậy trước khi trả lời, nâng cao chất lượng và độ đa dạng dữ liệu huấn luyện.

Không thể thay thế tư duy và trách nhiệm của con người

AI vận hành dựa trên thuật toán và dữ liệu huấn luyện do đó người dùng luôn cần thận trọng và kiểm chứng độ chính xác của nội dung trả ra từ phản hồi của AI. Đa dạng hóa nguồn tham khảo, kiểm tra chéo hoặc đối chiếu với những thông tin chính thống là cách đơn giản để "nắm đằng chuôi" trong cuộc chơi này.

Những công cụ có khả năng truy xuất dữ liệu, nói đơn giản là tìm kiếm thông tin từ nguồn tin cậy  như giáo trình, bài nghiên cứu, văn bản pháp luật đang mở ra thêm những hướng nghiên cứu và phát triển mới để bổ sung cho năng lực mạnh mẽ của AI.

AI là công nghệ, là thuật toán, do đó yêu cầu càng rõ ràng và có cấu trúc mạch lạc càng dễ tạo ra phản hồi chi tiết. Chất lượng đầu ra của AI phụ thuộc nhiều vào cách đặt câu hỏi của người dùng. Những câu hỏi mơ hồ thường dẫn đến câu trả lời mơ hồ hoặc sai lệch. Một số nhà nghiên cứu đã chứng minh một kỹ thuật có tên "Chain of Thought Prompting" (gợi ý theo chuỗi suy luận) giúp tăng tăng minh bạch và độ chính xác trong các nhiệm vụ phức tạp. Kỹ thuật này có thể hiểu đơn giản là buộc mô hình giải thích từng bước, từ đó giúp tăng tính minh bạch do có diễn giải cụ thể cho người dùng cách mô hình suy luận.

Tham số đo lường sự sáng tạo cho AI, gọi là "nhiệt độ" (temperature), trong ngữ cảnh của các mô hình ngôn ngữ lớn là một siêu tham số được sử dụng để điều chỉnh sự ngẫu nhiên và sự sáng tạo của văn bản, nội dung được AI tạo ra. Đây là khái niệm được mượn từ vật lý thống kê và được tích hợp vào hoạt động của các mô hình ngôn ngữ lớn, cho phép người dùng điều chỉnh sự cân bằng giữa sự sáng tạo và tính nhất quán khi yêu cầu AI phản hồi.

AI tạo sinh là bước tiến công nghệ quan trọng nhưng đi kèm với đó là những rủi ro thông tin ngày càng phức tạp. Điều chúng ta chưa biết về vẫn nhiều hơn rất nhiều so với những gì đã nắm rõ, và khoảng cách ấy sẽ còn tiếp tục mở ra khi công nghệ hoàn toàn có thể phát triển nhanh hơn khả năng kiểm soát của con người. Vì vậy, điều quan trọng không chỉ là khai thác được sức mạnh của AI, mà còn phải chủ động đặt ra giới hạn, tiêu chuẩn và cơ chế giám sát.

Thái Hân

Sáng 2/1/2026 (giờ địa phương), Đội tuyển U23 Việt Nam đã có mặt tại Arab Saudi chính thức bước vào hành trình tham dự Vòng chung kết (VCK) U23 châu Á 2026. Đây không chỉ là một giải đấu mang ý nghĩa cạnh tranh thành tích, mà còn là dấu mốc quan trọng trong lộ trình xây dựng lực lượng kế cận, hướng tới các mục tiêu dài hạn của bóng đá Việt Nam trong giai đoạn tới.

Theo Cơ quan Hàng không và Vũ trụ Mỹ (NASA) và Đài Thiên văn Hải quân Mỹ, trăng tròn đầu tiên trong năm 2026 sẽ đạt pha cực đại vào ngày 3/1, khi toàn bộ bề mặt mặt trăng hướng về trái đất được chiếu sáng, tạo nên hình ảnh trăng tròn rõ nét nhất.

Theo Vụ Phát triển Thị trường nước ngoài (Bộ Công Thương), ngày 31/12/2025, Tổng thống Donald Trump đã ký Tuyên bố điều chỉnh chính sách thuế nhập khẩu đối với gỗ, gỗ xẻ và các sản phẩm phái sinh từ gỗ vào Hoa Kỳ theo Mục 232 của Đạo luật Mở rộng Thương mại năm 1962.

Trong bức tranh trí tuệ nhân tạo (AI) toàn cầu đang thay đổi nhanh chóng, Ấn Độ nổi lên như điểm sáng. Theo bảng xếp hạng Global AI Vibrancy Index 2025 do Đại học Stanford công bố hồi tháng 11, Ấn Độ đã vươn lên vị trí thứ 3 thế giới về mức độ năng động của hệ sinh thái AI, chỉ xếp sau Mỹ và Trung Quốc và vượt qua hàng loạt cường quốc công nghệ lâu năm như Anh, Nhật Bản, Hàn Quốc hay Singapore.

Từng được kỳ vọng sẽ trở thành khu đô thị kiểu mẫu bậc nhất trung tâm thành phố Thanh Hóa, thế nhưng gần 20 năm trôi qua, Dự án Khu đô thị mới ven sông Hạc vẫn còn nhiều dở dang, khiến hàng trăm hộ dân ở phường Hàm Rồng, tỉnh Thanh Hóa phải sống trong cảnh dở khóc dở cười, đất đai không thể tách thửa, mua bán chuyển nhượng, nhà hư hỏng không được sửa, tương lai vẫn mịt mờ…

Ngày 2/1, thông tin từ Tổng công ty Đường sắt Việt Nam (VNR) cho biết, chuyến tàu SE5 xuất phát từ ga Hà Nội vào ngày 1/1, khi đến ga Đồng Hới vào 19h27 phút cùng ngày, tiếp viên toa số 9 đã nhận được thông tin có hành khách để quên vàng được gói trong mảnh giấy ăn. 

Từ dữ liệu dân cư, dữ liệu về phương tiện cơ giới do lực lượng Công an cả nước miệt mài thu thập, “làm sạch” cùng với hệ thống cơ sở dữ liệu dùng chung và hạ tầng công nghệ thông tin (CNTT) do các bộ ngành, địa phương tích hợp, đầu tư phát triển, đến nay “trái ngọt” từ kinh tế số, xã hội số đã đến với người dân, doanh nghiệp…

Năm 2025 khép lại với việc triển khai mở rộng tuyến cao tốc TP Hồ Chí Minh - Long Thành - Dầu Giây và khởi động việc đầu tư xây dựng các tuyến cao tốc TP Hồ Chí Minh - Mộc Bài, đường Vành đai 4. Ngoài ra một loạt tuyến cao tốc khác như đường Vành đai 3, cao tốc Bến Lức - Long Thành, cao tốc Biên Hòa - Vũng Tàu đang được TP Hồ Chí Minh và các bộ ngành, địa phương khẩn trương hoàn thành.

Thông tin từ Trung tâm dự báo khí tượng thủy văn Quốc gia, hiện nay, không khí lạnh đã ảnh hưởng đến hầu hết khu vực Đông Bắc Bộ, trời mưa dông, nhiệt độ giảm từ 3-5 độ. Ở vịnh Bắc Bộ đã có gió Đông Bắc mạnh cấp 6, giật cấp 7.

Càng gần đến Tết nhu cầu làm đẹp của chị em càng gia tăng. Đánh vào thị hiếu của người tiêu dùng, trên mạng xã hội rầm rộ quảng cáo “trắng da thần tốc”, “nâng vòng 1 căng tròn và quyến rũ”, “Peel da tại nhà giá rẻ”, hay “trẻ hóa làn da chỉ sau 7 ngày”, “đẹp sau 15 phút”…với các chiến dịch ưu đãi, giảm giá hấp dẫn.

©2004. Bản quyền thuộc về Báo Công An Nhân Dân.
®Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Công An Nhân Dân.
English | 中文