Những hậu quả của siêu trí tuệ

21:29 24/05/2022

Tôi (tác giả bài viết này, nhà nghiên cứu về Thuyết vị lai, ông George Dvorsky) tin tưởng rằng trí tuệ máy móc sẽ là bước hoàn tác cuối cùng của nhân loại. Khả năng xóa sổ nhân loại của nó là thứ mà tôi đã nghĩ và liên tục viết trong suốt 20 năm qua.

Tôi rất lo lắng cho điều này, và viễn cảnh nền văn minh nhân loại bị diệt vong bởi chính các công cụ từ trí tuệ máy là thứ không thể xem thường được. Cũng có ý kiến phản đối cho rằng siêu trí tuệ nhân tạo (ASI) không thể hủy diệt loài người chúng ta, nhưng tôi thấy rằng thật nực cười. Ý kiến phản đối ngây thơ này cho rằng một chiếc máy tính siêu thông minh cũng không thể nào nghĩ ra động cơ hoặc kích động để kết liễu con người.

Trong một tương lai không xa, siêu trí tuệ nhân tạo (ASI) có khả năng hiểu biết vượt xa người bình thường. Ảnh: Fronty

Mất kiểm soát và hiểu biết

Quý vị hãy tưởng tượng đến các hệ thống dù là sinh học hay nhân tạo cũng có các mức độ thông minh bằng hoặc vượt xa trí tuệ con người. Bộ não con người được tăng cường triệt để (hoặc thậm chí não động vật phi con người) có thể đạt được thông minh thông qua sự hội tụ kỹ thuật di truyền, công nghệ nano, công nghệ thông tin (IT) và khoa học nhận thức, trong khi đó trí tuệ máy vượt trội con người đã xuất hiện thông qua những tiến bộ trong khoa học vi tính, khoa học nhận thức và mô phỏng toàn bộ não bộ. Và bây giờ hãy tưởng tượng đến kịch bản nếu một trong số những hệ thống này bị sự cố hoặc chúng cố tình được sử dụng làm vũ khí? Bà Susan Schneider (Giám đốc Trung tâm trí tuệ tương lai, và là tác giả cuốn sách “Trí tuệ nhân tạo: AI và Tương lai trí tuệ”) đã giải thích trong một thư điện tử: “Đó là thứ được gọi là “vấn đề kiểm soát”. Hiểu nôm na là làm thế nào để kiểm soát trí tuệ nhân tạo (AI) khôn hơn chúng ta rất nhiều”.

Làm một phép so sánh, bà Susan Schneider đã chỉ ra kịch bản cái kẹp giấy nổi tiếng, trong đó nhà sản xuất cái kẹp giấy sở hữu AI được lập trình nhằm tối ưu hóa hiệu quả sản xuất kẹp giấy. Đổi lại, nó quay ra hủy diệt hành tinh bằng cách biến mọi thứ trên trái đất thành…kẹp giấy, một phạm trù rủi ro mà triết gia Nick Bostrom của Đại học Oxford gọi là “sự giả tạo sai lầm” trong cuốn sách xuất bản năm 2014 của ông mang tựa đề “Siêu thông minh: Những con đường, hiểm họa, các chiến lược”. Hoặc hiểu đơn giản hơn thì nó là thần đèn trong chuyện cổ tích với 3 điều ước “đừng tham lam quá mức”. Mối bận tâm chung ở đây là chúng ta sẽ yêu cầu ASI làm việc gì đó mà bản thân mình không biết chi tiết về nó, hoặc ASI sẽ hiểu sai lời ước của chúng ta và vì thế sẽ cho ra kết quả không thể dự tính trước được. Ví dụ, khi yêu cầu ASI khai thác điện mặt trời, vô tình khiến siêu trí tuệ khai thác toàn bộ tài nguyên trên trái đất để cấu trúc nên một mảng mặt trời khổng lồ.

Ông Manuel Alfonseca, một nhà khoa học máy tính tại Đại học Tự động hóa Madrid (UAM). Ảnh: ResearchGate

Triết gia Nick Bostrom phỏng đoán: một khi ASI xuất hiện, sự diệt vong sẽ diễn ra theo những cách khá kỳ lạ và hoàn toàn bất ngờ. Ông Eliezer Yudkowsky, một nhà lý thuyết AI tại Viện máy về trí tuệ nhân tạo (MIAI) trong bài luận của mình mang tựa đề “AI, một nhân tố tích cực và tiêu cực trong rủi ro toàn cầu” đã viết rằng: “ASI là những quy trình tối ưu hóa, hoặc một hệ thống tấn công các mục tiêu nhỏ trong những không gian nghiên cứu lớn nhằm tạo ra những hiệu ứng nhất quán trong thế giới thực”. Nan giải ở đây là những quy trình này có khả năng khám phá những không gian rộng hơn, mà nhiều khả năng trong số đó chúng ta lại không thể tưởng tượng được. Bị tách biệt khỏi bối cảnh nhân loại và được thúc đẩy bởi lập trình dựa trên mục tiêu của nó, một cỗ máy có thể gây ra thiệt hại đáng kể khi cố gắng đi từ A đến B. Trớ trêu thay khi AI cũng có thể dùng và lạm dụng nguồn lực đã có sẵn chính là con người khi cố gắng đạt mục tiêu của nó, và theo các cách mà chúng ta không thể dự báo trước được.

Những biến hóa khó lường của siêu trí tuệ 

Một AI được lập trình với những cân nhắc về đạo đức trước có thể tránh được một số cạm bẫy nhất định, nhưng ông Eliezer Yudkowsky chỉ ra rằng: “Thật khó để dự báo mọi phương cách một khi AI đi theo”. Có một giải pháp khả thi trong việc kiểm soát ASI là phải cho nó thấm nhuần những quy tắc đạo đức tương thích với con người. Nếu chúng ta có thể làm được điều này, một cỗ máy mạnh mẽ sẽ không gây hại hoặc hoạt động vi phạm đạo đức của con người. Thực tế là nhân loại chưa khi nào nghĩ ra được một quy tắc đạo đức để mọi người cùng đồng thuận. Và vì không có quy tắc đạo đức chung nên viễn cảnh dạy đạo đức cho ASI có lẽ sẽ không hiệu quả. Ông Roman Yampolsky, giáo sư về công nghệ và khoa học máy tính tại Đại học Louisville (Kentucky, Mỹ) lý giải: “Nếu con người có thể dự đoán ASI sẽ làm gì thì chúng ta cũng thông minh ngang ngửa máy."

Siêu trí tuệ dần dần sẽ có quyền lực và ảnh hưởng lớn hơn thông qua việc mua của cải, sức mạnh CPU, khả năng lưu trữ và phạm vi tiếp cận. Ông Manuel Alfonseca, một nhà khoa học máy tính tại Đại học Tự động hóa Madrid (UAM) đã giải thích về những thách thức kinh hoàng hơn khi siêu trí tuệ có thể đưa ra những phán quyết nằm ngoài yêu cầu của con người. Ông Alfonseca nói: “Một ASI có thể đưa ra kết luận rằng “thế giới sẽ tốt đẹp hơn nếu không có con người và tự động xóa sổ chúng ta”, một số người viện dẫn khả năng nghiệt ngã này để giải thích sự thất bại của con người trong việc định vị trí tuệ ngoài trái đất. Tất cả chúng ta sẽ bị thay thế bởi một AI siêu thông minh và chúng chả cần quan tâm tới ai đó đang liên hệ với loài người, một dạng sự sống thấp hơn”. Đối với một ASI nhắm ý đồ hủy diệt nhân loại thì việc khai thác những điểm yếu sinh học của chúng ta đã thể hiện cho một con đường thành công đơn giản nhất. Con người có thể tồn tại trong khoảng 30 ngày không cần ăn, và nhịn nước từ 3 đến 4 tiếng, nhưng chỉ mất oxy vài phút là đã chết.

Một cỗ máy có đủ trí thông minh sẽ tìm cách hủy sạch ô xy trong bầu khí quyển của chúng ta, và nó có thể làm việc đó trong một dạng thức bầy đàn công nghệ nano tự tái tạo. Trong một kịch bản như vậy, các hạm đội máy phân tử được thiết kế có chủ đích sẽ tìm những nguồn lực cụ thể và biến chúng thành một thứ khác bao gồm các bản sao của chính chúng. Nguồn tài nguyên này không nhất thiết phải là ô xy, chỉ là việc loại bỏ một nguồn tài nguyên quan trọng đối với sự sống của con người.

Sự tiếp quản thế giới của trí tuệ nhân tạo 

Tất cả những điều này nghe có vẻ giống khoa học viễn tưởng, nhưng khoa học gia Manuel Alfonseca quả quyết tiểu thuyết đầu cơ có thể làm nổi bật cho những rủi ro tiềm ẩn. Bà Susan Schneider cũng tin vào sức mạnh của những câu chuyện hư cấu. Bà Susan Schneider cho biết: “Mối bận tâm về sự nguy hiểm của AI cùng đà gia tăng những cỗ máy giết người tự động như thiết bị bay không người lái (drone) có thể lấy từ phần mềm nhận dạng khuôn mặt hiện có nhằm nhắm mục tiêu vào ai đó”. Nhà nghiên cứu máy học MIT, Max Tegmark, trong cuốn sách phát hành vào năm 2017 mang tựa đề “Cuộc sống 3.0: Làm người trong thời đại trí tuệ nhân tạo” đã hình dung ra những kịch bản tinh vi hơn, thâm hiểm hơn trong đó trí tuệ máy đã chiếm lĩnh thế giới thông qua thông qua các kỹ thuật xã hội tinh ranh cùng việc thu nhập ổn định các nguồn tài nguyên hiện có.

Nhà nghiên cứu máy học MIT, Max Tegmark, tiên đoán: “Nếu nhân loại thất bại trong việc kiểm soát sự bùng nổ trí tuệ thì bản thân AI có thể tiếp quản thế giới nhanh hơn”. Ảnh nguồn: Talaforum

Trong cuốn sách của mình, tác giả Tegmark mô tả về Prometheus, một kiểu ASI giả định đã dùng trí tuệ thích ứng và tính linh hoạt của nó để “kiểm soát toàn diện con người” và những người chống lại vì “không tải Prometheus để dùng”. Về bản chất, sự ra đời của trí tuệ máy nói chung chắc chắn sẽ rất hoành tráng và là một bước ngoặt trong lịch sử nhân loại. Nhà nghiên cứu Tegmark viết: “Một AI nói chung sẽ có đủ khả năng để thiết kế ASI giả định tốt hơn khi việc đó chỉ bị giới hạn bởi các định luật vật lý, mà dường như cho phép trí thông minh vượt xa mức con người. Nói cách khác, một AI nói chung có thể dùng để tạo ra siêu trí tuệ. Trong thời đại tương ứng, chúng ta đang chứng kiến cái gọi là “sự bùng nổ trí tuệ” và có thể dẫn đến một số kết quả không mong muốn. Nhà nghiên cứu Tegmark viết: “Nếu một nhóm người quản lý để kiểm soát sự bùng nổ trí tuệ thì có họ có thể chế ngự cả thế giới trong nhiều năm. Nếu nhân loại thất bại trong việc kiểm soát sự bùng nổ trí tuệ thì bản thân AI có thể tiếp quản thế giới nhanh hơn”.

Nỗi lo vũ trang ai trong quân sự

Những thuật toán hiện đang chịu trách nhiệm về tỷ trọng khối lượng giao dịch cổ phiếu, và có lẽ khét tiếng hơn là chúng đủ khả năng để đánh bại các phi công lái chiến cơ F-16 trong các hoạt động không chiến. Càng ngày AI càng được yêu cầu đưa ra những quyết định lớn mà không cần sự can thiệp của con người. Bà Susan Schneider lo rằng “đang có một cuộc chạy đua vũ trang AI trong quân sự” và rằng “sự gia tăng lệ thuộc ngày càng nhiều vào AI sẽ làm thui chột các khả năng nhận thức của con người khi không thể phản ứng với những thách thức quân sự theo một cách thức đủ nhanh”. Bà Susan Schneider giải thích: “Chúng ta sẽ yêu cầu AI làm việc đó cho mình nhưng lại không rõ chúng ta có thể giữ con người trong vòng an toàn hay không. Có thể tưởng tượng rằng cuối cùng AI sẽ phản ứng nhằm thay mặt con người khi đương đầu với những cuộc tấn công quân sự trước khi các dữ liệu tình báo kịp đến tay người nhận”.

Con người dễ mắc sai lầm nhất là trên chiến trường, nhưng những tính toán sai lầm hoặc đánh giá sai của AI có thể lại tạo ra một lớp rủi ro bổ sung. Một sự cố có từ năm 1983 cho thấy hệ thống cảnh báo sớm của Liên Xô suýt nữa đi đến chiến tranh hạt nhân. Chúng ta có rất ít sự lựa chọn, tuy nhiên cần phải thử. Triết gia đại học Oxford, Nick Bostrom, quả quyết: “Trí tuệ của chúng ta phải đi trước công nghệ”, và ông Bostrom đã đặt ra cụm từ mới “Triết học hạn chót”. Những gì đang bị đe dọa là một loạt các thảm họa tiềm tàng trên hành tinh thậm chí trước cả khi có ASI. Và rõ ràng con người chúng ta rất kém cỏi trong các thảm họa toàn cầu, điều đó là hiển nhiên. Có rất ít sự hiểu biết tốt về SARS-CoV-2 và các biến thể rắc rối của nó, nhưng con virus này đã hoạt động rất thụ động bằng cách khai thác các lỗ hổng của con người, cho dù lổ hổng đó là về bản chất sinh học hay xã hội.

Con virus đã gây nên đại dịch COVID-19 có thể thích ứng với các biện pháp đối phó của chúng ta, nhưng chỉ thông qua các quá trình đột biến và chọn lọc ngẫu nhiên, nó luôn bị ràng buộc bởi những ràng buộc sinh học. Đáng lo hơn khi một AI hắc ám có thể tự thiết kế ra loại “virus có chỉ số IQ thấp” và liên tục điều chỉnh nó nhằm tạo ra những biến thể mới gây chết người nhiều hơn nhằm đáp trả các biện pháp đối phó của con người. Chỉ còn cách duy nhất là ra lệnh cấm toàn cầu sự phát triển của AI gần siêu thông minh, tuy rằng khó nhưng mà rất cần thiết.

Văn Chương (Tổng hợp)

Chiều 20/3, tại Hà Nội, Trung tướng Đặng Hồng Đức, Ủy viên Trung ương Đảng, Thứ trưởng Bộ Công an chủ trì buổi làm việc với Công ty TNHH MTV BCA- Thăng Long (Công ty Thăng Long), đơn vị trực thuộc Cục Công nghiệp an ninh, Bộ Công an, về tình hình thực hiện các mặt công tác, hoạt động sản xuất, kinh doanh và định hướng phát triển trong thời gian tới.

TAND TP Hà Nội vừa ra thông báo kêu gọi bị cáo Nguyễn Hải Thanh (SN 1964, trú tại phường Hoàn Kiếm, Hà Nội), cựu Phó Cục trưởng Cục Quản lý xây dựng công trình (Bộ Nông nghiệp và Phát triển nông thôn cũ) ra đầu thú và có mặt tại phiên tòa để thực hiện quyền tự bào chữa theo quy định của pháp luật.

Trong bài viết có tựa đề “Ngày hội non sông và trọng trách trước nhân dân”, mà Báo Công an nhân dân vừa trân trọng giới thiệu, Tổng Bí thư Tô Lâm đã phát đi một lời hiệu triệu sâu sắc, thẳng thắn và đầy kỳ vọng gởi tới những người vừa được nhân dân tin tưởng lựa chọn. Trong đó, thông điệp về “sự cam kết và trách nhiệm nêu gương của người đứng đầu và đội ngũ cán bộ” giữ vị trí như một “từ khóa” cốt lõi. Đó cũng là lời giải cho bài toán củng cố niềm tin của nhân dân trong kỷ nguyên mới...

Ngày 20/3, Công an xã Văn Bàn (tỉnh Lào Cai) cho biết đã hoàn tất thủ tục, bàn giao 2 nữ sinh trở về với gia đình và nhà trường để tiếp tục học tập sau thời gian bỏ học, rời địa phương đi làm tại tỉnh Thái Nguyên.

Tình trạng một số doanh nghiệp khai thác khoáng sản tại Lâm Đồng cố tình che chắn hệ thống camera giám sát, tự ý mở lối đi mới để vận chuyển cát nhằm né tránh kiểm soát của cơ quan chức năng đang diễn ra phức tạp. UBND tỉnh Lâm Đồng đã chỉ đạo quyết liệt, yêu cầu cơ quan chức năng xử lý dứt điểm, thậm chí xem xét tạm dừng hoạt động đối với các đơn vị vi phạm.

Ngày 20/3, tại Trung tâm hội nghị tỉnh Lào Cai, Tỉnh uỷ Lào Cai tổ chức Hội nghị quán triệt, triển khai thực hiện các giải pháp phấn đấu xây dựng 100% xã, phường không ma tuý trong năm 2026 theo chỉ đạo của Đảng uỷ Công an Trung ương, Bộ Công an và Nghị quyết của Ban Thường vụ Tỉnh uỷ Lào Cai.

Mượn danh “viện thẩm mỹ quốc tế”, thuê diễn viên đóng vai bác sĩ, thậm chí cấu kết với công ty tài chính để ép khách hàng sập bẫy nợ... là những thủ đoạn tinh vi của các nhóm đối tượng bị Công an TP Hồ Chí Minh triệt phá. Đằng sau những lời hứa hẹn “mọc tóc thần kỳ” hay “chữa dứt điểm bách bệnh” là những cái bẫy lừa đảo quy mô lớn, chiếm đoạt hàng chục tỷ đồng của người dân.

©2004. Bản quyền thuộc về Báo Công An Nhân Dân.
®Không sao chép dưới mọi hình thức khi chưa có sự đồng ý bằng văn bản của Báo Công An Nhân Dân.
English | 中文