Chưa bao giờ trong lịch sử có một cường quốc nào sợ đối thủ áp dụng công nghệ mới đe dọa đến sự tồn vong và an ninh của mình, mà lại không tự mình phát triển công nghệ đó, ngay cả các đồng minh thân cận của Mỹ như Anh và Pháp.


PHƯƠNG TÂY ĐÃ MẤT QUYỀN KIỂM SOÁT THẾ GIỚI

(Báo “LE FIGARO - Pháp)

Để làm cho quan điểm “tập thể phương Tây đã mất quyền kiểm soát thế giới” trở nên sáng rõ hơn, các chiến lược gia đã tạo ra từ viết tắt đầy mỉa mai MAD (tiếng Anh có nghĩa là “điên rồ”, là viết tắt của “sự hủy diệt được đảm bảo lẫn nhau”), bản chất của từ này đã được nêu trong bài viết thường xuyên của Reagan,cụm từ lặp đi lặp lại: “Một cuộc chiến tranh hạt nhân không thể thắng và do đó không bao giờ nên sử dụng”.

Từ góc độ hoạt động, MAD có nghĩa là lỗ hổng được đảm bảo lẫn nhau. Mặc dù cả Hoa Kỳ và Liên Xô đều tìm cách tránh tình trạng này, nhưng cuối cùng họ nhận ra rằng họ không thể làm như vậy và về cơ bản phải suy nghĩ lại các mối quan hệ cơ bản giữa họ. Năm 1955, Churchill đã lưu ý đến một điều trớ trêu tột độ là “an ninh sẽ trở thành đứa con mạnh mẽ của khủng bố và sống sót sẽ là anh em sinh đôi của sự hủy diệt”. Không phủ nhận sự khác biệt về giá trị và không đe dọa đến lợi ích quốc gia sống còn, những kẻ thù không đội trời chung phải phát triển các chiến lược để đánh bại đối thủ bằng mọi cách có thể, ngoại trừ chiến tranh tổng lực.

Một trong những trụ cột của những chiến lược này là một loạt các hạn chế ngầm và rõ ràng mà ngày nay được gọi là kiểm soát vũ khí. Ngay cả trước khi chiến lược MAD ra đời, khi mỗi siêu cường làm mọi cách có thể để đạt được ưu thế hạt nhân, họ đã khám phá ra những lĩnh vực có lợi ích chung.

Để giảm nguy cơ mắc sai lầm, Hoa Kỳ và Liên Xô đã đồng ý trong các cuộc thảo luận không chính thức là không can thiệp vào việc giám sát lãnh thổ của phía ben kia. Để bảo vệ công dân của mình khỏi bụi phóng xạ, cả hai bên đã cấm thử nghiệm hạt nhân trong khí quyển. Để tránh "khủng hoảng bất ổn" - khi một bên cảm thấy cần phải tấn công trước và tin rằng bên kia sắp làm như vậy - họ đã đồng ý trong Hiệp ước ABM năm 1972 hạn chế phòng thủ tên lửa.

Trong Hiệp ước về Lực lượng hạt nhân tầm trung, tầm ngắn được ký năm 1987, Reagan và nhà lãnh đạo Liên Xô Mikhail Gorbachev đã đồng ý loại bỏ lực lượng hạt nhân tầm trung. Các cuộc đàm phán về hạn chế vũ khí chiến lược, dẫn đến các hiệp ước năm 1972 và 1979, đã hạn chế việc gia tăng số lượng bệ phóng tên lửa, và sau đó là Hiệp ước cắt giảm vũ khí chiến lược (START), ký năm 1991 và hiệp ước START mới, ký năm 2010, giảm về số lượng. Có lẽ điểm quan trọng nhất đó là Hoa Kỳ và Liên Xô đi tới kết luận rằng việc phổ biến vũ khí hạt nhân sang các quốc gia khác sẽ tạo thành mối đe dọa cho chính họ và cuối cùng sẽ dẫn đến "tình trạng hỗn loạn hạt nhân". Điều này dẫn đến việc thành lập cái gọi là chế độ không phổ biến vũ khí hạt nhân mà hạt nhân của nó là Hiệp ước không phổ biến vũ khí hạt nhân năm 1968, theo đó 186 quốc gia hiện đã cam kết kiềm chế phát triển kho vũ khí hạt nhân của riêng mình.

SỰ KIỂM SOÁT AI

Trong rất nhiều đề xuất vừa qua về việc ngăn chặn AI có thể lắng nghe được những đồng vọng của quá khứ. Yêu cầu của tỷ phú Elon Musk tạm dừng phát triển AI trong sáu tháng, đề xuất cấm nó của nhà nghiên cứu trí tuệ nhân tạo Eliezer Yudkowsky và yêu cầu của nhà tâm lý học Gary Marcus rằng nó phải được kiểm soát bởi một loại cơ quan quản lý toàn cầu nào đó về cơ bản lặp lại những đề xuất thất bại trong thời đại hạt nhân.

Lý do là mỗi cơ chế này sẽ yêu cầu các quốc gia hàng đầu phải đặt chủ quyền của mình phụ thuộc vào các cấu trúc siêu quốc gia. Chưa bao giờ trong lịch sử có một cường quốc nào sợ đối thủ áp dụng công nghệ mới đe dọa đến sự tồn vong và an ninh của mình, mà lại không tự mình phát triển công nghệ đó. Ngay cả các đồng minh thân cận của Mỹ như Anh và Pháp đã lựa chọn phát triển năng lực hạt nhân quốc gia của mình, bên cạnh việc dựa vào chiếc ô hạt nhân của Mỹ.

Để điều chỉnh các bài học về lịch sử hạt nhân nhằm giải quyết thách thức của trí tuệ nhân tạo hiện nay, điều quan trọng là phải nhận ra sự khác biệt đáng kể giữa AI và vũ khí hạt nhân. Trước hết, nếu việc phát triển công nghệ hạt nhân được chỉ đạo bởi chính phủ của từng quốc gia thì việc tạo ra AI chủ yếu được thúc đẩy bởi các công ty tư nhân. Các nhà khoa học làm việc tại Microsoft, Google, Amazon, Meta, OpenAI và một số công ty khởi nghiệp nhỏ hơn đang vượt xa mọi nỗ lực tương tự của chính phủ Hoa Kỳ. Hơn nữa, các công ty này hiện đang tham gia vào một cuộc chiến đấu “vì sĩ diện” giữa họ, điều này không nghi ngờ gì chắc chắn sẽ kích thích sự đổi mới phải trả giá đắt. Vì những trò chơi tư nhân này chủ yếu tìm kiếm sự thỏa hiệp giữa lợi nhuận và rủi ro nên họ thường đánh giá thấp lợi ích quốc gia của từng nước cụ thể.

Thứ hai, AI ngày nay là kỹ thuật số. Vũ khí hạt nhân rất khó sản xuất và cần có cơ sở hạ tầng phức tạp để thực hiện mọi việc, từ làm giàu uranium đến phát triển vũ khí hạt nhân. Sản phẩm hạt nhân là vật thể vật chất và do đó có thể đếm được. Nhưng ở nơi cần kiểm tra hành động của kẻ thù thì ngay lập tức nảy sinh những hạn chế. AI đưa ra một thách thức hoàn toàn khác. Sự tiến hóa chính của nó xảy ra trong tâm trí của mọi người. Nó được phát triển trong phòng thí nghiệm và việc triển khai nó rất khó quan sát. Vũ khí hạt nhân là hữu hình. Bản chất của trí tuệ nhân tạo là tính khái niệm và tính suy đoán của nó.

Thứ ba, AI đang phát triển và lan rộng với tốc độ khiến các cuộc đàm phán lâu dài không thể thực hiện được. Kiểm soát vũ khí đã phát triển qua nhiều thập kỷ. Các giới hạn đối với AI phải được đặt ra trước khi AI được tích hợp vào cấu trúc an ninh của mọi quốc gia, tức là trước khi máy móc bắt đầu đặt ra các mục tiêu của riêng mình, điều mà một số chuyên gia cho rằng có thể xảy ra trong vòng 5 năm tới. Điều này đòi hỏi phải thảo luận và phân tích, trước tiên là ở cấp quốc gia và sau đó là cấp quốc tế. AI cũng yêu cầu một kiến ​​trúc mới cho mối quan hệ giữa chính phủ và khu vực tư nhân.

May mắn thay, các công ty lớn đã phát triển trí tuệ nhân tạo cốt lõi và khiến Hoa Kỳ trở thành siêu cường AI hàng đầu nhận ra rằng họ có trách nhiệm không chỉ với các cổ đông của mình mà còn với cả nước Mỹ và nhân loại nói chung. Nhiều người đã phát triển các hướng dẫn riêng để đánh giá rủi ro trước khi triển khai, giảm sai lệch trong đào tạo AI và hạn chế việc sử dụng mô hình của họ một cách nguy hiểm. Những người khác đang tìm cách hạn chế việc đào tạo AI và áp đặt các yêu cầu về hiểu biết khách hàng của bạn đối với các nhà sản xuất hệ thống điện toán đám mây. Một bước quan trọng theo đúng hướng là sáng kiến ​​được chính quyền Biden công bố vào tháng 7 năm nay nhằm đưa người đứng đầu bảy công ty trí tuệ nhân tạo lớn đến Nhà Trắng để cùng cam kết phát triển các hướng dẫn nhằm đảm bảo “an toàn, an ninh và tin cậy”.

Một người trong chúng ta- Kissinger, trong cuốn sách “Thời đại của trí tuệ nhân tạo” đã lưu ý việc tiến hành nghiên cứu có hệ thống về tác động lâu dài của các phát minh và ứng dụng mới nổi của trí tuệ nhân tạo là rất quan trọng. Với xã hội ở Hoa Kỳ hiện đang bị chia rẽ nhiều hơn cả thời Nội chiến, quy mô rủi ro đặt ra những tiến bộ không giới hạn trong AI đòi hỏi các nhà lãnh đạo trong cả chính phủ và doanh nghiệp phải hành động ngay lập tức. Mọi công ty có khả năng tạo ra các mô hình AI mới và mọi công ty hoặc tổ chức nghiên cứu đang phát triển các mô hình như vậy nên thành lập các nhóm để phân tích các tác động đối với con người và địa chính trị trong hoạt động kinh doanh AI của mình.

Vấn đề này mang tính chất liên đảng phái và đòi hỏi sự phản ứng thống nhất của ​​​​xã hội chúng ta. Theo tinh thần này, Tổng thống và Quốc hội nên thành lập một ủy ban quốc gia bao gồm các chuyên gia nổi tiếng,các cựu lãnh đạo độc lập về mặt chính trị của khu vực tư nhân,của Quốc hội, quân đội và cộng đồng tình báo. Ủy ban phải đề xuất những bảo đảm bắt buộc cụ thể. Những điều này cần bao gồm các yêu cầu rằng các mô hình AI mới như GPT-4 có thể được đào tạo liên tục và các công ty phải kiểm tra chặt chẽ các rủi ro cực độ trước khi phát hành một mô hình mới. Mặc dù nhiệm vụ phát triển các quy tắc như vậy rất phức tạp nhưng ủy ban sẽ có một khuôn mẫu dưới dạng Ủy ban An ninh Quốc gia về Trí tuệ Nhân tạo. Các khuyến nghị của nó, được ra đời vào năm 2021, đã cung cấp động lực và định hướng cho các sáng kiến ​​mà các cơ quan quân sự và tình báo Hoa Kỳ đang được thực hiện như một phần của cuộc cạnh tranh trong lĩnh vực trí tuệ nhân tạo với Trung Quốc.

HAI SIÊU CƯỜNG TRONG LĨNH VỰC AI

Ngay cả ở giai đoạn đầu này, trong khi Hoa Kỳ vẫn đang xây dựng hệ thống quản trị AI của riêng mình ở trong nước, các cuộc đối thoại nghiêm túc hẳn đã phải bắt đầu với một siêu cường AI duy nhất khác trên thế giới. Mặc dù hệ thống chính trị của Trung Quốc đã tạo ra những thách thức cho việc phát triển AI, các nhà lãnh đạo quốc gia của Trung Quốc trong lĩnh vực công nghệ như Baidu (công cụ tìm kiếm hàng đầu của đất nước), ByteDance (người tạo ra TikTok), Tencent (người tạo ra WeChat) và Alibaba (người dẫn đầu về thương mại điện tử) đang xây dựng hệ thống của riêng họ bằng tiếng Trung - tương tự trò chuyện ChatGPT. Và mặc dù Trung Quốc vẫn còn tụt hậu về công nghệ bán dẫn tiên tiến nhưng nước này có đủ điều kiện để tiến bộ trong tương lai gần.

Để đạt được mục tiêu này, Biden và Tập nên gặp nhau càng sớm càng tốt để có một cuộc trò chuyện cởi mở về việc kiểm soát việc sử dụng AI cho quân đội. Cuộc họp Hợp tác Kinh tế Châu Á-Thái Bình Dương vào tháng 11 tại San Francisco mang đến cho họ cơ hội đó. Các nhà lãnh đạo Mỹ và Trung Quốc nên thảo luận về cách cá nhân họ nhìn nhận những rủi ro do AI gây ra, đất nước của họ đang làm gì để ngăn chặn những hoạt động sử dụng tạo ra rủi ro thảm khốc và cách đất nước của họ đảm bảo rằng các công ty trong nước được đảm bảo an toàn sẽ không xuất khẩu các rủi ro liên quan.

Để cung cấp thông tin cho vòng thảo luận tiếp theo, họ nên thành lập một nhóm cố vấn bao gồm các nhà khoa học trí tuệ nhân tạo của Mỹ và Trung Quốc cũng như những người khác đang xem xét tác động của những diễn biến này. Cách tiếp cận ấy có thể được mô hình hóa theo đường lối ngoại giao thứ hai hiện có trong các lĩnh vực khác, trong đó các nhóm gồm những người được lựa chọn dựa trên đánh giá khách quan của họ, mặc dù không được chính phủ của họ chính thức phê duyệt. Căn cứ vào những cuộc trò chuyện của chúng tôi với các nhà khoa học hàng đầu ở cả hai nước, chúng tôi tin tưởng rằng cuộc thảo luận này có thể rất hiệu quả.

Các cuộc thảo luận và hành động của Mỹ và Trung Quốc trong chương trình nghị sự này sẽ chỉ là một phần của cuộc đối thoại toàn cầu mới nổi về AI, bao gồm Hội nghị thượng đỉnh An ninh AI mà Vương quốc Anh sẽ tổ chức vào tháng 11 và cuộc đối thoại đang diễn ra về vấn đề này tại Liên Hợp Quốc. Vì mọi quốc gia đều cố gắng sử dụng trí tuệ nhân tạo để cải thiện cuộc sống của người dân đồng thời đảm bảo an toàn cho họ nên về lâu dài sẽ cần có một khuôn khổ toàn cầu cho sự phát triển của nó. Công việc này phải bắt đầu bằng nỗ lực quốc gia nhằm ngăn chặn những hậu quả nguy hiểm nhất và có khả năng thảm khốc nhất của trí tuệ nhân tạo.

Những sáng kiến ​​này cần được bổ sung bằng đối thoại giữa các nhà khoa học ở các quốc gia khác nhau đang phát triển các mô hình AI quy mô lớn và các thành viên của ủy ban quốc gia như những ủy ban được đề xuất ở đây. Các cuộc đàm phán chính phủ chính thức, ban đầu là giữa các quốc gia có chương trình trí tuệ nhân tạo tiên tiến, nên nhằm mục đích tạo ra một cơ cấu quốc tế cũng như một cơ quan quốc tế có thể so sánh với Cơ quan Năng lượng Nguyên tử Quốc tế.

Nếu Biden, Tập Cận Bình và các nhà lãnh đạo thế giới khác hành động ngay bây giờ để đối đầu với những thách thức do AI đặt ra một cách dứt khoát- như những người tiền nhiệm của họ đã làm để chống lại các mối đe dọa hạt nhân trong những thập kỷ trước- liệu họ có thành công không? Nhìn vào bức tranh lịch sử rộng lớn hơn và sự phân cực ngày càng tăng của cộng đồng toàn cầu ngày nay, thật khó có thể lạc quan. Tuy nhiên, có một thực tế nổi bật rằng chúng ta đã kỷ niệm 78 năm hòa bình giữa các cường quốc hạt nhân và cái mốc này sẽ truyền cảm hứng cho mọi người đáp ứng những thách thức mang tính cách mạng và không thể tránh khỏi trong tương lai thuộc lĩnh vực trí tuệ nhân tạo.

Bài viết có Tham khảo ý kiến của hai tác giả:

-Henry Kissinger là Chủ tịch Hội đồng quản trị Kissinger Associates. Ông từng là Cố vấn An ninh Quốc gia cho Tổng thống Hoa Kỳ từ năm 1969 đến năm 1975 và Bộ trưởng Ngoại giao từ năm 1973 đến năm 1977.

-Graham Allison là giáo sư về điều hành nhà nước tại Đại học Harvard. Cựu Trợ lý Bộ trưởng Bộ Quốc phòng Hoa Kỳ về Chính sách và Kế hoạch.

TÔ HOÀNG (chuyển ngữ)