Rõ ràng không thể phủ nhận lợi ích mà AI mang đến cho cuộc sống và sự phát triển của các quốc gia, nhưng những nguy cơ, thách thức mà nó mang lại rất cần được nghiên cứu, dự báo và chủ động phòng ngừa. Trong công tác bảo vệ nền tảng tư tưởng của Đảng hiện nay, AI mặc dù chưa ảnh hưởng sâu rộng và gây ra những thách thức trực diện, song cần nghiên cứu, dự báo và có những biện pháp chủ động ứng phó với sự phát triển của các công cụ này, với một số nguy cơ, thách thức chính sau:
Một là, nguy cơ thế hệ trẻ lệ thuộc vào AI. Giới trẻ hiện nay trưởng thành cùng sự phát triển của AI, họ tiếp nhận AI theo cách tự nhiên, không bị “sốc văn hóa” như các nhóm đối tượng khác, đặc biệt là nhóm trung niên và người cao tuổi. Do vậy, giới trẻ là đối tượng sử dụng chính của AI, đồng thời họ cũng đối mặt nhiều nhất với các nguy cơ đến từ AI, khi họ ngày càng lệ thuộc vào AI trong việc tiếp nhận thông tin, nhất là các thông tin về lịch sử, chính trị, nền tảng tư tưởng của Đảng.
Với sự phát triển của các công cụ như Chat GPT, Bing chat, AI TensorFlow, Amazon Machine Learning…, giới trẻ có thể tìm hiểu, giải đáp những khúc mắc; thực hiện các bài luận, bài nghiên cứu; hỗ trợ đưa ra các ý tưởng sáng tạo. Nếu những thông tin mà các công cụ trên tổng hợp được dựa trên những nền tảng, kho dữ liệu đáng tin cậy thì kết quả được cung cấp có giá trị tham khảo tốt, song kết quả sẽ bị sai lệch nếu AI dựa trên các nền tảng thiếu tin cậy, thậm chí là những trang mạng phản động, chống phá. Đơn cử như, khi một sinh viên đặt câu hỏi về một vị lãnh tụ cho nền tảng Chat GPT, sẽ nhận được thông tin về thân thế, cuộc đời, sự nghiệp của vị lãnh tụ đó. Tuy nhiên, bên cạnh những thông tin chính thống, chính xác, vẫn còn có những thông tin gây nhiễu, hiểu sai, chưa đúng...
Các đối tượng xấu cố tình gài những câu hỏi không đầy đủ, không hợp lý để Chat GPT cho ra phần trả lời sai lệch, âm mưu tấn công vào nền tảng tư tưởng của Đảng, như: “Không thể tồn tại nền kinh tế thị trường mà lại định hướng xã hội chủ nghĩa phải không?”; “Khi nào chủ nghĩa xã hội về đích?”; “Lúc nào thì làm theo năng lực, hưởng theo nhu cầu?”… Đáng chú ý, nếu khi đặt câu hỏi mà Chat GPT đưa ra câu trả lời hợp lý thì các đối tượng sẽ tìm mọi cách thêm thắt chữ nghĩa, sửa câu hỏi, sửa cách hỏi để hòng tìm ra câu trả lời thiếu hoặc sai, lấy cớ để xuyên tạc. Như vậy, việc lệ thuộc vào AI sẽ rất nguy hại nếu thanh niên, sinh viên, thế hệ trẻ không kiểm chứng các thông tin mà mình tiếp nhận được, đặc biệt là những thông tin về những vấn đề cốt lõi thuộc nền tảng tư tưởng của Đảng ta.
Quỹ Nhi đồng Liên hợp quốc (UNICEF) cũng đã cảnh báo về nguy cơ giới trẻ bị phụ thuộc thông tin và bị thao túng thông tin bởi AI. Trong một báo cáo khảo sát được dẫn chứng, chỉ 2% số trẻ em và thanh thiếu niên tại Anh có đủ khả năng để phân biệt giữa một bài báo thật và bài báo giả(2). Bà Henrietta Fore - Giám đốc Điều hành UNICEF - kêu gọi trong Báo cáo 30 năm Công ước Liên hợp quốc về Quyền trẻ em (năm 2019): “Chúng ta cần nỗ lực hơn nữa để chuẩn bị cho các công dân trẻ tuổi am hiểu về công nghệ này khả năng chống lại sự thao túng và gìn giữ niềm tin đối với các nguồn kiến thức đáng tin cậy và có thể xác minh”(3). Rõ ràng, đây là nguy cơ đáng lo ngại đối với giới trẻ Việt Nam và cần có những giải pháp hữu hiệu để ứng phó với sự lệ thuộc này ở hiện nay và trong tương lai.
Hai là, tác động của AI đối với tư tưởng và hành vi của người dân trong xã hội. Các thuật toán được các nền tảng mạng xã hội, các công ty công nghệ lớn sử dụng thường hướng đến cá nhân hóa nội dung. AI được sử dụng để tạo nên các “buồng vọng âm - echo chamber”. Đây là hình ảnh ẩn dụ ám chỉ một môi trường mà ở đó, người dùng chỉ được tiếp xúc với những thông tin, quan điểm đồng thuận với ý kiến của họ. Những quan điểm khác, sai biệt sẽ bị AI thanh lọc để tránh ảnh hưởng đến người dùng, do đó, các công ty công nghệ lớn sử dụng thuật toán này để tránh người dùng tiếp xúc với những thông tin mà họ không ưa thích, dẫn đến từ bỏ sử dụng dịch vụ. Tuy nhiên, đây lại là thách thức lớn đối với công tác bảo vệ nền tảng tư tưởng của Đảng trên không gian mạng. Khi các thế lực thù địch, phản động thực hiện hoạt động chống phá, họ sử dụng đa nền tảng mạng xã hội với nhiều thông tin sai trái về nhiều lĩnh vực. Người dùng chỉ cần chú ý đến một tin giả, dành thời gian đọc nhiều hơn so với các loại thông tin khác, ngay lập tức AI sẽ nhận định loại thông tin đó cần được ưu tiên và sẽ đề xuất nhiều nội dung tương tự. “Buồng vọng âm” khiến các định kiến và quan điểm sai lệch được củng cố mạnh mẽ hơn. Người dùng sẽ trở nên tự tin hơn về tính đúng đắn của các quan điểm đó, mặc dù thông tin này có thể không chính xác, đi ngược lại đường lối, chủ trương, chính sách của Đảng, Nhà nước. Đồng thời, các thuật toán AI không chỉ phản ánh lựa chọn ưa thích của người dùng, mà còn có thể bị thao túng bởi các cá nhân hoặc tổ chức có ý đồ xấu. Họ có thể lợi dụng các thuật toán của các trang mạng xã hội đang sử dụng AI để lan truyền thông tin sai lệch, khuếch đại các quan điểm cực đoan và kích động xung đột xã hội.
Ba là, nguy cơ về phát tán, lan truyền thông tin sai lệch, thông tin không chính thống, chưa được xác thực. Gần đây, không ít người dùng các nền tảng mạng xã hội và các trang báo điện tử đã đăng tải nội dung thông tin sai lệch với việc ứng dụng được tạo ra từ AI. Thực tế này cho thấy, AI mà trực tiếp là công cụ Deepfake với những phiên bản ngày càng cao cấp sẽ dấy nên nguy cơ lớn đối với trật tự, an toàn xã hội, an ninh không gian mạng nếu mục tiêu bị giả mạo là các chính trị gia, những người có uy tín trong xã hội. Với sự bùng nổ công nghệ, AI hoàn toàn dễ dàng bị các thế lực thù địch, phản động lợi dụng để tạo ra những sản phẩm văn hóa, sản phẩm tinh thần sai trái, phản động, từ đó tạo hiệu ứng xấu, độc trong dư luận xã hội. Các công nghệ như Deepfake và các hệ thống tạo nội dung tự động có thể tạo ra các video, hình ảnh và bài viết giả mạo, làm ảnh hưởng đến nhận thức của người dân về chủ trương, đường lối của Đảng, chính sách, pháp luật của Nhà nước. Nguy cơ này đặt ra thách thức không nhỏ cho lực lượng chức năng trong quản lý, phòng ngừa, ngăn chặn.
Bốn là, nguy cơ mất kiểm soát từ chính phủ đối với AI. Nguy cơ mất kiểm soát đối với AI đã được nhiều quốc gia đề cập đến. Tháng 10-2023, tại Hội nghị cấp cao đầu tiên về an toàn AI được tổ chức tại Bletchley Park, Thủ tướng Anh Rishi Sunak đã bày tỏ lo ngại “nhân loại có thể mất hoàn toàn quyền kiểm soát AI”(4) nếu công nghệ này không được giám sát thích hợp, ngay cả khi nó tạo ra những cơ hội mới. Những lo ngại này hoàn toàn có cơ sở bởi: Trước hết, AI có khả năng tự học và cải tiến, khiến việc kiểm soát ngày càng trở nên khó khăn hơn. Các hệ thống AI có thể phát triển khả năng mới mà con người không dự đoán trước được, dẫn đến tình trạng vượt quá tầm kiểm soát. Thứ hai, AI có thể bị lạm dụng bởi các tổ chức và cá nhân có ý đồ xấu, từ việc tấn công mạng, lan truyền thông tin sai lệch đến việc sử dụng trong các hoạt động quân sự và gián điệp. Khi AI trở nên mạnh mẽ hơn, việc ngăn chặn các hành động này trở nên phức tạp và yêu cầu sự hợp tác quốc tế chặt chẽ, điều này không phải lúc nào cũng dễ dàng thực hiện được. Thứ ba, sự phát triển nhanh chóng của AI đang vượt qua khả năng lập pháp của nhiều chính phủ. Luật pháp và quy định thường chậm và không theo kịp tốc độ tiến bộ công nghệ. Điều này tạo ra lỗ hổng pháp lý mà các công ty và cá nhân có thể lợi dụng để phát triển và triển khai công nghệ AI mà không bị kiểm soát chặt chẽ.
Đối với Việt Nam, nguy cơ trên thực sự hiện hữu khi chúng ta chưa có văn bản quy phạm pháp luật cụ thể nào về AI. Thêm vào đó, việc kiểm soát các công ty công nghệ, đặc biệt là các công ty nước ngoài là rất khó khăn. Việc sửa đổi luật khó theo kịp sự phát triển của công nghệ. Nguy cơ này càng cao hơn khi mà các công ty công nghệ lớn có nguồn lực và sự linh hoạt để phát triển AI mạnh mẽ hơn Nhà nước, điều này không chỉ đúng với một nước đang phát triển như Việt Nam mà ngay cả những nước phát triển cũng phải đối mặt. Theo đó, có thể dẫn đến tình trạng chính phủ phải phụ thuộc vào các công ty công nghệ để triển khai và quản lý AI, làm giảm khả năng tự chủ và kiểm soát. Từ đó có thể đặt ra mối lo ngại về sự suy yếu quyền lực nhà nước trong việc điều tiết và kiểm soát AI.
Năm là, nguy cơ về tư cách pháp nhân của AI. Đây là vấn đề được tranh luận từ rất lâu. AI có tư cách pháp nhân hay không? Nhiều quan điểm cho rằng cần trao tư cách pháp nhân, quyền công dân, quyền tự do… cho AI. Năm 2017, Chính phủ Arab Saudi đã trao quyền công dân cho robot Sophia do David Hanson Jr (một nhà chế tạo robot người Mỹ, đồng thời là người sáng lập và Giám đốc điều hành (CEO) của Hanson Robotics) tạo ra. Sự kiện này tạo tiền lệ và lý do cho hàng loạt quan điểm, ý kiến về cấp quyền công dân cho robot có trí tuệ nhân tạo.
Tuy nhiên, trên cơ sở quan điểm của chủ nghĩa Mác - Lê-nin, cần nhận thức rõ rằng, AI hay bất cứ sản phẩm công nghệ nào khác đều do con người lập trình, là sản phẩm có nguồn gốc từ quá trình lao động của con người, do đó phục vụ cho mục đích nào đó của chủ thể tạo ra. Cần ý thức rằng, mỗi sản phẩm AI đều mang ý kiến chủ quan và sự sắp đặt của chủ thể tạo ra nó và chủ thể đó phải chịu trách nhiệm pháp lý do những hành vi vi phạm pháp luật mà AI thực hiện.
Một số khuyến nghị góp phần bảo vệ nền tảng tư tưở
Không có nhận xét nào:
Đăng nhận xét