Sự ra đời của phần mềm Chat GPT đã tạo nên cơn sốt trên toàn cầu và cả ở Việt Nam. Điều này khẳng định xu thế của cuộc Cách mạng công nghiệp lần thứ tư là không thể đảo ngược, đang có tác động cả tích cực và tiêu cực đến mọi lĩnh vực của đời sống kinh tế - chính trị thế giới. Đây cũng là thách thức lớn đối với Việt Nam trước nguy cơ các thế lực thù địch, phản động sử dụng thành tựu này để chống phá, kích động, xuyên tạc con đường đi lên chủ nghĩa xã hội, ảnh hưởng lớn đến công tác bảo vệ nền tảng tư tưởng của Đảng hiện nay.
Trí tuệ nhân tạo và những tác động không mong
muốn đối với đời sống xã hội
Sự bùng nổ của Chat GPT làm nhiều người bắt
đầu chú ý tới trí tuệ nhân tạo (AI), mặc dù các công cụ dò tìm đường, công cụ
dịch thuật, công cụ chỉnh sửa ảnh tự động… đã được ứng dụng AI từ rất lâu. Tuy
nhiên, người ta mới chỉ nhìn thấy phần nổi của tảng băng chìm và chưa nhận thức
rõ những thách thức của AI đối với đời sống xã hội. Thực tế, AI hoàn toàn có
thể ảnh hưởng đến mọi lĩnh vực từ chính trị, kinh tế, văn hóa, quốc phòng, an
ninh… của quốc gia, thậm chí là toàn nhân loại.
AI tác động đến mọi lĩnh
vực từ chính trị, kinh tế, văn hóa, quốc phòng, an ninh của các quốc
gia _Ảnh: Tư liệu
Mỹ là quốc gia có nền công nghệ phát triển
hàng đầu thế giới, nơi sở hữu nhiều công ty công nghệ hùng mạnh về AI đã bắt
đầu quan tâm đến tác động từ sự phát triển của AI. Tháng 8-2023, Tổng thống Mỹ
Joe Biden đã có buổi làm việc với bảy công ty công nghệ hàng đầu của Mỹ là
Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI tại Nhà Trắng.
Cuộc gặp này diễn ra sau những lo ngại về việc các công ty đang chạy đua với
nhau bằng các phiên bản AI có thể tự sáng tạo văn bản, ảnh, nhạc và video mà
không cần một hình mẫu con người cụ thể. Sự bùng nổ của các phiên bản AI này
dẫn đến nguy cơ lan truyền những thông tin sai lệch và những cảnh báo nghiêm
trọng về các rủi ro khi AI trở nên tinh vi và giống con người hơn.
Tháng 10-2023, Chính phủ Mỹ đã ban hành sắc
lệnh nhằm giảm thiểu rủi ro mà công nghệ AI có thể gây ra, thiết lập các tiêu
chuẩn mới về an toàn và bảo mật, bảo vệ quyền riêng tư của người dùng, thúc đẩy
đổi mới và cạnh tranh trong lĩnh vực AI. Không chỉ trong lĩnh vực an ninh con
người, Mỹ đang lo ngại về các nguy cơ của AI trong lĩnh vực quốc phòng. Đơn cử
như, nếu một quả tên lửa hay máy bay không người lái (UAV hoặc Drone) được điều
khiển bởi AI tham gia các hoạt động chiến tranh, quân sự hoặc có thể là khủng
bố thì khó có thể lường hết hậu quả.
Theo Diễn đàn Quốc phòng Ấn Độ Dương - Thái
Bình Dương, tháng 11-2023, Bộ Ngoại giao Mỹ đã công bố Tuyên bố chính trị về
việc sử dụng có trách nhiệm trí tuệ nhân tạo và công nghệ tự hành trong quân sự nhằm
thiết lập các quy tắc sử dụng. Từ tháng 1-2024 đến nay, đã có 51 quốc gia tán
thành tuyên bố trên, đồng thuận cùng tham gia xây dựng các quy tắc, hướng dẫn
để bảo đảm việc sử dụng AI và các hệ thống vũ khí tự hành, cũng như các ứng
dụng quân sự sử dụng AI khác.
Việt Nam cũng đang phải đối mặt với những nguy
cơ trực tiếp đến từ sự bùng nổ của AI, đặc biệt là làn sóng tội phạm sử dụng
công nghệ AI. Phổ biến nhất có thể kể đến Deepfake đang được các đối tượng lừa
đảo sử dụng khá phổ biến. Các sản phẩm âm thanh, hình ảnh, video, clip… giả mạo
do Deepfake tạo ra thường nhằm giả mạo các cơ quan chức năng hoặc người thân
của mục tiêu để thực hiện việc lừa đảo. Các thông tin về số căn cước công dân,
số tài khoản ngân hàng, số điện thoại, địa chỉ, các mối quan hệ trên trang mạng
xã hội… dễ bị lộ lọt là kẽ hở lớn để các đối tượng lừa đảo nhắm tới.
Thông qua sức mạnh của AI đến từ khả năng thu
thập, xử lý dữ liệu khổng lồ và phân tích các mẫu phức tạp, các đối tượng xấu
có nhiều chiêu trò để thuyết phục nạn nhân tin vào nội dung lừa đảo, qua đó
chiếm đoạt tài sản hoặc thực hiện các mục đích xấu khác. Theo thống kê của Cục
An toàn thông tin, Bộ Thông tin và truyền thông, trong 11 tháng đầu năm 2023,
đã có 15.900 phản ánh về trường hợp lừa đảo do người dùng internet Việt Nam gửi
đến qua các hệ thống cảnh báo, trong đó hơn 91% cảnh báo này liên quan đến giả
mạo, lừa đảo trong lĩnh vực ngân hàng - tài chính. Theo báo cáo của Liên minh
chống lừa đảo toàn cầu (GASA) và dự án xã hội Chống lừa đảo (Việt Nam), năm 2023,
trung bình mỗi người Việt tham gia khảo sát phải đối mặt với 0,8 vụ lừa đảo;
trong đó, có 71% số người được gọi gặp phải lừa đảo trên hai nền tảng lớn là
Facebook và Gmail, các nền tảng khác như Telegram (28%), Google (13%) và TikTok
(13%)(1).
Nguy cơ, thách thức từ trí tuệ nhân
tạo đến công tác bảo vệ nền tảng tư tưởng của Đảng trong giai
đoạn hiện nay
Rõ ràng không thể phủ nhận lợi ích mà AI mang
đến cho cuộc sống và sự phát triển của các quốc gia, nhưng những nguy cơ, thách
thức mà nó mang lại rất cần được nghiên cứu, dự báo và chủ động phòng ngừa.
Trong công tác bảo vệ nền tảng tư tưởng của Đảng hiện nay, AI mặc dù chưa ảnh
hưởng sâu rộng và gây ra những thách thức trực diện, song cần nghiên cứu, dự
báo và có những biện pháp chủ động ứng phó với sự phát triển của các công cụ
này, với một số nguy cơ, thách thức chính sau:
Một là, nguy cơ thế hệ
trẻ lệ thuộc vào AI. Giới trẻ hiện nay trưởng thành cùng sự phát
triển của AI, họ tiếp nhận AI theo cách tự nhiên, không bị “sốc văn hóa” như
các nhóm đối tượng khác, đặc biệt là nhóm trung niên và người cao tuổi. Do vậy,
giới trẻ là đối tượng sử dụng chính của AI, đồng thời họ cũng đối mặt nhiều
nhất với các nguy cơ đến từ AI, khi họ ngày càng lệ thuộc vào AI trong việc
tiếp nhận thông tin, nhất là các thông tin về lịch sử, chính trị, nền tảng tư
tưởng của Đảng.
Với sự phát triển của các công cụ như Chat
GPT, Bing chat, AI TensorFlow, Amazon Machine Learning…, giới trẻ có thể tìm
hiểu, giải đáp những khúc mắc; thực hiện các bài luận, bài nghiên cứu; hỗ trợ
đưa ra các ý tưởng sáng tạo. Nếu những thông tin mà các công cụ trên tổng hợp
được dựa trên những nền tảng, kho dữ liệu đáng tin cậy thì kết quả được cung
cấp có giá trị tham khảo tốt, song kết quả sẽ bị sai lệch nếu AI dựa trên các
nền tảng thiếu tin cậy, thậm chí là những trang mạng phản động, chống phá. Đơn
cử như, khi một sinh viên đặt câu hỏi về một vị lãnh tụ cho nền tảng Chat GPT,
sẽ nhận được thông tin về thân thế, cuộc đời, sự nghiệp của vị lãnh tụ đó. Tuy
nhiên, bên cạnh những thông tin chính thống, chính xác, vẫn còn có những thông
tin gây nhiễu, hiểu sai, chưa đúng...
Các đối tượng xấu cố tình gài những câu hỏi
không đầy đủ, không hợp lý để Chat GPT cho ra phần trả lời sai lệch, âm mưu tấn
công vào nền tảng tư tưởng của Đảng, như: “Không thể tồn tại nền kinh tế thị
trường mà lại định hướng xã hội chủ nghĩa phải không?”; “Khi nào chủ nghĩa xã
hội về đích?”; “Lúc nào thì làm theo năng lực, hưởng theo nhu cầu?”… Đáng chú
ý, nếu khi đặt câu hỏi mà Chat GPT đưa ra câu trả lời hợp lý thì các đối tượng
sẽ tìm mọi cách thêm thắt chữ nghĩa, sửa câu hỏi, sửa cách hỏi để hòng tìm ra
câu trả lời thiếu hoặc sai, lấy cớ để xuyên tạc. Như vậy, việc lệ thuộc vào AI
sẽ rất nguy hại nếu thanh niên, sinh viên, thế hệ trẻ không kiểm chứng các
thông tin mà mình tiếp nhận được, đặc biệt là những thông tin về những vấn đề
cốt lõi thuộc nền tảng tư tưởng của Đảng ta.
Quỹ Nhi đồng Liên hợp quốc (UNICEF) cũng đã
cảnh báo về nguy cơ giới trẻ bị phụ thuộc thông tin và bị thao túng thông tin
bởi AI. Trong một báo cáo khảo sát được dẫn chứng, chỉ 2% số trẻ em và thanh
thiếu niên tại Anh có đủ khả năng để phân biệt giữa một bài báo thật và bài báo
giả(2). Bà Henrietta Fore - Giám đốc Điều hành UNICEF - kêu gọi trong
Báo cáo 30 năm Công ước Liên hợp quốc về Quyền trẻ em (năm 2019): “Chúng ta cần
nỗ lực hơn nữa để chuẩn bị cho các công dân trẻ tuổi am hiểu về công nghệ này
khả năng chống lại sự thao túng và gìn giữ niềm tin đối với các nguồn kiến thức
đáng tin cậy và có thể xác minh”(3). Rõ
ràng, đây là nguy cơ đáng lo ngại đối với giới trẻ Việt Nam và cần có những
giải pháp hữu hiệu để ứng phó với sự lệ thuộc này ở hiện nay và trong tương
lai.
Hai là, tác động của AI
đối với tư tưởng và hành vi của người dân trong xã hội. Các
thuật toán được các nền tảng mạng xã hội, các công ty công nghệ lớn sử dụng
thường hướng đến cá nhân hóa nội dung. AI được sử dụng để tạo nên các “buồng
vọng âm - echo chamber”. Đây là hình ảnh ẩn dụ ám chỉ một môi trường mà ở đó,
người dùng chỉ được tiếp xúc với những thông tin, quan điểm đồng thuận với ý
kiến của họ. Những quan điểm khác, sai biệt sẽ bị AI thanh lọc để tránh ảnh
hưởng đến người dùng, do đó, các công ty công nghệ lớn sử dụng thuật toán này
để tránh người dùng tiếp xúc với những thông tin mà họ không ưa thích, dẫn đến
từ bỏ sử dụng dịch vụ.
Tuy nhiên, đây lại là thách thức lớn đối với
công tác bảo vệ nền tảng tư tưởng của Đảng trên không gian mạng. Khi các thế
lực thù địch, phản động thực hiện hoạt động chống phá, họ sử dụng đa nền tảng
mạng xã hội với nhiều thông tin sai trái về nhiều lĩnh vực. Người dùng chỉ cần
chú ý đến một tin giả, dành thời gian đọc nhiều hơn so với các loại thông tin
khác, ngay lập tức AI sẽ nhận định loại thông tin đó cần được ưu tiên và sẽ đề
xuất nhiều nội dung tương tự. “Buồng vọng âm” khiến các định kiến và quan điểm
sai lệch được củng cố mạnh mẽ hơn. Người dùng sẽ trở nên tự tin hơn về tính
đúng đắn của các quan điểm đó, mặc dù thông tin này có thể không chính xác, đi
ngược lại đường lối, chủ trương, chính sách của Đảng, Nhà nước.
Đồng thời, các thuật toán AI không chỉ phản ánh
lựa chọn ưa thích của người dùng, mà còn có thể bị thao túng bởi các cá nhân
hoặc tổ chức có ý đồ xấu. Họ có thể lợi dụng các thuật toán của các trang mạng
xã hội đang sử dụng AI để lan truyền thông tin sai lệch, khuếch đại các quan
điểm cực đoan và kích động xung đột xã hội.
Ba là, nguy cơ về phát
tán, lan truyền thông tin sai lệch, thông tin không chính thống, chưa được
xác thực. Gần đây, không ít người dùng các nền tảng mạng xã hội và các
trang báo điện tử đã đăng tải nội dung thông tin sai lệch với việc ứng dụng
được tạo ra từ AI. Thực tế này cho thấy, AI mà trực tiếp là công cụ Deepfake
với những phiên bản ngày càng cao cấp sẽ dấy nên nguy cơ lớn đối với trật tự,
an toàn xã hội, an ninh không gian mạng nếu mục tiêu bị giả mạo là các chính
trị gia, những người có uy tín trong xã hội. Với sự bùng nổ công nghệ, AI hoàn
toàn dễ dàng bị các thế lực thù địch, phản động lợi dụng để tạo ra những sản
phẩm văn hóa, sản phẩm tinh thần sai trái, phản động, từ đó tạo hiệu ứng xấu,
độc trong dư luận xã hội. Các công nghệ như Deepfake và các hệ thống tạo nội
dung tự động có thể tạo ra các video, hình ảnh và bài viết giả mạo, làm ảnh
hưởng đến nhận thức của người dân về chủ trương, đường lối của Đảng, chính
sách, pháp luật của Nhà nước. Nguy cơ này đặt ra thách thức không nhỏ cho lực
lượng chức năng trong quản lý, phòng ngừa, ngăn chặn.
Bốn là, nguy cơ mất kiểm
soát từ chính phủ đối với AI. Nguy cơ mất kiểm soát đối
với AI đã được nhiều quốc gia đề cập đến. Tháng 10-2023, tại Hội nghị cấp cao
đầu tiên về an toàn AI được tổ chức tại Bletchley Park, Thủ tướng Anh Rishi
Sunak đã bày tỏ lo ngại “nhân loại có thể mất hoàn toàn quyền kiểm soát AI”(4) nếu
công nghệ này không được giám sát thích hợp, ngay cả khi nó tạo ra những cơ hội
mới. Những lo ngại này hoàn toàn có cơ sở bởi:
Trước hết, AI có
khả năng tự học và cải tiến, khiến việc kiểm soát ngày càng trở nên khó khăn
hơn. Các hệ thống AI có thể phát triển khả năng mới mà con người không dự đoán
trước được, dẫn đến tình trạng vượt quá tầm kiểm soát.
Thứ hai, AI có
thể bị lạm dụng bởi các tổ chức và cá nhân có ý đồ xấu, từ việc tấn công mạng,
lan truyền thông tin sai lệch đến việc sử dụng trong các hoạt động quân sự và
gián điệp. Khi AI trở nên mạnh mẽ hơn, việc ngăn chặn các hành động này trở nên
phức tạp và yêu cầu sự hợp tác quốc tế chặt chẽ, điều này không phải lúc nào
cũng dễ dàng thực hiện được.
Thứ ba, sự
phát triển nhanh chóng của AI đang vượt qua khả năng lập pháp của nhiều chính
phủ. Luật pháp và quy định thường chậm và không theo kịp tốc độ tiến bộ công
nghệ. Điều này tạo ra lỗ hổng pháp lý mà các công ty và cá nhân có thể lợi dụng
để phát triển và triển khai công nghệ AI mà không bị kiểm soát chặt chẽ.
Đối với Việt Nam, nguy cơ trên thực sự hiện
hữu khi chúng ta chưa có văn bản quy phạm pháp luật cụ thể nào về AI. Thêm vào
đó, việc kiểm soát các công ty công nghệ, đặc biệt là các công ty nước ngoài là
rất khó khăn. Việc sửa đổi luật khó theo kịp sự phát triển của công nghệ. Nguy
cơ này càng cao hơn khi mà các công ty công nghệ lớn có nguồn lực và sự linh
hoạt để phát triển AI mạnh mẽ hơn Nhà nước, điều này không chỉ đúng với một
nước đang phát triển như Việt Nam mà ngay cả những nước phát triển cũng phải
đối mặt. Theo đó, có thể dẫn đến tình trạng chính phủ phải phụ thuộc vào các
công ty công nghệ để triển khai và quản lý AI, làm giảm khả năng tự chủ và kiểm
soát. Từ đó có thể đặt ra mối lo ngại về sự suy yếu quyền lực nhà nước trong
việc điều tiết và kiểm soát AI.
Năm là, nguy cơ về tư
cách pháp nhân của AI. Đây là vấn đề được tranh
luận từ rất lâu. AI có tư cách pháp nhân hay không? Nhiều quan điểm cho rằng
cần trao tư cách pháp nhân, quyền công dân, quyền tự do… cho AI. Năm 2017,
Chính phủ Arab Saudi đã trao quyền công dân cho robot Sophia do David Hanson Jr
(một nhà chế tạo robot người Mỹ, đồng thời là người sáng lập và Giám đốc điều
hành (CEO) của Hanson Robotics) tạo ra. Sự kiện này tạo tiền lệ và lý do cho
hàng loạt quan điểm, ý kiến về cấp quyền công dân cho robot có trí tuệ nhân
tạo.
Tuy nhiên, trên cơ sở quan điểm của chủ nghĩa
Mác - Lê-nin, cần nhận thức rõ rằng, AI hay bất cứ sản phẩm công nghệ nào khác
đều do con người lập trình, là sản phẩm có nguồn gốc từ quá trình lao động của
con người, do đó phục vụ cho mục đích nào đó của chủ thể tạo ra. Cần ý thức
rằng, mỗi sản phẩm AI đều mang ý kiến chủ quan và sự sắp đặt của chủ thể tạo ra
nó và chủ thể đó phải chịu trách nhiệm pháp lý do những hành vi vi phạm pháp
luật mà AI thực hiện.
Cần tăng cường công tác
tuyên truyền giáo dục và nâng cao nhận thức về AI, giúp thế hệ trẻ nhận thức
được tầm quan trọng của việc sử dụng AI một cách có trách nhiệm và an
toàn _Nguồn: baosonla.org.vn
Một số khuyến nghị góp phần bảo vệ nền tảng tư
tưởng của Đảng trước những nguy cơ, thách thức từ trí tuệ nhân tạo
Từ những nguy cơ đến từ sự bùng nổ của AI đối
với công tác bảo vệ nền tảng tư tưởng của Đảng, cần lưu ý một số nội dung sau:
Một là, tăng
cường hợp tác quốc tế về AI. Việt Nam cần chủ động và tích cực tham gia các
diễn đàn quốc tế về AI, đồng thời phát huy vai trò và vị thế quốc gia trong
việc thúc đẩy sử dụng AI một cách có trách nhiệm trong cộng đồng quốc tế. Điều
này không chỉ giúp Việt Nam nắm bắt các xu hướng công nghệ mới nhất và học hỏi
kinh nghiệm, mà còn đóng góp vào việc xây dựng các quy chuẩn quốc tế về AI.
Bằng cách tham gia sâu rộng và tích cực, Việt Nam có thể chia sẻ những kinh
nghiệm, đồng thời học hỏi từ các quốc gia tiên tiến khác. Điều này tạo cơ hội
để Việt Nam khẳng định vị thế trong cộng đồng quốc tế, thúc đẩy hợp tác và đối
thoại nhằm bảo đảm rằng AI được phát triển và sử dụng một cách an toàn, minh
bạch và hiệu quả. Hướng tới các quy chuẩn quốc tế về AI cũng giúp Việt Nam bảo
đảm công nghệ này mang lại lợi ích toàn diện cho xã hội, thúc đẩy sự phát triển
bền vững và giảm thiểu rủi ro tiềm ẩn. Việc này không chỉ là một nhiệm vụ chiến
lược, mà còn là cơ hội để Việt Nam tạo dấu ấn trong lĩnh vực công nghệ toàn
cầu.
Hai là, bảo
đảm sự phát triển và ứng dụng AI một cách có trách nhiệm, góp phần bảo vệ nền
tảng tư tưởng của Đảng, theo đó cần xây dựng các thiết chế mạnh mẽ và tăng
cường quản lý nhà nước đối với các công ty công nghệ, đặc biệt là các công ty
nước ngoài. Cần ban hành luật về AI và kịp thời sửa đổi, bổ sung các văn bản
pháp luật hiện hành, quy định rõ ràng về trách nhiệm, chế tài và nghĩa vụ của
các công ty công nghệ. Các chính sách và pháp luật này nhằm kiểm soát chặt chẽ
việc phát triển và ứng dụng AI, bảo đảm rằng các thuật toán được sử dụng để
khuyến khích thông tin tích cực, đúng đắn và phù hợp với chủ trương, đường lối
của Đảng, chính sách, pháp luật của Nhà nước. Các công ty công nghệ cần rà soát
quy trình của mình để tránh tạo ra kẽ hở để các thế lực thù địch, phản động có
thể lợi dụng hòng phát tán thông tin sai lệch. Việc này không chỉ giúp bảo vệ
nền tảng tư tưởng của Đảng, mà còn góp phần vào sự ổn định và phát triển bền
vững của đất nước.
Ba là, cần
tăng cường công tác tuyên truyền giáo dục và nâng cao nhận thức về AI. Việc phổ
biến kiến thức về AI sẽ giúp người dùng hiểu rõ hơn về công nghệ này, từ đó họ
có thể tránh các “buồng vọng âm” và thông tin sai lệch. Các chương trình giáo
dục, công tác tuyên truyền cần tập trung vào việc giải thích cách thức hoạt
động của các thuật toán AI, những nguy cơ tiềm ẩn của việc tiếp xúc với thông
tin được cá nhân hóa quá mức và cách nhận diện thông tin giả mạo liên quan đến
chủ trương, đường lối, chính sách của Đảng và Nhà nước. Ngoài ra, cần khuyến
khích người dùng tiếp cận với các nguồn thông tin đa dạng và đáng tin cậy, đồng
thời phát triển kỹ năng tư duy phản biện để họ có thể đánh giá thông tin một
cách chính xác. Bằng cách này, người dùng sẽ được trang bị đầy đủ kiến thức để
bảo vệ bản thân. Việc tuyên truyền, giáo dục nên được tích hợp vào chương trình
giáo dục từ sớm, giúp thế hệ trẻ nhận thức được tầm quan trọng của việc sử dụng
AI một cách có trách nhiệm và an toàn.
Bốn là, khuyến
khích sự tham gia của các doanh nghiệp, công ty và các startup khởi nghiệp về
AI. Làm tốt giải pháp này có thể tăng cường sự tự chủ, tránh sự lệ thuộc, mất
kiểm soát đối với các công ty công nghệ nước ngoài. Qua đó, gián tiếp tăng
cường sức mạnh trong bảo vệ nền tảng tư tưởng của Đảng, đặc biệt là trên không
gian mạng. Chính phủ có thể cung cấp các ưu đãi về thuế, tài chính và hỗ trợ kỹ
thuật; đầu tư vào hạ tầng công nghệ, mạng lưới internet tốc độ cao, các cơ sở
dữ liệu lớn và hệ thống máy tính mạnh mẽ, để hỗ trợ việc nghiên cứu và triển
khai AI cho các doanh nghiệp, đặc biệt là các startup, nhằm thúc đẩy sáng tạo
và ứng dụng AI trong đa dạng các lĩnh vực. Điều này không chỉ giúp tạo điều
kiện thuận lợi cho các doanh nghiệp phát triển, mà còn khuyến khích họ tự chủ
trong việc nghiên cứu và áp dụng công nghệ AI. Bằng cách này, các doanh nghiệp
có thể đóng góp vào việc xây dựng một hệ sinh thái AI đa dạng, hướng tới phát
triển bền vững, đồng thời bảo vệ nền tảng tư tưởng của Đảng bằng cách kiểm soát
và thúc đẩy việc sử dụng AI một cách có trách nhiệm, an toàn.
Năm là, cần
xây dựng các cơ chế giám sát và kiểm tra chặt chẽ đối với các công ty công
nghệ, các tổ chức, cá nhân sử dụng sản phẩm AI. Bảo đảm rằng các công nghệ này
không gây ảnh hưởng tiêu cực đến nền tảng tư tưởng của Đảng và xã hội. Đồng
thời, cần thiết kế các cơ chế kiểm tra để bảo đảm tính minh bạch và trách nhiệm
trong quản lý dữ liệu và thông tin. Việc này giúp ngăn chặn việc lạm dụng dữ
liệu và thông tin để lan truyền các thông tin sai lệch, gây hoang mang dư luận,
ảnh hưởng tới nền tảng tư tưởng của Đảng./.
Trường Đại học Cảnh sát nhân dân
Không có nhận xét nào:
Đăng nhận xét