Thị trường hàng hóa
AI tạo sinh, chẳng hạn như ChatGPT, đã cách mạng hóa cách chúng ta ứng dụng và tương tác với AI. Cụ thể, công nghệ này có thể tạo ra văn bản, hình ảnh, âm thanh và các loại hình đa phương tiện khác để phản hồi những yêu cầu ngắn của người dùng. Tuy nhiên, nó cũng tiềm ẩn những rủi ro nhất định.
Khi AI tiếp tục phát triển với tốc độ chóng mặt, những lo ngại về bảo mật và rủi ro ngày càng trở nên nổi bật. Điều này thậm chí đã khiến một số quốc gia cấm hoàn toàn ChatGPT, một số nhà lập pháp đã yêu cầu các quy tắc và quy định mới cho các công cụ AI, trong khi một số nhà lãnh đạo công nghệ và doanh nghiệp đề xuất tạm dừng đào tạo các hệ thống AI để đánh giá mức độ an toàn của chúng.
Theo bà Avivah Litan, Phó Chủ tịch phân tích tại Gartner, một số rủi ro lớn nhất của AI tạo sinh là liên quan đến niềm tin và bảo mật, trong đó bao gồm thông tin sai lệch, thông tin bịa đặt, deepfake, quyền riêng tư dữ liệu, vấn đề bản quyền và an ninh mạng.
Thông tin sai lệch, nhận thức sai về thông tin
Thông tin không chính xác là lỗi mà các mô hình AI tạo sinh dễ mắc phải bởi vì mặc dù tiên tiến nhưng chúng vẫn không phải là con người và dựa vào quá trình đào tạo với các nguồn dữ liệu khổng lồ - có thể là nguồn trên Internet chưa được kiểm chứng để đưa ra câu trả lời.
Ngoài ra, các công cụ AI cũng có thể nhận định sai về các yêu cầu của người dùng dẫn đến việc cung cấp phản hồi thông tin không chính xác.
Bà Litan cho biết, dữ liệu đào tạo không chuẩn, chưa được kiểm chứng có thể dẫn đến các phản hồi sai lệch hoặc sai thực tế, đây có thể là một vấn đề nghiêm trọng khi mọi người dựa vào các chatbot để lấy thông tin.
Deepfake
Khi AI tạo sinh được sử dụng để tạo nội dung với mục đích xấu, đó sẽ là một rủi ro lớn và deepfake là một điển hình.
Deepfake là từ để chỉ các hình ảnh, video hoặc âm thanh giả mạo được tạo ra bằng công nghệ AI một cách sống động và khó phân biệt với những nội dung thật. Các sản phẩm của deepfake thường được sử dụng để tạo ra những bức ảnh hoặc video giả mạo của những người nổi tiếng, những câu nói không có thật hoặc để đánh lừa người xem.
Một ví dụ điển hình mới đây là công nghệ AI đã tạo ra bức ảnh deepfake Giáo hoàng Francis trong chiếc áo phao của Balenciaga. Bức ảnh này thật đến nỗi đánh lừa hàng triệu người dùng mạng xã hội. Mặc dù đây là hình ảnh có vẻ vô thưởng vô phạt, nhưng nó đã cung cấp một cái nhìn sâu hơn về một tương lai nơi deepfake tạo ra rủi ro chính trị, giả mạo, gian lận và uy tín đáng kể cho các cá nhân, tổ chức và chính phủ.
Các nghệ sĩ nổi tiếng gần đây cũng đã trở thành nạn nhân của deepfake khi liên tục bị công nghệ AI dùng giọng để tạo ra các bản cover.
Mới đây, cộng đồng người yêu âm nhạc và giới công nghệ đã xôn xao về một ca khúc được tạo ra bởi AI với giọng hát do AI mô phỏng giống với Drake và The Weeknd. Ngay khi xuất hiện, ca khúc lập tức gây sốt. Sau ba ngày, ca khúc nhận hơn 20 triệu lượt phát trực tuyến trên các nền tảng như Apple Music, Spotify, TikTok và Twitter, cùng hàng triệu lượt nghe trên những nền tảng khác như Soundcloud, Deezer và Tidal.
Bà Litan cho biết: “Những hình ảnh, video và tệp (file) âm thanh giả giọng nói đã được sử dụng để tấn công những người nổi tiếng và chính trị gia, để tạo và truyền bá thông tin sai lệch, thậm chí để tạo tài khoản giả hoặc chiếm đoạt và đột nhập vào các tài khoản hợp pháp hiện có”.
Với độ chân thực ngày càng cao và khó phân biệt, deepfake có thể góp phần vào việc lan truyền rộng rãi nội dung giả mạo, cũng như thông tin sai lệch, đây là một vấn đề xã hội nghiêm trọng.
Quyền riêng tư dữ liệu
Quyền riêng tư cũng là mối quan tâm chính đối với AI tạo sinh vì dữ liệu người dùng thường được lưu trữ để đào tạo mô hình. Mối lo ngại này là lý do chính đã thúc đẩy Italia cấm ChatGPT, và tuyên bố rằng OpenAI không được phép thu thập dữ liệu người dùng một cách hợp pháp.
Litan cho biết: “Nhân viên có thể dễ dàng tiết lộ dữ liệu nhạy cảm và độc quyền của doanh nghiệp khi tương tác với các giải pháp chatbot AI tạo sinh. Trong khi đó, các ứng dụng này có thể lưu trữ vô thời hạn thông tin được thu thập thông qua đầu vào của người dùng và thậm chí sử dụng thông tin để đào tạo các mô hình khác”.
Bà Litan nhấn mạnh rằng, ngoài việc ảnh hưởng đến tính bảo mật của người dùng, thông tin được lưu trữ còn có nguy cơ "rơi vào tay kẻ xấu" trong trường hợp hệ thống bị tấn công.
An ninh mạng
Các khả năng tiên tiến của các mô hình AI tạo sinh, chẳng hạn như mã hóa, cũng có thể rơi vào tay kẻ xấu, gây ra những lo ngại về an ninh mạng.
Theo bà Litan, bên cạnh các mối đe dọa kỹ thuật xã hội và lừa đảo tiên tiến hơn, những kẻ tấn công có thể sử dụng các công cụ này để tạo mã độc dễ dàng hơn.
Ngoài ra, bà cũng cho biết thêm, mặc dù các nhà cung cấp giải pháp AI tạo sinh thường đảm bảo với khách hàng rằng các mô hình của họ được đào tạo để từ chối các yêu cầu an ninh mạng độc hại, nhưng các nhà cung cấp này không trang bị cho người dùng cuối khả năng xác minh tất cả các biện pháp bảo mật đã được triển khai.
Vấn đề bản quyền
Bản quyền cũng là một mối quan tâm lớn vì các mô hình AI tạo sinh được đào tạo dựa trên lượng dữ liệu Internet khổng lồ được sử dụng để tạo thông tin đầu ra có thể bao gồm tài liệu có bản quyền. Chẳng hạn, để tạo một hình ảnh từ lời yêu cầu, các công cụ AI như hệ thống AI tạo sinh DALL-E, sẽ tham khảo cơ sở dữ liệu lớn về ảnh mà họ đã được đào tạo. Do đó, một số đầu ra có thể vi phạm các biện pháp bảo vệ bản quyền hoặc sở hữu trí tuệ.
Trong khi đó, bản quyền là một vấn đề đặc biệt nhức nhối đối với nghệ thuật do AI tạo ra dưới mọi hình thức, bao gồm cả ảnh và nhạc.
Tuy nhiên, vì dữ liệu mà các mô hình AI tạo sinh được đào tạo không được tiết lộ rõ ràng nguồn thông tin, nên rất khó để giảm thiểu các vấn đề bản quyền này. Nếu không có tham chiếu nguồn hoặc tính minh bạch về cách tạo kết quả đầu ra, cách duy nhất để giảm thiểu rủi ro này là người dùng xem xét kỹ lưỡng kết quả đầu ra để đảm bảo chúng không vi phạm bản quyền hoặc quyền sở hữu trí tuệ.
Mặc dù có nhiều rủi ro liên quan đến AI tạo sinh, nhưng bà Litan không nghĩ rằng các tổ chức nên ngừng nghiên cứu và phát triển công nghệ này. Thay vào đó, họ nên tạo ra một chiến lược toàn doanh nghiệp nhắm mục tiêu quản lý vấn đề về an ninh, rủi ro và niềm tin AI.
Hiện tại không có công cụ sẵn có nào trên thị trường cung cấp cho người dùng sự đảm bảo về quyền riêng tư một cách có hệ thống hoặc lọc nội dung hiệu quả về các tương tác của họ với các mô hình này, chẳng hạn như lọc ra các lỗi thực tế, thông tin sai, tài liệu có bản quyền hoặc thông tin bí mật.
“Các nhà phát triển AI cần phải làm việc với các nhà hoạch định chính sách, bao gồm cả các cơ quan quản lý mới có thể xuất hiện, để thiết lập các chính sách và thực tiễn nhằm giám sát AI tạo sinh và quản lý rủi ro một cách hiệu quả”, Litan nhấn mạnh./.
Tag
BÀI VIẾT LIÊN QUAN
Đọc thêm