Thị trường hàng hóa
Theo các chuyên gia an ninh mạng Australia, tin tặc đang sử dụng ChatGPT để tạo ra các email lừa đảo, tuy nhiên điều nguy hiểm nhất là tính chất lừa đảo này rất khó để ngay cả các chuyên gia công nghệ phát hiện ra bởi các email lừa đảo sử dụng ChatGPT hoặc các mô hình máy học ngôn ngữ tương tự, rất khó để phân biệt với các email thật. Điều nguy hiểm là tin tặc sử dụng các email này để lừa người dùng nhấp vào các tài liệu có vẻ vô hại hoặc các đường link dẫn đến một trang web, từ đó phát tán phần mềm độc hại (Malware) lên các thiết bị người dùng.
Trước đó, hồi đầu tháng 3/2023, công ty an ninh mạng Darktrace của Anh cảnh báo công cụ trò chuyện ChatGPT sử dụng trí tuệ nhân tạo (AI) có thể đã làm gia tăng mức độ tinh vi của các vụ lừa đảo qua thư điện tử (e-mail), cho phép tin tặc tiến hành các vụ tấn công nhắm mục tiêu với xác suất thành công lớn hơn, với các thủ đoạn lừa đảo tinh vi và phức tạp hơn.
Cũng liên quan tới vấn đề này, ông Sergey Shykevich - nhà nghiên cứu ChatGPT tại Checkpoint Security cho biết nhóm của ông bắt đầu nghiên cứu khả năng AI có thể tiếp tay cho tội phạm từ tháng 12/2021. Bằng cách khai thác mô hình ngôn ngữ lớn của trí tuệ nhân tạo, tội phạm dễ dàng tạo ra các email lừa đảo và mã độc.
Còn Justin Fier - Giám đốc công ty an ninh mạng Cyber Intelligence & Analytics khẳng định ChatGPT có thể giúp kẻ xấu tạo ra hàng chục nội dung email lừa đảo, nhắm chính xác mục tiêu dễ dàng, với điều kiện đơn giản.
Vì mối nguy đó, cách duy nhất để phòng ngừa, theo các chuyên gia khuyến cáo thì người dùng nên cẩn trọng hơn khi mở e-mail, đặc biệt là e-mail có đính kèm đường dẫn, file thực thi.
“Trong 20 năm định hình phát triển trong không gian Internet, chúng tôi không thể tưởng rằng lại có một ứng dụng internet dành cho người tiêu dùng như ChatGPT có tốc độ phát triển thần tốc đến như vậy. Để so sánh, TikTok mất 9 tháng để đạt 100 triệu người dùng hàng tháng và Instagram mất khoảng 2,5 năm”, một nghiên cứu từng đưa ra lời khẳng định như vậy khi chứng kiến sự trỗi dậy với tốc độ tên lửa của ChatGPT.
Nhưng qua một thời gian không quá dài, thực tế cho thấy, ChatGPT không chỉ “tuyệt vời và sẽ thay đổi thế giới của chúng ta” mà như nhận định của Russell Reeder - Giám đốc điều hành của Netrix Global, “Công nghệ này sẽ sớm không thể được kiểm soát”, và rằng “cần phải có một lực lượng kiểm soát chuyên về xu hướng nổi như cồn này”.
Lý do của sự “buộc phải kiểm soát” ChatGPT thực ra rất dễ hiểu. Đầu tháng 2/2023, công ty an ninh mạng Blackberry đã công bố khảo sát từ 1.500 chuyên gia IT, trong đó, 74% cho biết họ cảm thấy lo lắng về việc ChatGPT tiếp tay cho tội phạm, 71% cho rằng ứng dụng của OpenAI đã được sử dụng để hack và lừa đảo.
Ông Shishir Singh - Giám đốc Công nghệ của Blackberry thậm chí còn ra thông cáo trong đó khẳng định: Đã có bằng chứng rõ ràng rằng kẻ xấu đang thử nghiệm công cụ này. Chúng tôi hy vọng sớm tìm thấy ví dụ cụ thể hơn về cách tin tặc sử dụng ChatGPT cho mục đích bất chính.
Trước những mối nguy ngày càng được khẳng định về ChatGPT, nhiều quốc gia, tổ chức đã lần lượt có động thái. Đầu tháng 2/2023, ủy viên phụ trách lĩnh vực công nghiệp của Liên minh châu Âu (EU), ông Thierry Breton cho biết EU sẽ áp đặt các quy định mới liên quan đến AI nhằm giải quyết những lo ngại về rủi ro của ChatGPT và đảm bảo người dùng ở châu Âu có thể tin tưởng công nghệ AI.
Theo ông Breton, những rủi ro do ChatGPT và các hệ thống AI mang lại đã đề cao tính cấp thiết đối với các quy định mới. Và một điều không thể không làm, ủy viên phụ trách lĩnh vực công nghiệp của Liên minh châu Âu nhấn mạnh: “Mọi người cần được cảnh báo rằng họ đang làm việc với một chatbot chứ không phải con người”.
Ứng dụng ChatGPT nói riêng, AI nói chung đang là xu hướng không thể đảo ngược của thế giới, thế nên điều quan trọng nhất làm thế nào để tối ưu hóa lợi ích, giảm thiểu nguy cơ từ những sản phẩm trí tuệ nhân tạo này. Như vậy, rõ ràng, trước khi có được những giải pháp đối phó căn cơ với những mối nguy từ ChatGPT, thì cốt lõi vẫn là thái độ, nhận thức và hành động của người dùng. Trong đó, sự cẩn trọng, tỉnh táo là yêu cầu số 1.
Theo các chuyên gia, trường hợp người dùng là cá nhân thì cần cẩn trọng trong việc tiếp nhận các thông tin từ ChatGPT, đưa ra nhiều kiểu câu hỏi khác nhau, kiểm chứng và xác minh các thông tin do chatbot này cung cấp trước khi chia sẻ, sử dụng để tránh các hậu quả pháp lý không đáng có. Bên cạnh đó, người dùng cần tỉnh táo để bảo vệ thông tin cá nhân, hạn chế cung cấp các thông tin liên quan đến công việc, các dữ liệu riêng tư cho những ứng dụng tương tự như Chat GPT.
Tag
BÀI VIẾT LIÊN QUAN
Đọc thêm