Thị trường hàng hóa
“Tôi lo lắng về điều đó", CEO Sam Altman nói về khả năng sử dụng AI để can thiệp bầu cử, đồng thời nhấn mạnh việc cần bổ sung các quy tắc và hướng dẫn nhằm quản lý lĩnh vực trí tuệ nhân tạo.
Trong nhiều tháng qua, các công ty lớn và nhỏ đã chạy đua để tung các sản phẩm AI ra thị trường, khởi nguồn từ cơn sốt ChatGPT. Một số nhà phê bình lo ngại công nghệ này sẽ làm trầm trọng thêm các tác hại xã hội, bao gồm việc làm sâu sắc thêm các định kiến và lan truyền thông tin sai lệch.
Thượng nghị sĩ Cory Booker, một trong nhiều nhà lập pháp đặt câu hỏi về cách tốt nhất để quản lý AI, cho biết: "Không có cách nào để kiểm soát hoàn toàn AI. Đặc biệt khi cơn sốt AI đang bùng nổ trên toàn cầu".
Thượng nghị sĩ Mazie Hirono lưu ý nguy cơ thông tin sai lệch tràn lan khi cuộc bầu cử năm 2024 đang đến gần. Phát biểu trước Quốc hội Mỹ lần đầu tiên, Altman đã gợi ý rằng Mỹ nên xem xét các yêu cầu cấp phép và thử nghiệm để phát triển các mô hình AI.
Khi được yêu cầu đưa ra ý kiến về việc AI nào nên được cấp phép, ông cho biết một mô hình có thể thuyết phục hoặc thao túng niềm tin của một người sẽ là một "ranh giới cần xem xét".
Ông cũng cho biết các công ty nên có quyền nói rằng họ không muốn dữ liệu của họ được sử dụng để đào tạo AI, điều cũng đang được thảo luận tại Quốc hội Mỹ.
Nhà Trắng đã triệu tập các CEO công nghệ hàng đầu, bao gồm cả Sam Altman để giải quyết vấn đề về AI. Các nhà lập pháp Mỹ cũng đang nỗ lực tìm kiếm giải pháp để nâng cao lợi ích của công nghệ và an ninh quốc gia đồng thời hạn chế việc lạm dụng AI.
Một nhân viên của OpenAI gần đây đã đề xuất Mỹ thành lập một cơ quan cấp phép cho AI, có thể được gọi là Văn phòng An toàn và An ninh Cơ sở hạ tầng AI, hay OASIS.
OpenAI đã được hậu thuẫn bởi Microsoft. Altman cũng đang kêu gọi hợp tác toàn cầu về AI và khuyến khích các công ty tuân thủ các quy chế an toàn.
Bà Christina Montgomery, giám đốc ủy thác và quyền riêng tư của IBM, đã kêu gọi Quốc hội Mỹ tập trung quy định vào các lĩnh vực có khả năng gây tổn hại xã hội lớn nhất.
BÀI VIẾT LIÊN QUAN
Đọc thêm