Thị trường hàng hóa
Điều này đặt ra yêu cầu các quốc gia, tổ chức cần phải có những chính sách để quản lý và kiểm soát rủi ro AI sao cho phù hợp.
Như ChatGPT đã cho chúng ta thấy, các giải pháp AI có thể mang lại những cơ hội tuyệt vời, nhưng cũng có thể mang đến nhiều rủi ro và thách thức.
Từ thực tế đó, hồi cuối tháng 3, hơn 1.000 các nhà nghiên cứu AI và các giám đốc điều hành công nghệ hàng đầu thế giới, bao gồm cả tỷ phú Elon Musk, đã ký một bức thư ngỏ kêu gọi giảm tốc độ phát triển các mô hình ngôn ngữ lớn mới trong 6 tháng để dành thời gian cho các nhà quản lý thiết lập các tiêu chuẩn, quy định sử dụng AI an toàn.
Gần đây nhất, Geoffrey Hinton - người được coi là "cha đỡ đầu" của ngành AI vì những đóng góp quan trọng của ông trong lĩnh vực này đã từ chức tại Google để có thể công khai cảnh báo về sự nguy hiểm của công nghệ này và cho biết con người sẽ có thể không kiểm soát được AI trong tương lai.
“Tôi nghĩ không nên mở rộng quy mô này nhiều hơn cho đến khi chúng ta hiểu liệu có thể kiểm soát được nó hay không”, Hinton chia sẻ với New York Times, đồng thời kêu gọi cần có những quy định và hợp tác toàn cầu để kiềm chế công nghệ mà ông cho rằng có thể tàn phá thị trường việc làm toàn cầu, làm biến dạng thực tế trực tuyến hoặc tệ nhất là vượt qua trí thông minh của con người khi các hệ thống AI ngày càng tiên tiến hơn.
Việc thiết lập các khuôn khổ quy định chung cho công nghệ luôn khó khăn, nhưng nó càng trở nên khó khăn hơn khi công nghệ đó ngày càng tiến bộ vượt bậc. AI, với tiềm năng to lớn trong việc biến đổi các nền kinh tế và xã hội - có thể theo nhiều chiều hướng không như mong đợi, là một thách thức chưa từng có.
Trên thực tế, một trong những vấn đề lớn là công nghệ luôn phát triển nhanh hơn các quy định. Trong khoảng thời gian vài năm, AI đã cho thấy cách nó có thể khai thác mô hình ngôn ngữ lớn để bắt chước trí thông minh của con người tốt như thế nào.
Như thường lệ với các công nghệ mới, châu Âu luôn đi đầu trong các quy định quản lý. Ngày 27/4, Liên minh châu Âu (EU) đã đạt được thỏa thuận sơ bộ về Đạo luật AI mang tính bước ngoặt của khối, mở đường cho một bộ luật toàn diện đầu tiên trên thế giới về công nghệ này.
Các nhà lập pháp của EU sẽ bỏ phiếu về Đạo luật này vào ngày 11/5 tới và nếu thành công, dự luật sẽ chuyển sang giai đoạn tiếp theo, trong đó các quốc gia thành viên sẽ bàn thảo, bổ sung các chi tiết nhằm điều chỉnh một số khía cạnh của dự luật.
Theo dự luật, các công cụ AI sẽ được phân loại theo mức độ rủi ro mà chúng tạo ra, từ tối thiểu đến cần phải hạn chế rồi đến nguy cơ cao và cuối cùng là không thể chấp nhận được. Trong đó, các ứng dụng AI “rủi ro cao”, chẳng hạn như thực thi pháp luật, cơ sở hạ tầng quan trọng, giáo dục và việc làm, sẽ phải tuân thủ các yêu cầu kiểm tra nghiêm ngặt hơn. Với các công cụ có rủi ro cao sẽ không bị cấm nhưng người sử dụng chúng sẽ cần phải có tính minh bạch cao trong hoạt động.
Bên kia đại dương, quy định về AI của Mỹ vẫn đang trong quá trình hoàn thiện. Năm ngoái, chính quyền Mỹ đã công bố “Kế hoạch chi tiết cho Dự luật về quyền AI”, đưa ra 5 nguyên tắc để ngăn chặn sự phân biệt đối xử cũng như bảo vệ quyền riêng tư và sự an toàn của người dùng. Trong khi đó, Viện Tiêu chuẩn và Công nghệ quốc gia (NIST) Mỹ cũng đã công bố khung quản lý rủi ro AI.
Tuy nhiên, tính cho đến nay, chính quyền Washington cũng chỉ mới áp dụng cách tiếp cận tuân thủ mang tính tự nguyện, trong khi các chuyên gia cho rằng cần có cách tiếp cận ràng buộc hơn đối với quy định về AI.
“Tôi cho rằng những gì chúng ta đã học được trong thập kỷ khủng hoảng và tác động vừa qua là quy định mềm sẽ không đủ để điều chỉnh lĩnh vực này; những gì chúng ta cần là luật có hiệu lực thi hành”, bà Sarah Myers West, Giám đốc điều hành của Viện AI Now và là cựu cố vấn cấp cao về AI của Ủy ban Thương mại Liên bang Mỹ (FTC) nhận định.
Mỹ cũng đang nỗ lực thúc đẩy phát triển một khuôn khổ toàn cầu, với việc công bố Chiến lược tiêu chuẩn quốc gia cho công nghệ quan trọng và mới nổi, bao gồm các phần về AI. Một quan chức cấp cao của chính quyền Mỹ đã chia sẻ với giới truyền thông rằng: “Chúng tôi đang mời thêm nhiều đối tác và đồng minh quốc tế để hỗ trợ một khuôn khổ tiêu chuẩn chung”.
“Chúng tôi không có ý định loại trừ bất kỳ quốc gia nào khi triển khai chiến lược tiêu chuẩn này. Chúng tôi muốn mọi người cùng ngồi vào bàn đàm phán để các giải pháp công nghệ tốt nhất trên toàn cầu có thể trở thành hiện thực”, vị quan chức cấp cao này cho biết thêm.
Mới đây, các Bộ trưởng về Kỹ thuật số và công nghệ của 7 nước trong nhóm G7 cũng đã dành một phần quan trọng trong cuộc họp của họ để thảo luận về cách kiểm soát ngành công nghệ AI với chủ đề “AI có trách nhiệm và quản trị AI toàn cầu”, đồng thời tán thành cách tiếp cận dựa trên rủi ro tương tự như cách tiếp cận của luật pháp EU.
Trong tuyên bố chung sau cuộc họp, bộ trưởng các nước G7 ghi nhận nhu cầu xem xét trước mắt các cơ hội và thách thức của AI. Họ thống nhất kế hoạch hành động hướng đến việc tạo ra môi trường cởi mở và cho phép những sáng tạo AI có trách nhiệm, đồng thời kêu gọi các bên tham gia phát triển những tiêu chuẩn quốc tế cho bộ khung quản lý AI và thúc đẩy đối thoại về các chủ đề như đánh giá nguy cơ.
Trong khi đó, việc quản lý của Trung Quốc đối với lĩnh vực công nghệ từ lâu đã hoàn toàn trái ngược với phần lớn còn lại của thế giới - mạng Internet mở - không có “Vạn lý tường lửa” ở phương Tây, và với công nghệ AI Trung Quốc cũng không ngoại lệ.
Cũng như các nền tảng mạng xã hội và các công ty công nghệ lớn nói chung, Trung Quốc đã đưa ra những quy định áp đặt các yêu cầu chính xác hơn nhiều đối với cách các công ty AI thu thập dữ liệu, đào tạo thuật toán của họ và tạo ra đầu ra phù hợp với sự kiểm duyệt và kiểm soát của chính phủ Bắc Kinh.
Do đó, không khó hiểu khi Trung Quốc chỉ mất vài ngày để hạn chế ChatGPT khi chương trình này bắt đầu gây bão trên toàn thế giới vào đầu năm nay. Trên toàn lãnh thổ của mình, Trung Quốc đã áp dụng cách tiếp cận từng phần với các chính sách liên tiếp nhắm vào các ứng dụng AI cụ thể, chẳng hạn như video, hình ảnh và văn bản. Đây là cách tiếp cận giúp đảm bảo duy trì sự giám sát chặt chẽ hơn.
Quan điểm về AI, Trung Quốc từ lâu đã có tham vọng trở thành quốc gia dẫn đầu toàn cầu về AI. Do đó, quốc gia này ủng hộ mạnh mẽ các chính sách phát triển nhưng vẫn đảm bảo cơ sở kiểm soát thông tin của mình.
Theo một báo cáo mới đây của Viện Brookings đã phân tích các kế hoạch quản trị AI trên gần 30 quốc gia, trong đó có Mỹ, Singapore, Trung Quốc, Nga, Mexico và Ấn Độ, cho thấy mặc dù công nghệ này đang ở giai đoạn ban đầu, một loạt các quy định khác nhau với nhiều ưu tiên đang xuất hiện trên toàn thế giới, với sự phân chia rõ nét.
Cụ thể, báo cáo cho biết: “Các quốc gia phương Đông hầu như chỉ tập trung vào việc xây dựng năng lực R&D của mình và phần lớn phớt lờ các hàng rào kỹ thuật để kiểm soát, quản lý công nghệ truyền thống. Ngược lại, phương Tây hầu như chỉ tập trung vào việc đảm bảo rằng những hàng rào kỹ thuật này được áp dụng đúng chỗ”.
Mặc dù có nhiều quan điểm quản lý và kiểm soát công nghệ AI khác nhau, điều này phụ thuộc phần lớn vào luật lệ cũng như bối cảnh của mỗi quốc gia. Việc đưa ra một tiêu chuẩn chung cho toàn cầu cũng rất quan trọng.
Tuy nhiên, bên cạnh những lợi ích của việc đưa AI vào khuôn khổ quản lý cũng có một mối lo ngại thực tế khác là tốc độ phát triển của AI và tầm quan trọng của nó đối với các ngành tri thức trong những năm tới đó là: Các chính sách, quy định có thiện chí nhưng quá nặng nề, khắt khe có thể cản trở sự phát triển của AI.
“Một cơ quan quản lý luôn đứng sau sự phát triển của thị trường. Vấn đề là khi đi sau thị trường quá xa thì quy định sẽ trở thành một trở ngại cho sự tiến bộ và đổi mới”, Gerard de Graaf, một quan chức cấp cao của Ủy ban châu Âu (EC), Lãnh đạo văn phòng toàn cầu về công nghệ kỹ thuật số và đổi mới tại Mỹ cho biết.
Tuy nhiên, điều đó là hoàn toàn bình thường, khi các quy tắc có thể được sửa đổi và cập nhật qua nhiều năm.
“Đó không phải là sự thay đổi sẽ tác động, ảnh hưởng đến một lĩnh vực nào đó - đây là sự chuyển đổi cần thiết. Nó đang đến với chúng ta rất, rất nhanh”, de Graaf nói. Vì vậy, các nhà hoạch định chính sách trong tất cả các lĩnh vực cần xem xét các quy tắc và tự hỏi liệu nó có còn phù hợp với mục đích hiện tại hay không. Và đó cũng là những gì tất cả chúng ta cần làm với AI.
Tag
BÀI VIẾT LIÊN QUAN
Đọc thêm