Thị trường hàng hóa
Khi các DN ngày càng tìm đến trí tuệ nhân tạo (AI) để hỗ trợ, tăng tốc hoặc thậm chí thay thế việc ra quyết định của con người, đã có những lời kêu gọi rằng việc sử dụng và phát triển AI phải tuân theo đạo đức.
Một thực thể đang cân nhắc nhu cầu về đạo đức AI là Vatican, cách đây 3 năm, vào ngày 28/2/2020, Vatican đã tập hợp các đại diện từ Microsoft và IBM để lần đầu tiên cùng nhau cam kết The Rome Call về đạo đức AI, một cam kết phát triển AI phục vụ nhân loại.
Cam kết đạo đức tập hợp các lãnh đạo công nghệ và tôn giáo, cũng như các trường đại học và tổ chức chính phủ, đã được cập nhật vào tháng 1/2023, với sự tham gia của đại diện các tín ngưỡng Hồi giáo và Do Thái cùng với Vatican.
Theo nhiều cách, The Rome Call mang tính biểu tượng, thực thi các nguyên tắc mà nhiều nhà cung cấp và DN CNTT đã và đang thực hiện xung quanh việc sử dụng và phát triển AI. Nó cũng đặt ra một vấn đề mới nổi có tác động thực sự đến mọi người trên toàn cầu - điều mà các giám đốc CNTT (CIO) phải cân nhắc khi tiếp cận AI.
Đặt nền móng
Christina Montgomery, giám đốc quyền riêng tư và chủ tịch hội đồng đạo đức AI của IBM cho biết, IBM và những DN khác trong ngành CNTT đã suy nghĩ về đạo đức AI từ rất lâu trước khi ký Thỏa thuận Rome.
“Về cơ bản, đó là sự nhắc lại các nguyên tắc mà chúng tôi, Microsoft và một số công ty khác đã áp dụng trong nội bộ hoặc đang nghĩ đến vào thời điểm đó,” bà nói.
Vẫn theo Christina Montgomery, đó là điều tự nhiên đối với IBM, một công ty có lịch sử lâu đời, để có cái nhìn tổng thể hơn về công nghệ của mình. “Chúng tôi rất khác biệt về mặt văn hóa so với nhiều công ty công nghệ mới và chúng tôi suy nghĩ sâu sắc về những công nghệ mà chúng tôi đã công bố.”
Suy nghĩ sâu sắc về đạo đức của AI là điều mà IBM đang khuyến khích cộng đồng theo những cách khác nhau, hỗ trợ sự phát triển của mạng lưới các trường đại học trong việc kết hợp các nguyên tắc của The Rome Call về đạo đức AI trong chương trình giảng dạy của họ, điều mà cuối cùng sẽ dẫn đến một thế hệ AI mới. Sinh viên tốt nghiệp được trang bị kiến thức về AI tốt hơn.
6 nguyên tắc
Bản thân The Rome Call bao gồm một lời mở đầu và 6 nguyên tắc ngắn gọn mà những người ủng hộ cam kết sẽ thực hiện, bao gồm:
Minh bạch: Hệ thống AI phải dễ hiểu đối với tất cả mọi người.
Hòa nhập: Các hệ thống này không được phân biệt đối xử với bất kỳ ai vì mọi con người đều có phẩm giá bình đẳng.
Trách nhiệm: Luôn phải có người chịu trách nhiệm về những gì máy làm.
Công bằng: Hệ thống AI không được tuân theo hoặc tạo ra sự thiên vị.
Độ tin cậy: AI phải đáng tin cậy.
Bảo mật và quyền riêng tư: Các hệ thống này phải được bảo mật và tôn trọng quyền riêng tư của người dùng.
Mặc dù các nhà cung cấp phần mềm Microsoft và IBM là hai DN đầu tiên hỗ trợ The Rome Call, nhưng kỳ vọng của The Rome Call là nhắm mục tiêu rộng rãi hơn vào bất kỳ tổ chức sử dụng công nghệ nào, các DN, chính phủ và xã hội dân sự.
Các DN sẽ dễ dàng tuân thủ một số nguyên tắc nào đó hơn so với những nguyên tắc khác. Độ tin cậy và bảo mật có thể được tính đến ở mọi cấp độ, nhưng CIO cần đưa ra các tính toàn diện và công bằng vào các yêu cầu của dự án ở giai đoạn đầu.
Nguyên tắc về trách nhiệm sẽ đòi hỏi sự tham gia rộng rãi hơn, vì nó đòi hỏi sự thay đổi văn hóa để tránh đổ lỗi cho các quyết định không mong muốn đối với một thuật toán, cho dù có dựa trên AI hay không.
Tuy nhiên, tính minh bạch lại là một vấn đề hoàn toàn khác.
Rào cản để trả lời cuộc gọi
Shlomit Yanisky-Ravid, giáo sư thỉnh giảng tại Trường Luật của Đại học Fordham nói, trừ khi chúng ta hiểu AI thực sự đang làm gì, nếu không chúng ta sẽ không thể nghĩ về các vấn đề đạo đức xung quanh nó. Bà nói: “Đó là nơi tôi thấy có nhiều khoảng cách và xung đột giữa ngành với các yêu cầu về đạo đức và pháp lý.
Quy định chung về bảo vệ dữ liệu (GDPR) của EU đã bao gồm các điều khoản mà một số học giả hiểu là quyền giải thích về khả năng giải thích của phần mềm nói chung. Điều 13 - 15 trao cho những người chịu ảnh hưởng của các quyết định tự động quyền được “thông tin có ý nghĩa về logic liên quan”.
Đối với Montgomery của IBM, điều đó rất rõ ràng: “Việc sử dụng các mô hình AI trong các hoạt động của bạn mà không thể giải thích được, không minh bạch, có thể gây ra những hậu quả không lường trước được.”
Nhưng có một vấn đề, Yanisky-Ravid nói: “Chúng tôi có thể nói về tính minh bạch, chúng tôi có thể nói về khả năng giải thích được, nhưng chúng tôi không thể thực sự biến nó thành hiện thực - ít nhất là vào lúc này.”
Chuyên môn của bà là luật sở hữu trí tuệ, trong khi đó sự mông lung của hệ thống AI đang tạo ra những trường hợp thú vị liên quan đến quyền đạo đức của AI được công nhận là nhà phát minh hoặc người sáng tạo.
Một trường hợp cụ thể, liên quan đến Stephen Thaler, người tạo ra công cụ AI tên là Dabus mà ông đã sử dụng để thiết kế hộp đựng thức ăn mới. Những nỗ lực ban đầu của ông có mục đích là để các cơ quan chức năng công nhận Dabus là người đồng phát minh trong hồ sơ bằng sáng chế trên khắp thế giới nhưng đã bị từ chối. Các cơ quan cấp bằng sáng chế khẳng định chỉ con người mới có thể chịu trách nhiệm cho phát minh. Tuy nhiên, Thaler sau đó đã thắng một vụ kháng cáo: IP Australia, cơ quan thuộc chính phủ Úc, đã công nhận Dabus là nhà phát minh. Các kháng cáo khác đang được tiến hành.
Một số người có thể trì hoãn bởi thực tế, những đơn vị đầu tiên ký tên vào The Rome Call bao gồm đại diện của Học viện Giáo hoàng về Sự sống (Pontifical Academy of Life), một viện nghiên cứu về đạo đức do Giáo hội Công giáo điều hành, nhưng Montgomery của IBM nói, The Rome Call không bao giờ có mục tiêu chỉ là một lời kêu gọi tôn giáo. "Mục tiêu là mở rộng The Rome Call càng nhiều càng tốt."
Dù niềm tin của họ là gì, các CIO nên tham gia vào các kế hoạch liên quan đến đạo đức xung quanh AI ngay bây giờ, bà nói. “Nếu bạn chờ đợi, thì đã quá muộn”./.
Tag
BÀI VIẾT LIÊN QUAN
Đọc thêm