Thị trường hàng hóa
Công nghệ AI đang được áp dụng ngày càng rộng rãi trong nhiều môi trường khác nhau. Và rõ ràng là niềm tin cần phải được đặt đúng chỗ. Một phần của điều này là AI thường xuyên làm đúng mọi thứ một cách đáng tin cậy. Nhưng chỉ thế thôi là chưa đủ.
Hãy xem xét một thợ cơ khí. Cho dù anh ấy có thường xuyên sửa xe đúng cách hay không, nhưng nếu anh ấy từ chối chịu trách nhiệm khi mắc lỗi, bạn sẽ không tin tưởng vào người thợ đó. Tuy nhiên, xét cho cùng, các giải pháp AI chỉ là những chương trình rất phức tạp. Chúng không thể chịu trách nhiệm về những sai lầm.
Chúng ta hãy thử xem xét kỹ hơn cách chúng ta tương tác với máy tính cũng như các công nghệ khác giúp tự động hóa một số suy nghĩ của chúng ta. Chúng ta sử dụng máy tính vì nhiều lý do khác nhau, từ chơi game và kết nối với những người khác qua Internet, để xử lý văn bản, thuyết trình và thực hiện các phép tính.
Khi chúng ta sử dụng máy tính trong những trường hợp này, liệu lý do có phải là do chúng đáng tin cậy hay không? Chung quy máy tính vẫn thường xuyên gặp sự cố.
Điều hợp lý là trong hầu hết các trường hợp, ngoại trừ khi yêu cầu máy tính thực hiện các phép tính, chúng ta tin tưởng máy tính vì chúng ta có thể xác minh ngay lập tức rằng máy tính đang làm đúng những gì nó phải làm. Khi chúng ta di chuyển chuột, con trỏ sẽ di chuyển tương ứng. Khi chúng ta nhấn một phím, chữ cái hoặc số tương ứng sẽ xuất hiện trên màn hình của chúng ta.
Khi chúng ta nhấp vào nút tương ứng, nhân vật trò chơi của chúng ta sẽ di chuyển tương ứng. Nếu nó không hoạt động bình thường, màn hình sẽ bị đóng băng hoặc điều gì đó không mong muốn khác sẽ xảy ra ngay lập tức.
Mặc dù nhiều thao tác phức tạp đang diễn ra ở phía sau nhưng chúng ta có thể xác minh ngay lập tức máy tính có đang hoạt động hay không. Một lý do chính đáng khiến chúng ta tin tưởng máy tính là chúng ta tin tưởng các nhà sản xuất và lập trình viên.
Tuy nhiên, nhiều nhiệm vụ mà chúng ta muốn AI thực hiện lại yêu cầu khả năng phán đoán. Ví dụ, các khuyến nghị điều trị và chẩn đoán y tế có yếu tố đánh giá, theo đó mọi người tập hợp thông tin từ nhiều nguồn khác nhau và sắp xếp chúng lại với nhau theo những cách phức tạp.
Việc giải thích rõ ràng tất cả các yếu tố có thể áp dụng để đưa ra một chẩn đoán nhất định không phải là vấn đề đơn giản. Sự phức tạp này có nghĩa là có rất ít điều mà các nhà sản xuất và lập trình viên có thể làm để ngăn chặn một sự cố nhất định.
Để minh họa, hãy xem xét một loại mô hình AI: Hộp trắng là loại AI có thể diễn giải. Loại AI này có thể được coi là các chương trình máy tính rất phức tạp.
Để một thuật toán như vậy hoạt động đúng, các lập trình viên phải lường trước mọi tình huống và biết cách chỉ định những cân nhắc có liên quan và mức độ của chúng trong từng tình huống. Điều này khó đến mức sẽ không hợp lý nếu quy trách nhiệm cho các lập trình viên nếu họ mắc lỗi.
Thay vào đó, hãy xem xét các mô hình AI hộp đen: Các mô hình này liên quan đến các thuật toán quá phức tạp để hiểu, ngay cả đối với lập trình viên. Điều này là do lập trình viên không lập trình thuật toán một cách rõ ràng.
Thay vào đó, thuật toán được đào tạo trên một tập hợp lớn các trường hợp. AI sẽ cho biết đâu là đầu ra phù hợp cho một tập hợp đầu vào nhất định. AI đưa ra quy tắc quyết định của riêng mình để khớp đầu vào với đầu ra.
Với những mô hình hộp đen này, chúng ta chỉ có thể hy vọng là nó nắm bắt được sự tinh tế trong quá trình ra quyết định khi thực hiện phán đoán. Nhược điểm là chúng ta không biết AI đưa ra quyết định như thế nào.
Hơn nữa, do cách các giải pháp AI được đào tạo, chúng thừa hưởng tất cả những thành kiến mà chúng ta có. Chẳng hạn, hãy xem xét ChatGPT của OpenAI. Bất chấp những nỗ lực tốt nhất của các lập trình viên, AI vẫn có thể tạo ra nội dung phân biệt chủng tộc.
Có những mô hình khác được gọi là AI có thể giải thích hoặc hộp xám cố gắng đạt được điều tốt nhất của cả hai thế giới. Họ bắt đầu với một mô hình hộp đen làm cơ sở và sau đó sử dụng một AI khác để giải thích quyết định của AI đầu tiên.
Với điều này, chúng ta có thể biết tại sao một quyết định cụ thể được đưa ra. Tuy nhiên, chúng ta vẫn sẽ không thể dự đoán trước AI sẽ quyết định như thế nào. Và vì AI cơ sở vẫn là một mô hình hộp đen nên chúng ta sẽ không thể biết cách huấn luyện AI để nó không gặp trục trặc.
Tất cả điều này cho thấy rằng các nhà sản xuất và lập trình viên không thể chịu trách nhiệm về sự cố AI (ngoại trừ trong trường hợp sơ suất nghiêm trọng). Tuy nhiên, nếu không phải họ thì là ai?
Một lựa chọn hợp lý còn lại là chính người dùng. Theo một số cách, điều này có ý nghĩa trực quan. Xét cho cùng, nếu không có AI, thì chính những người muốn sử dụng AI này phải chịu trách nhiệm về quyết định của mình.
Công nghệ không thể là cách để con người trốn tránh trách nhiệm của mình. Tuy nhiên, điều này cũng phụ thuộc vào loại AI mà chúng ta triển khai và cách chúng ta triển khai chúng. Đầu tiên, con người phải là người ra quyết định cuối cùng trong những tình huống này. Đầu ra của AI không bao giờ nên mang tính quyết định mà chỉ là các khuyến nghị.
Sẽ không hợp lý nếu buộc người dùng phải chịu trách nhiệm về sự cố của AI nếu họ không thể ngăn AI hành động. Do đó, những thuật toán tự động hoàn toàn có thể phải được loại bỏ. Xét cho cùng, để được chấp nhận về mặt đạo đức, người dùng phải có khả năng can thiệp bất cứ lúc nào.
AI sẽ trở nên vô dụng nếu mọi người không có cách nào quyết định có nên tuân theo các khuyến nghị của AI hay không. Điều này có nghĩa rằng AI đáng tin cậy phải là loại có thể hỗ trợ người dùng đưa ra quyết định đúng đắn.
Tag
BÀI VIẾT LIÊN QUAN
Đọc thêm