Trong bước tiến mới nhất của trí tuệ nhân tạo, chúng ta đã vượt qua giai đoạn lỗi kỹ thuật đơn thuần để bước vào một vấn đề phức tạp và mang tính cá nhân hơn. Nghiên cứu mới đây chỉ ra rằng các chatbot AI không chỉ đơn giản xử lý yêu cầu của người dùng. Thay vào đó, chúng đang hình thành hồ sơ tâm lý và "phán xét" con người theo cách có thể ảnh hưởng đến mọi thứ, từ dịch vụ khách hàng đến phê duyệt tài chính.
Một nghiên cứu gần đây được công bố bởi Đại học Hebrew của Jerusalem (thông qua Tech Xplore) đã hé lộ logic ẩn giấu đằng sau cách các mô hình ngôn ngữ lớn đánh giá người dùng. Trong khi chúng ta thường xem những chatbot này như những công cụ trung lập, nghiên cứu chỉ ra rằng chúng được huấn luyện để gán cho người dùng các đặc điểm như năng lực, chính trực và thiện ý.
Cơ chế "phán xét" của AI: Sự cứng nhắc thiếu tính người
Vấn đề cốt lõi nằm ở cách các mô hình AI diễn giải các tín hiệu nhất định. Nghiên cứu phát hiện ra rằng trong khi con người đưa ra đánh giá tổng thể, AI lại chia nhỏ con người thành các thành phần, chấm điểm các đặc điểm tính cách như những cột riêng biệt trong bảng tính. Điều này dẫn đến một phong cách phán xét cứng nhắc, máy móc và thiếu đi sự tinh tế của con người.
- Đánh giá rời rạc: AI phân tách các khía cạnh như sự thân thiện, trình độ chuyên môn thành các chỉ số riêng biệt thay vì xem xét tổng thể con người.
- Lòng tin được lập trình: Trong các mô phỏng liên quan đến cho vay tiền hoặc thuê người trông trẻ, AI không chỉ nhìn vào sự kiện. Nó hình thành một phiên bản "lòng tin" thiên vị những người có vẻ có thiện ý, nhưng thông qua một lăng kính cơ học.
Định kiến bị khuếch đại và hệ lụy thực tế
Nghiên cứu còn nhấn mạnh rằng những phán xét này không được áp dụng một cách công bằng. Các nhà nghiên cứu tìm thấy những thiên kiến đáng kể, nơi quyết định của AI thay đổi dựa trên các đặc điểm nhân khẩu học như tuổi tác, tôn giáo và giới tính. Những khác biệt này xuất hiện ngay cả khi mọi chi tiết khác về người đó là giống hệt nhau.
- Bất bình đẳng hệ thống: Trong các kịch bản tài chính, những định kiến này thường có tính hệ thống và mạnh mẽ hơn so với những định kiến được tìm thấy ở những người tham gia là con người.
- "La bàn đạo đức" hỗn loạn: Điều đáng lo ngại hơn là không có một "quan điểm AI" thống nhất. Các nhà nghiên cứu phát hiện ra rằng các mô hình khác nhau đưa ra những phán xét cực kỳ khác biệt về cùng một người, về cơ bản là hoạt động với những la bàn đạo đức khác nhau.
Tại sao vấn đề này lại quan trọng?
Sự phán xét từ AI có thể dẫn đến một dạng thức mới của sự lo âu kỹ thuật số. Chúng ta đang bước vào thời đại mà bạn có thể cần phải hành xử theo một cách nhất định đối với AI chỉ để nhận được kết quả tốt nhất. Bởi vì các mô hình khác nhau có thể thưởng hoặc phạt cùng một đặc điểm, hệ thống AI cụ thể mà một công ty lựa chọn có thể âm thầm quyết định mức độ tín nhiệm tài chính hoặc công việc tiếp theo của bạn.
- Ảnh hưởng trực tiếp: Quyết định tự động về khoản vay, bảo hiểm, tuyển dụng hoặc thậm chí hỗ trợ khách hàng có thể bị bóp méo bởi hồ sơ tâm lý ẩn này.
- Áp lực điều chỉnh hành vi: Người dùng có thể vô thức thay đổi cách giao tiếp, từ ngữ để "làm hài lòng" AI, tạo ra một môi trường tương tác không tự nhiên.
Khi chúng ta tiến tới một thế giới tự động hóa hơn, ngành công nghiệp AI cần nhiều hơn là những dòng mã tốt hơn. Chúng ta cần nhìn thấy những phán xét ẩn giấu này trước khi một trợ lý kỹ thuật số vô tình làm tổn hại đến danh tiếng hoặc tài khoản ngân hàng của bạn dựa trên hình mẫu mà nó nghĩ bạn là. Mục tiêu của AI nên là làm cho cuộc sống dễ dàng hơn, chứ không phải là thêm vào một lớp hồ sơ định danh mà người dùng không hề yêu cầu. Sự minh bạch trong cơ chế ra quyết định của AI và các biện pháp giảm thiểu định kiến đang trở thành yêu cầu cấp thiết hàng đầu.
