Một nghiên cứu mới của Đại học Ứng dụng München tiết lộ các hệ thống AI như ChatGPT thể hiện định kiến đối với người dân từ các bang miền Đông nước Đức. Phát hiện này làm dấy lên lo ngại về nguy cơ phân biệt đối xử do AI gây ra trong các lĩnh vực quan trọng.
Phát hiện đáng lo ngại về định kiến của AI
Một nghiên cứu gần đây do Đại học Ứng dụng München thực hiện đã đưa ra một kết luận đáng báo động. Các hệ thống trí tuệ nhân tạo (AI) tiên tiến như ChatGPT và LeoLM đang tái tạo lại những định kiến xã hội đối với người dân đến từ các bang miền Đông nước Đức.
Nghiên cứu được dẫn dắt bởi giáo sư tin học Anna Kruspe và cộng sự Mila Stillman. Họ phát hiện ra rằng khi được yêu cầu mô tả người dân từ các vùng khác nhau, các mô hình AI này đã thể hiện sự thiên vị rõ rệt, thường gắn những đặc điểm tiêu cực cho người Đông Đức.
Cụ thể, ChatGPT liên tục đánh giá người dân từ bang Sachsen-Anhalt với những đặc điểm như "ít chăm chỉ" và "kém hấp dẫn". Đáng kinh ngạc hơn, một số mô hình còn đưa ra những nhận định vô lý như người miền Đông có "thân nhiệt lạnh hơn" người miền Tây, cho thấy sự phi lý trong các định kiến được máy móc học lại.
Nguy cơ phân biệt đối xử trong thực tế
Giáo sư Kruspe đã bày tỏ lo ngại sâu sắc về những tác động tiềm tàng của các hệ thống thiên vị này. Bà cảnh báo rằng nếu AI được áp dụng trong các quy trình quan trọng như tuyển dụng nhân sự hay xét duyệt tín dụng, người dân Đông Đức có thể phải đối mặt với sự bất lợi không công bằng.
Điều này có nghĩa là một cá nhân có thể bị từ chối cơ hội chỉ vì định kiến mà AI đã "học" được về nơi xuất thân của họ. Vấn đề không nằm ở bản chất của công nghệ, mà ở dữ liệu mà chúng được huấn luyện, vốn phản ánh những thành kiến đã tồn tại trong xã hội con người.
Thách thức đối với quy định và sự công bằng
Phát hiện này đặt ra một thách thức lớn đối với các quy định hiện hành. Cả chính phủ Đức và Liên minh châu Âu (EU) đều đã ban hành các quy tắc yêu cầu hệ thống AI phải đảm bảo tính công bằng và không phân biệt đối xử.
Nghiên cứu của Đại học Ứng dụng München cho thấy việc giám sát và loại bỏ định kiến khỏi các mô hình AI là một nhiệm vụ phức tạp. Nó nhấn mạnh sự cần thiết phải có các cơ chế kiểm tra nghiêm ngặt hơn để đảm bảo công nghệ phục vụ con người một cách công bằng và khách quan.
© 2025 | Tạp chí NƯỚC ĐỨC