24 C
Ho Chi Minh City
Thứ Hai, Tháng Chín 27, 2021

Các lĩnh vực trí tuệ nhân tạo quá trắng và quá nam tính, các nhà nghiên cứu nói


Các nhà nghiên cứu của ngành công nghiệp trí tuệ nhân tạo đang phải đối mặt với một cuộc khủng hoảng về sự đa dạng của những người khác một báo cáo phát hành ngày hôm nay, đưa ra các câu hỏi chính về hướng của lĩnh vực.

Phụ nữ và người da màu không được thể hiện sâu sắc, báo cáo nhận thấy, lưu ý các nghiên cứu cho thấy khoảng 80% giáo sư AI là nam giới, trong khi chỉ 15% nhân viên nghiên cứu AI tại Facebook và 10% tại Google là phụ nữ. Những người da màu cũng phải ngồi ngoài, chỉ chiếm một phần nhỏ nhân viên tại các công ty công nghệ lớn. Kết quả là một lực lượng lao động thường xuyên bị thúc đẩy bởi quan điểm của người da trắng và nam giới, các công cụ xây dựng thường ảnh hưởng đến các nhóm người khác. Meredith Whittaker cho biết, đây không phải là sự đa dạng của những người đang bị ảnh hưởng bởi các hệ thống này.

Tồi tệ hơn, kế hoạch cải thiện vấn đề bằng cách sửa chữa đường ống của các ứng cử viên tiềm năng trong công việc đã thất bại. Các nhà nghiên cứu viết, mặc dù có nhiều thập kỷ nghiên cứu về đường ống, đánh giá dòng chảy của các ứng cử viên công việc đa dạng từ trường học đến ngành công nghiệp, nhưng không có tiến bộ đáng kể nào về sự đa dạng trong ngành công nghiệp AI.

Các nhà nghiên cứu đưa ra một số gợi ý để cải thiện vấn đề. Các công ty, họ nói, có thể cải thiện tính minh bạch bằng cách xuất bản thêm dữ liệu về bồi thường, chia nhỏ theo chủng tộc và giới tính, và bằng cách xuất bản các báo cáo minh bạch về quấy rối và phân biệt đối xử.

Sự đa dạng, trong khi trở ngại trong ngành công nghệ, đưa ra những mối nguy hiểm cụ thể trong AI, nơi công nghệ có khả năng thiên vị, như nhận dạng khuôn mặt, có thể ảnh hưởng không tương xứng đến các nhóm bị thiệt thòi trong lịch sử. Các công cụ như một chương trình quét khuôn mặt để xác định giới tính, được giới thiệu vào năm 2017, tiếng vang bất công của quá khứ, các nhà nghiên cứu viết. Kiểm tra nghiêm ngặt là cần thiết. Nhưng hơn thế nữa, các nhà sản xuất công cụ AI phải sẵn sàng không xây dựng các dự án rủi ro nhất. Kate Crawford, đồng đạo diễn của chúng tôi cần phải biết rằng các hệ thống này an toàn cũng như công bằng, Kate Crawford, đồng đạo diễn của Viện AI Now.

Các nhân viên của ngành công nghệ đã có quan điểm về một số vấn đề lớn về AI, buộc các công ty của họ phải bỏ hoặc xem xét việc sử dụng các công cụ nhạy cảm có thể làm tổn thương các nhóm dễ bị tổn thương. Các công nhân tại Amazon đã đặt câu hỏi cho các giám đốc điều hành về sản phẩm nhận diện khuôn mặt của công ty. Gần đây, công nhân Google đẩy lùi chống lại một hội đồng đánh giá AI bao gồm chủ tịch của Quỹ Di sản, lưu ý lịch sử nhóm của nhóm vận động hành lang chống lại các vấn đề về quyền LGBTQ. Công ty sớm giải tán hoàn toàn hội đồng quản trị.

Các nhà nghiên cứu kết luận rằng, cuộc khủng hoảng về tính đa dạng trong AI là tài liệu tốt và có phạm vi rộng. Có thể thấy ở những nơi làm việc không đồng đều trong toàn ngành và trong học viện, về sự chênh lệch trong tuyển dụng và quảng bá, trong các công nghệ AI phản ánh và khuếch đại các khuôn mẫu thiên vị, và trong việc tái hiện tính quyết định sinh học trong các hệ thống tự động.



Nguồn The Verge

Bài viết liên quan

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Bài viết mới nhất

Kết nối với chúng tôi

333Thành viênThích
202Người theo dõiTheo dõi

Quảng cáo