6 hệ thống AI không linh hoạt sẽ không phát triển

0
1
6 hệ thống AI không linh hoạt sẽ không phát triển

Trí tuệ nhân tạo có thể là công cụ mạnh nhất mà con người có. Khi áp dụng đúng vào một vấn đề phù hợp với nó, AI cho phép con người làm những điều đáng kinh ngạc. Chúng ta có thể chẩn đoán ung thư trong nháy mắt hoặc lên tiếng cho những người không thể nói bằng cách áp dụng đúng thuật toán đúng cách.

Nhưng AI không phải là thuốc chữa bách bệnh hay chữa khỏi. Trên thực tế, khi áp dụng không đúng cách, đó là một loại dầu rắn nguy hiểm nên tránh bằng mọi giá. Cuối cùng, tôi trình bày sáu loại AI tin rằng các nhà phát triển đạo đức nên tránh.

Đầu tiên, một lời giải thích ngắn gọn. Tôi không đưa ra phán xét về ý định của nhà phát triển hoặc tranh luận về lý do cốt lõi đằng sau sự phát triển của các hệ thống này, mà thay vào đó nhận ra sáu lĩnh vực mà AI không thể mang lại lợi ích cho con người và có khả năng gây hại cho chúng ta.

Tôi không bao gồm công nghệ quân sự như vũ khí tự trị hoặc hệ thống nhắm mục tiêu do AI cung cấp vì chúng tôi cần tranh luận về những công nghệ đó. Và chúng tôi cũng đã cố tình bỏ các công nghệ dao của Cameron ra khỏi danh sách này. Đó là những công nghệ như DeepFakes có thể được sử dụng cho mục đích tốt và xấu, giống như một con dao có thể được sử dụng để cắt rau hoặc đâm người.

Thay vào đó, tôi đã tập trung vào những công nghệ làm sai lệch chính vấn đề mà họ cố tình giải quyết. Chúng ta sẽ bắt đầu với những quả treo thấp: tội phạm và hình phạt.

Tội phạm

AI không thể xác định khả năng một cá nhân, nhóm người hoặc dân số cụ thể sẽ phạm tội. Cả con người và máy móc đều không phải là nhà ngoại cảm.

[]

Dự đoán chính sách là phân biệt chủng tộc. Nó sử dụng dữ liệu lịch sử để dự đoán nơi tội phạm có khả năng xảy ra nhiều nhất dựa trên các xu hướng trong quá khứ. Nếu cảnh sát đến thăm một khu phố cụ thể thường xuyên hơn những người khác và thường xuyên bắt giữ những người trong khu phố đó, một AI được đào tạo về dữ liệu từ khu vực địa lý đó sẽ xác định rằng tội phạm có nhiều khả năng xảy ra ở khu vực đó hơn những người khác.

Đặt ở một góc nhìn khác: Nếu bạn mua sắm riêng tại Wal Mart cho giấy vệ sinh và bạn chưa bao giờ mua giấy vệ sinh từ Amazon, bạn có nhiều khả năng liên kết giấy vệ sinh với Wal Mart hơn Amazon. Điều đó không có nghĩa là có thêm giấy vệ sinh tại Wal Mart.

AI cố gắng dự đoán tội phạm về cơ bản là thiếu sót vì phần lớn tội phạm không được chú ý. Các nhà phát triển về cơ bản đang tạo ra các máy xác nhận bất cứ điều gì mà cảnh sát đã làm. Họ không dự đoán tội phạm, họ chỉ củng cố ý tưởng sai lầm rằng các khu dân cư thu nhập thấp quá mức làm giảm tội phạm. Điều này làm cho cảnh sát nhìn tốt.

Nhưng nó không thực sự chỉ ra những cá nhân nào trong xã hội có khả năng phạm tội. Trên thực tế, tốt nhất là nó chỉ để mắt đến những người đã bị bắt. Tệ nhất, các hệ thống này là người bạn tốt nhất của tội phạm. Chúng càng được sử dụng nhiều, càng có nhiều khả năng tội phạm sẽ tồn tại ở những khu vực có sự hiện diện của cảnh sát theo truyền thống.

Trừng phạt

Các thuật toán không thể xác định khả năng con người sẽ tái phạm sau khi bị kết án về tội trước đó. Xem ở trên, tâm lý không tồn tại. Những gì một cỗ máy có thể làm là lấy các bản ghi kết án lịch sử và đi đến giải pháp hợp lý về mặt toán học rằng những người bị trừng phạt nặng nề nhất có xu hướng tái phạm nhiều nhất và do đó, chỉ ra rằng người da đen phải dễ phạm tội hơn người da trắng.

Đây chính xác là những gì xảy ra khi các nhà phát triển sử dụng dữ liệu sai cho một vấn đề. Nếu bạn phải thêm 2 + 2, thì phương trình của bạn sẽ không được sử dụng. Trong trường hợp này, điều đó có nghĩa là dữ liệu lịch sử về những người đã phạm tội sau khi được thả ra khỏi hệ thống tư pháp không liên quan đến việc liệu có bất kỳ cá nhân cụ thể nào sẽ làm theo hay không.

[]

Mọi người không có động lực để phạm tội vì những người lạ mà họ chưa từng gặp đã bị thúc đẩy để phạm tội khi được thả ra. Thông tin này, cách người dân nói chung phản ứng để giải thoát khỏi việc tống giam, rất hữu ích trong việc xác định liệu hệ thống tư pháp của chúng ta có thực sự phục hồi người dân hay không, nhưng nó không thể xác định khả năng một người đàn ông da đen, 32 tuổi, Boston, phạm tội đầu tiên như thế nào tội kết án.

Không có lượng dữ liệu thực sự có thể dự đoán liệu con người sẽ phạm tội hay không. Điều quan trọng là phải hiểu điều này bởi vì bạn không thể bắt giữ, không giam giữ hoặc không gây thương tích cho một người đã bị bắt giữ sai, bị cầm tù hoặc bị kết án dựa trên bằng chứng sai lầm được tạo ra từ một thuật toán.

Giới tính

Đây là một niềm vui. Một công ty gần đây đã phát triển một thuật toán có thể bị cáo buộc xác định giới tính của ai đó từ tên, địa chỉ email hoặc phương tiện truyền thông xã hội của họ. Chắc chắn, và tôi đã có một thuật toán làm cho phân của bạn có mùi như dưa hấu Jolly Ranchers (lưu ý: Tôi không. Đó là sự mỉa mai. Đừng gửi email cho tôi.).

AI không thể xác định giới tính của một người từ bất kỳ điều gì khác ngoài mô tả rõ ràng về giới tính của người đó. Tại sao? Bạn sẽ thấy một chủ đề phát triển ở đây: bởi vì tâm lý học không tồn tại.

Con người không thể nhìn vào người khác và xác định giới tính của họ. Chúng ta có thể đoán và chúng ta thường đúng, nhưng hãy làm một thí nghiệm nhanh chóng:

Nếu bạn xếp hàng mọi người trên hành tinh và nhìn vào khuôn mặt của họ để xác định xem họ là nam nam hay nữ nữ thì bạn sẽ nhận được bao nhiêu sai? Bạn có nghĩ rằng AI tốt hơn trong việc xác định giới tính của con người trong các trường hợp lề mà ngay cả bạn, một người có thể đọc và mọi thứ, không thể hiểu đúng không? Bạn có thể nói với một người liên giới tính bằng khuôn mặt của họ? Bạn luôn có thể nói giới tính của ai đó được chỉ định khi sinh bằng cách nhìn vào khuôn mặt của họ? Nếu họ là người da đen hay người châu Á thì sao?

Hãy đơn giản hóa: ngay cả khi tiến sĩ của bạn là nghiên cứu về giới và bạn đã nghiên cứu AI dưới Ian Goodfellow, bạn không thể chế tạo một cỗ máy hiểu về giới vì bản thân con người thì không. Bạn không thể nói giới tính của mọi người, điều đó có nghĩa là máy của bạn sẽ bị lỗi. Không có lĩnh vực nào mà việc đánh lừa con người là có lợi, nhưng có vô số lĩnh vực mà làm như vậy sẽ gây ra tác hại trực tiếp cho những người đã bị lừa dối.

Bất kỳ công cụ nào cố gắng dự đoán giới tính của con người đều không được sử dụng ngoài mục đích là vũ khí chống lại cộng đồng người chuyển giới, không nhị phân và liên giới tính.

Tình dục

Nói về các hệ thống AI nguy hiểm không có trường hợp sử dụng tích cực có thể có: Gaydar là một trong những ý tưởng gây khó chịu nhất trong thế giới máy học.

Trí thông minh nhân tạo không thể dự đoán khả năng tình dục của một người bởi vì, bạn đoán nó: tâm lý học không tồn tại. Con người không thể biết người khác là gay hay thẳng trừ khi đối tượng nghiên cứu kỹ lưỡng chỉ ra chính xác giới tính của họ là gì.

[]

Bất chấp sự khăng khăng của nhiều thành viên khác nhau trong đám đông Tôi là người đồng tính và tôi là người đồng tính nam, tình dục của con người phức tạp hơn nhiều so với việc chúng ta có sinh ra với khuôn mặt đồng tính hay không bởi vì mẹ chúng ta đã cho chúng ta những hoóc môn khác nhau, hoặc nếu chúng ta ‘ lại bất lợi cho những cuộc gặp gỡ tình dục khác giới bởi vì bất cứ điều gì mà những người thẳng thắn nghĩ rằng làm cho những người đồng tính nam đồng tính ngày nay.

Vào năm 2020 Một số nhà khoa học vẫn đang tranh luận liệu người đàn ông lưỡng tính có tồn tại. Là một người vô tính, tôi không thể không tự hỏi liệu họ có tranh luận về sự tồn tại của tôi trong 20 hay 30 năm nữa hay không khi họ bắt kịp sự thật rằng, gay gay và Straight là những khái niệm nhị phân đã lỗi thời trong lĩnh vực con người tâm lý và tình dục từ những năm 1950. Nhưng tôi lạc đề.

Bạn không thể chế tạo một cỗ máy dự đoán khả năng tình dục của con người bởi vì tình dục của con người là một cấu trúc xã hội. Đây là cách bạn có thể tự mình đi đến kết luận đó:

Hãy tưởng tượng một người 30 tuổi chưa bao giờ quan hệ tình dục hoặc bị thu hút một cách lãng mạn với bất cứ ai. Bây giờ hãy tưởng tượng họ tưởng tượng về tình dục với phụ nữ. Một ngày sau họ có quan hệ tình dục với một người đàn ông. Bây giờ họ tưởng tượng về đàn ông. Một ngày sau họ có quan hệ tình dục với một người phụ nữ. Bây giờ họ tưởng tượng về cả hai. Sau một tháng, họ không có quan hệ tình dục một lần nữa và ngừng mơ mộng. Họ không bao giờ có quan hệ tình dục một lần nữa hoặc cảm thấy lãng mạn nghiêng về người khác. Họ là gay, thẳng, hay lưỡng tính? Vô tính? Pansexual?

Điều đó không phụ thuộc vào bạn hay bất kỳ robot nào quyết định. Có suy nghĩ về tình dục cho bất kỳ phần nào của tình dục của bạn? Hay bạn là người thẳng cho đến khi bạn làm một số việc đồng tính? Có bao nhiêu thứ đồng tính nam phải làm trước khi họ trở thành đồng tính? Nếu bạn ngừng làm chuyện đồng tính, bạn có thể thẳng trở lại không?

Chính ý tưởng rằng một chuyên gia khoa học máy tính sẽ viết một thuật toán có thể giải quyết điều này cho bất cứ ai là lố bịch. Và nó nguy hiểm.

Không có thứ gì có thể tưởng tượng được có thể đến từ Gaydar AI. Nó chỉ được sử dụng như một công cụ để phân biệt đối xử.

Sự thông minh

AI không thể xác định mức độ thông minh của một người. Tôi sẽ lật kịch bản ở đây vì điều này không liên quan gì đến việc trở thành nhà ngoại cảm. Khi AI cố gắng dự đoán trí thông minh của con người, nó sẽ thực hiện kỹ thuật số. Nó đang thực hiện một trò ảo thuật và, giống như bất kỳ ảo ảnh tốt nào, không có thực chất nào với nó.

Chúng ta không thể biết trí thông minh của một người trừ khi chúng ta kiểm tra nó và thậm chí sau đó, không có phương pháp đo lường trí tuệ thuần túy được công nhận trên toàn cầu. Các bài kiểm tra có thể sai lệch, các chuyên gia tranh cãi câu hỏi nào là tốt nhất và không ai biết làm thế nào để giải quyết con người siêu thông minh bị rối loạn tâm thần. Tìm hiểu làm thế nào một người thông minh không thể được giải quyết bằng một vài thuật toán.

Vậy những hệ thống AI này làm gì? Họ tìm kiếm bằng chứng về trí thông minh bằng cách so sánh bất kỳ dữ liệu nào họ đưa ra cho một người với bất kỳ mô hình nào về trí thông minh mà các nhà phát triển đã đưa ra. Chẳng hạn, họ có thể xác định rằng một người thông minh không sử dụng thô tục thường xuyên như một người không thông minh. Trong trường hợp này, Dane Cook sẽ được coi là thông minh hơn George Carlin.

Đó là một cách nhìn hài hước về nó, nhưng sự thật là không có trường hợp sử dụng tích cực nào cho một robot tự ý tuyên bố một người thông minh hơn người khác. Nhưng có rất nhiều cách các hệ thống này có thể được sử dụng để phân biệt đối xử.

Tiềm năng

À đúng rồi, tiềm năng của con người. Ở đây tôi muốn tập trung vào các thuật toán tuyển dụng, nhưng điều này áp dụng cho bất kỳ hệ thống AI nào được thiết kế để xác định con người nào, ngoài nhóm, có nhiều khả năng thành công trong một nhiệm vụ, công việc, nhiệm vụ hoặc vị trí hơn những người khác.

Hầu hết các công ty lớn, dưới hình thức này hay hình thức khác, sử dụng AI trong quá trình tuyển dụng của họ. Các hệ thống này hầu như luôn bị sai lệch, phân biệt đối xử, và phi đạo đức. Trong những trường hợp hiếm hoi họ không làm, đó là nơi họ tìm kiếm một phẩm chất cụ thể, được thể hiện.

Nếu bạn thiết kế AI để thu thập hàng ngàn ứng dụng công việc cho những người đáp ứng yêu cầu tối thiểu về bằng đại học về khoa học máy tính, không có thông số nào khác tốt, bạn có thể đã thực hiện nhanh hơn và rẻ hơn với hệ thống phi AI. Tôi đoán điều đó sẽ không phân biệt đối xử.

Mặt khác, không có công để phát triển hệ thống tuyển dụng AI. Mọi dữ liệu họ được đào tạo là hoặc thiên vị hoặc vô dụng. Nếu bạn sử dụng dữ liệu dựa trên những ứng viên thành công trong quá khứ hoặc những ứng viên thành công trong toàn ngành, bạn đang cố gắng giữ nguyên trạng và cố tình tránh sự đa dạng.

Tuy nhiên, những hệ thống tồi tệ nhất là những hệ thống có mục đích đo lường trí thông minh cảm xúc của một ứng cử viên, hay là một người phù hợp với họ như thế nào. Các hệ thống AI phân tích các ứng dụng và sơ yếu lý lịch cho các từ khóa của Tích cực và các từ khóa của nhóm phủ định cũng như các hệ thống video sử dụng nhận dạng cảm xúc của Cameron để xác định các ứng cử viên tốt nhất vốn đã thiên vị, và hầu hết trong số họ là phân biệt chủng tộc, phân biệt giới tính, tuổi tác, và có thể.

AI không thể xác định ứng cử viên tốt nhất của con người cho công việc, bởi vì mọi người không phải là khái niệm tĩnh. Bạn không thể gửi một người hoặc một máy xuống cửa hàng để mua một bộ đồ nhân sự hoàn hảo. Những gì các hệ thống này làm là nhắc nhở mọi người rằng, theo truyền thống, những người đàn ông da trắng, khỏe mạnh, dị tính, dưới 55 tuổi là những gì hầu hết các công ty ở Mỹ và châu Âu thuê, vì vậy, đây được coi là đặt cược an toàn để tiếp tục làm điều đó.

Và bạn có nó, sáu lĩnh vực phát triển AI cực kỳ phổ biến – tôi ước tính rằng có hàng trăm công ty khởi nghiệp chỉ làm việc với các thuật toán chính sách dự đoán và tuyển dụng – nên được đặt trong bất kỳ nhà phát triển đạo đức nào không phát triển danh sách.

Không phải vì chúng có thể được sử dụng cho mục đích xấu, mà bởi vì chúng không thể được sử dụng cho mục đích tốt. Mỗi trong số sáu mô hình AI này được hợp nhất bởi subterfuge. Họ cố gắng giải quyết một vấn đề không thể giải quyết bằng trí tuệ nhân tạo và sau đó đưa ra một giải pháp không gì khác hơn là giả kim thuật.

Hơn nữa, trong tất cả sáu loại, yếu tố ràng buộc là chúng được đo bằng một tỷ lệ phần trăm tùy ý mà một số cách biểu thị mức độ gần gũi của họ với mức độ con người. Nhưng cấp độ con người của người Hồi giáo ở mỗi một trong sáu miền này, có nghĩa là dự đoán tốt nhất của chúng tôi.

Dự đoán tốt nhất của chúng tôi là không bao giờ đủ tốt khi vấn đề của người mà chúng tôi giải quyết là liệu một người cụ thể nên được tuyển dụng, miễn phí hay còn sống. Thật không thể tin được rằng bất kỳ ai cũng sẽ phát triển một thuật toán phục vụ để chỉ bỏ qua trách nhiệm của con người đối với quyết định mà robot không có khả năng đưa ra về mặt đạo đức.

Xuất bản ngày 31 tháng 7 năm 2020 – 19:37 UTC



Nguồn The Next Web

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây