32 C
Ho Chi Minh City
Thứ Sáu, Tháng Tám 12, 2022

Ngừng tranh luận về việc liệu AI có phải là ‘có tri giác’ hay không – câu hỏi đặt ra là liệu chúng ta có thể tin tưởng nó hay không

Tháng vừa qua đã chứng kiến ​​một loạt các bài báo, cuộc phỏng vấn và các loại phương tiện truyền thông đưa tin về Blake Lemoine, một kỹ sư của Google, người đã nói rằng LaMDA, một mô hình ngôn ngữ lớn được tạo ra cho các cuộc trò chuyện với người dùng, là “có tri giác”.

Sau khi đọc hàng tá các nội dung khác nhau về chủ đề này, tôi phải nói rằng giới truyền thông đã (một chút) vỡ mộng với sự cường điệu xung quanh hiện tại AI Công nghệ. Rất nhiều bài báo đã thảo luận về lý do tại sao các mạng thần kinh sâu không phải là “có tri giác” hoặc “có ý thức”. Đây là một sự cải tiến so với một vài năm trước, khi các hãng tin tức đang tạo ra những câu chuyện giật gân về các hệ thống AI phát minh ra ngôn ngữ của riêng họtiếp quản mọi công việc và tăng tốc hướng tới trí thông minh nhân tạo.

Nhưng thực tế là chúng ta đang thảo luận về khả năng cử chỉ và ý thức một lần nữa nhấn mạnh một điểm quan trọng: Chúng ta đang ở thời điểm mà hệ thống AI của chúng ta – cụ thể là các mô hình ngôn ngữ lớn – ngày càng trở nên thuyết phục trong khi vẫn mắc phải những sai sót cơ bản đã được các nhà khoa học chỉ ra những dịp khác nhau. Và tôi biết rằng “AI đánh lừa con người” đã được thảo luận kể từ chatbot ELIZA vào những năm 1960, nhưng LLM ngày nay thực sự ở một cấp độ khác. Nếu bạn không biết mô hình ngôn ngữ hoạt động như thế nào, Cuộc trò chuyện của Blake Lemoine với LaMDA trông gần như siêu thực — ngay cả khi chúng đã được hái và chỉnh sửa.

Xin chào, hình người

Đăng ký bản tin của chúng tôi ngay bây giờ để có bản tóm tắt hàng tuần về những câu chuyện AI yêu thích của chúng tôi trong hộp thư đến của bạn.

Tuy nhiên, điểm tôi muốn đưa ra ở đây là “sự tin tưởng” và “ý thức” không phải là cuộc thảo luận tốt nhất về LLM và công nghệ AI hiện tại. Một cuộc thảo luận quan trọng hơn sẽ là một cuộc thảo luận về khả năng tương thích và sự tin cậy của con người, đặc biệt là vì những công nghệ này đang được chuẩn bị để được tích hợp vào các ứng dụng hàng ngày.

Tại sao các mô hình ngôn ngữ lớn không nói ngôn ngữ của chúng ta

Công việc của mạng thần kinh và các mô hình ngôn ngữ lớn đã được thảo luận kỹ lưỡng trong tuần qua (Tôi thực sự khuyên bạn nên đọc Melanie Mitchell’s phỏng vấn với MSNBC để có tài khoản cân bằng về cách thức hoạt động của LaMDA và các LLM khác). Tôi muốn cung cấp một cái nhìn thu nhỏ hơn về tình huống, bắt đầu với ngôn ngữ của con người, với đó LLM được so sánh với.

Đối với con người, ngôn ngữ là phương tiện để truyền đạt những hoạt động phức tạp và đa chiều xảy ra trong não bộ của chúng ta. Ví dụ: khi hai anh em đang nói chuyện với nhau và một trong số họ nói “mẹ”, từ này có liên quan đến rất nhiều hoạt động ở các phần khác nhau của não, bao gồm ký ức về giọng nói, khuôn mặt, cảm xúc của cô ấy và những trải nghiệm khác nhau từ quá khứ xa xôi đến (có thể) những ngày gần đây. Trên thực tế, có thể có sự khác biệt rất lớn giữa loại hình đại diện mà các anh em nắm giữ trong não của họ, tùy thuộc vào kinh nghiệm mà mỗi người đã có. Tuy nhiên, từ “mẹ” cung cấp một giá trị gần đúng được nén và được trình bày rõ ràng giúp họ đồng ý về cùng một khái niệm.

Khi bạn sử dụng từ “mẹ” trong một cuộc trò chuyện với một người lạ, sự khác biệt giữa trải nghiệm và ký ức càng trở nên rộng lớn hơn. Nhưng một lần nữa, bạn có thể đạt được thỏa thuận dựa trên những khái niệm được chia sẻ mà bạn có trong đầu.

Hãy coi ngôn ngữ như một dạng nén thuật toán giúp chuyển thông tin khổng lồ trong não sang người khác. Sự phát triển của ngôn ngữ gắn liền trực tiếp với những trải nghiệm mà chúng ta đã có trên thế giới, từ những tương tác vật lý trong môi trường của chúng ta đến những tương tác xã hội với những người đồng loại khác.

Ngôn ngữ được xây dựng dựa trên những kinh nghiệm được chia sẻ của chúng tôi trên thế giới. Trẻ em biết về lực hấp dẫn, kích thước, tính nhất quán vật lý của các đối tượng và các khái niệm về con người và xã hội như nỗi đau, nỗi buồn, nỗi sợ hãi, gia đình và tình bạn ngay cả trước khi thốt ra từ đầu tiên của chúng. Nếu không có những kinh nghiệm đó, ngôn ngữ không có ý nghĩa. Đây là lý do tại sao ngôn ngữ thường bỏ qua kiến ​​thức và thông tin vô nghĩa mà người đối thoại chia sẻ. Mặt khác, mức độ kinh nghiệm và trí nhớ được chia sẻ sẽ xác định độ sâu của cuộc trò chuyện mà bạn có thể có với người khác.

Ngược lại, các mô hình ngôn ngữ lớn không có kinh nghiệm vật lý và xã hội. Họ được đào tạo về hàng tỷ từ và học cách trả lời các lời nhắc bằng cách dự đoán chuỗi từ tiếp theo. Đây là một cách tiếp cận đã mang lại kết quả tuyệt vời trong vài năm qua, đặc biệt là sau khi giới thiệu kiến trúc máy biến áp.

Làm thế nào để các máy biến áp có thể đưa ra những dự đoán rất thuyết phục? Họ biến văn bản thành “mã thông báo” và “nhúng”, các biểu diễn toán học của các từ trong không gian đa chiều. Sau đó, họ xử lý việc nhúng để thêm các thứ nguyên khác, chẳng hạn như mối quan hệ giữa các từ trong một chuỗi văn bản và vai trò của chúng trong câu và đoạn văn. Với đủ các ví dụ, các phép nhúng này có thể tạo ra các giá trị gần đúng về cách các từ sẽ xuất hiện theo trình tự. Máy biến áp đã trở nên đặc biệt phổ biến vì chúng có khả năng mở rộng: Độ chính xác của chúng được cải thiện khi chúng trở nên lớn hơn và được cung cấp nhiều dữ liệu hơn và chúng hầu như có thể được đào tạo thông qua học tập không giám sát.

Nhưng sự khác biệt cơ bản vẫn còn. Mạng nơron xử lý ngôn ngữ bằng cách biến chúng thành các bản nhúng. Đối với con người, ngôn ngữ là sự bao hàm của những suy nghĩ, cảm xúc, trí nhớ, kinh nghiệm thể chất và nhiều thứ khác mà chúng ta chưa khám phá ra về não bộ.

Đây là lý do tại sao công bằng mà nói rằng bất chấp những tiến bộ to lớn và kết quả ấn tượng của chúng, máy biến áp, mô hình ngôn ngữ lớn, mạng nơ-ron sâu, v.v. vẫn còn lâu mới nói được ngôn ngữ của chúng ta.

Tình cảm so với khả năng tương thích và sự tin tưởng

Rất nhiều cuộc thảo luận ngày nay xoay quanh việc liệu chúng ta có nên gán các thuộc tính như ý thức, ý thức và tính cách con người cho AI hay không. Vấn đề của những cuộc thảo luận này là chúng tập trung vào những khái niệm được định nghĩa mơ hồ và có ý nghĩa khác nhau đối với những người khác nhau.

Ví dụ, các nhà chức năng học có thể tranh luận rằng mạng nơ-ron và các mô hình ngôn ngữ lớn là có ý thức bởi vì chúng biểu hiện (ít nhất một phần) cùng một loại hành vi mà bạn mong đợi ở con người, mặc dù chúng được xây dựng trên một chất nền khác. Những người khác có thể tranh luận rằng chất hữu cơ là một yêu cầu cho ý thức và kết luận rằng mạng lưới thần kinh sẽ không bao giờ có ý thức. Bạn có thể đưa ra các tranh luận về chất lượng, thử nghiệm phòng Trung Quốc, thử nghiệm Turing, v.v., và cuộc thảo luận có thể tiếp tục mãi mãi.

Tuy nhiên, một câu hỏi thực tế hơn là, các mạng nơ-ron hiện tại “tương thích” như thế nào với tâm trí con người và chúng ta có thể tin tưởng chúng đến mức nào với các ứng dụng quan trọng? Và đây là một cuộc thảo luận quan trọng vì các mô hình ngôn ngữ lớn hầu hết được phát triển bởi các công ty muốn biến chúng thành các ứng dụng thương mại.

Ví dụ, nếu được huấn luyện đầy đủ, bạn có thể huấn luyện một con tinh tinh lái xe hơi. Nhưng bạn có đặt nó sau vô lăng trên con đường mà người đi bộ sẽ băng qua không? Bạn sẽ không làm như vậy, bởi vì bạn biết rằng dù thông minh đến đâu, nhưng tinh tinh không suy nghĩ theo cách giống như con người và không thể được giao trách nhiệm cho những nhiệm vụ liên quan đến sự an toàn của con người.

Tương tự như vậy, một con vẹt có thể được dạy nhiều cụm từ. Nhưng bạn có tin tưởng đó là đại lý dịch vụ khách hàng của mình không? Chắc là không.

Ngay cả khi nói đến con người, một số suy giảm nhận thức khiến con người không đủ tư cách đảm nhận một số công việc và nhiệm vụ cần sự tương tác của con người hoặc coi trọng sự an toàn của con người. Trong nhiều trường hợp, những người này có thể đọc, viết, nói trôi chảy và vẫn nhất quán và logic trong các cuộc trò chuyện dài. Chúng tôi không đặt câu hỏi về thái độ hay ý thức hay tính cách con người của họ. Nhưng chúng tôi biết rằng các quyết định của họ có thể trở nên không nhất quán và không thể đoán trước được do bệnh tật của họ (xem trường hợp của Phineas GageVí dụ).

Điều quan trọng là bạn có thể tin tưởng để người đó suy nghĩ và quyết định như một người bình thường hay không. Trong nhiều trường hợp, chúng ta tin tưởng mọi người giao nhiệm vụ vì chúng ta biết rằng hệ thống giác quan, kiến ​​thức thông thường, cảm xúc, mục tiêu và phần thưởng của họ hầu hết tương thích với chúng ta, ngay cả khi họ không nói ngôn ngữ của chúng ta.

Chúng ta biết gì về LaMDA? Chà, có một điều, nó không cảm nhận thế giới như chúng ta vẫn làm. “Kiến thức” về ngôn ngữ của nó không được xây dựng dựa trên những trải nghiệm giống như của chúng ta. Kiến thức thông thường của nó được xây dựng trên một nền tảng không ổn định vì không có gì đảm bảo rằng một lượng lớn văn bản sẽ bao hàm tất cả những điều chúng ta bỏ qua trong ngôn ngữ.

Với LaMDA này và các mô hình ngôn ngữ lớn khác, cho dù chúng có tốt như thế nào trong việc tạo ra đầu ra văn bản? Một chương trình chatbot thân thiện và thú vị có thể không phải là một ý tưởng tồi, miễn là nó không hướng cuộc trò chuyện vào các chủ đề nhạy cảm. Công cụ tìm kiếm cũng là một lĩnh vực ứng dụng tốt cho LLM (Google đã sử dụng BERT trong tìm kiếm trong một vài năm). Nhưng bạn có thể tin tưởng giao cho họ những nhiệm vụ nhạy cảm hơn, chẳng hạn như một chatbot dịch vụ khách hàng kết thúc mở hoặc cố vấn ngân hàng (ngay cả khi họ đã được đào tạo hoặc tinh chỉnh trên rất nhiều bản ghi cuộc trò chuyện có liên quan)?

Suy nghĩ của tôi là chúng ta sẽ cần các điểm chuẩn dành riêng cho ứng dụng để kiểm tra tính nhất quán của LLM và khả năng tương thích của chúng với nhận thức chung của con người trong các lĩnh vực khác nhau. Khi nói đến các ứng dụng thực tế, luôn phải có các ranh giới được xác định rõ ràng để xác định nơi mà cuộc trò chuyện trở thành giới hạn đối với LLM và nên được giao cho một người điều hành.

Quan điểm của người giải quyết vấn đề

Một thời gian trước, tôi đã viết một bài luận về “Người tìm vấn đề” và “người giải quyết vấn đề.” Về cơ bản, những gì tôi đã nói là trí thông minh của con người là tìm ra các vấn đề phù hợp và trí tuệ nhân tạo (hoặc AI chúng ta có ngày nay) là để giải quyết những vấn đề đó theo cách hiệu quả nhất.

Chúng ta đã hết lần này đến lần khác thấy rằng máy tính có thể tìm ra những con đường tắt để giải quyết những vấn đề phức tạp mà không cần đến khả năng nhận thức của con người. Chúng tôi đã thấy nó với cờ caro, cờ vua, cờ vây, cuộc thi lập trìnhsự gấp protein, và các vấn đề khác đã được xác định rõ.

Ngôn ngữ tự nhiên theo một số cách khác nhau nhưng cũng giống với tất cả những vấn đề khác mà AI đã giải quyết. Mặt khác, máy biến áp và LLM đã chỉ ra rằng chúng có thể tạo ra kết quả ấn tượng mà không cần trải qua quá trình học ngôn ngữ như một con người bình thường, tức là đầu tiên khám phá thế giới và hiểu các quy tắc cơ bản của nó, sau đó tiếp thu ngôn ngữ để tương tác với các những người dựa trên kiến ​​thức chung này. Mặt khác, họ thiếu kinh nghiệm con người đi kèm với việc học ngôn ngữ. Chúng có thể hữu ích để giải quyết các vấn đề liên quan đến ngôn ngữ được xác định rõ ràng. Nhưng chúng ta không nên quên rằng khả năng tương thích của chúng với xử lý ngôn ngữ của con người bị hạn chế và do đó chúng ta nên cẩn thận đến mức độ tin tưởng của chúng.



Nguồn The Next Web

Bài viết liên quan

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

Bài viết mới nhất

Kết nối với chúng tôi

333Thành viênThích
269Người theo dõiTheo dõi