Nghiên cứu mới: Đừng tin quảng cáo về AI nữa, nó suy nghĩ không giống cách con người học tập

Doanh nghiệp gần bạn nhất

được xác nhận bởi itcctv

Nghiên cứu mới: Đừng tin quảng cáo về AI nữa, nó suy nghĩ không giống cách con người học tập
Hình ảnh rao vặt

Nghiên cứu mới: Đừng tin quảng cáo về AI nữa, nó suy nghĩ không giống cách con người học tập

Các lãnh đạo tại OpenAI, Anthropic, Google và các công ty khác vẫn đang tự tin dự đoán rằng trí tuệ nhân tạo đạt được trình độ thông minh tương đương não bộ con người sẽ sớm ra đời. Tuy nhiên, số lượng những người hoài nghi đang ngày càng tăng lên, trong đó có cả các nhà khoa học. Họ cho rằng AI đơn giản là không "suy nghĩ" giống như chúng ta.

Công việc của các nhà nghiên cứu này gợi ý rằng có một giới hạn cơ bản trong kiến trúc nền tảng của các mô hình AI hiện tại. Các AI hiện nay bắt chước trí thông minh bằng cách rất cơ bản và đơn giản là học thuộc lòng một lượng lớn các quy tắc nhờ dữ liệu huấn luyện, và áp dụng chúng một cách chọn lọc cho tất cả thông tin mà chúng gặp phải.

Điều này hầu như hoàn toàn trái ngược với cách con người và thậm chí một số loài động vật, có thể suy luận về thế giới và dự đoán tương lai. Chúng ta, những sinh vật sống, xây dựng và mô phỏng "mô hình thế giới" về cách thức hoạt động của mọi thứ, bao gồm quan hệ nhân quả.

Nhiều kỹ sư phát triển hay bản thân các startup AI tuyên bố rằng, các mô hình của họ cũng đã xây dựng được những mô hình thế giới này bên trong mạng lưới neuron nhân tạo rộng lớn của chúng, như thể hiện qua khả năng viết văn bản trôi chảy cho thấy sự suy luận rõ ràng. Những tiến bộ gần đây trong các mô hình suy luận còn khiến một số người quan sát tin rằng, ChatGPT và các hệ thống tương tự đã đạt đến trình độ AGI (Trí tuệ Nhân tạo Tổng quát), một khái niệm phổ biến trong ngành.

Kể từ lúc ra mắt đến giờ, trong mắt phần đông người dùng, ChatGPT và đối thủ của nó là những "hộp đen" bí ẩn. Nói vậy là vì chẳng mấy ai hiểu tường tận cách AI tạo ra ngôn ngữ tự nhiên.



Tiến sĩ Melanie Mitchell

Thực sự gần như không thể nhìn thấy cách chúng tạo ra kết quả cho mỗi prompt, vì chúng được huấn luyện, chứ không phải lập trình, và số lượng lớn các tham số cấu thành nên “bộ não” nhân tạo của chúng mã hóa thông tin và logic theo những cách khó giải thích ngay cả với người sáng tạo ra chúng. Tuy nhiên, các nhà nghiên cứu đang phát triển các công cụ mới cho phép họ nhìn vào bên trong các mô hình này. Kết quả thu được khiến nhiều người đặt câu hỏi về kết luận rằng LLM và mô hình suy luận hiện nay gần chạm ngưỡng AGI đến mức nào.

"Có một cuộc tranh cãi về việc những mô hình này thực sự đang làm gì, và ngôn ngữ nhân hóa thường được các đơn vị và các nhà nghiên cứu sử dụng để mô tả chúng," Melanie Mitchell, giáo sư tại viện Santa Fe, chuyên nghiên cứu AI, đưa ra nhận xét.



Các kỹ thuật mới để thăm dò cách vận hành của các mô hình ngôn ngữ lớn, trong đó một phần của lĩnh vực đang phát triển được gọi là cơ chế khả năng diễn giải, cho phép các nhà nghiên cứu thấy cách AI thực hiện toán học, học chơi trò chơi hoặc điều hướng môi trường. Trong một loạt các bài luận gần đây, bà Mitchell lập luận rằng, khối lượng công việc và prompt ngày càng tăng từ hàng trăm triệu người dùng cho thấy các mô hình có vẻ đã phát triển những gói khám phá khổng lồ thay vì tạo ra các mô hình tinh thần hiệu quả hơn để suy luận qua các nhiệm vụ.

Tạm dịch là “gói khám phá”, nhưng chính xác hơn thì các nhà khoa học sử dụng khái niệm bag of heuristic, một từ hoa mỹ mô tả quá trình tìm cách ngắn nhất giải quyết một vấn đề.

Khi Keyon Vafa, nhà nghiên cứu AI tại Đại học Harvard, lần đầu tiên nghe về lý thuyết "gói khám phá", anh nói: “Tôi cảm thấy như nó đã mở ra điều gì đó mới mẻ dành cho tôi. Đây chính xác là cách AI vận hành mà chúng ta đang cố gắng mô tả.”

Nghiên cứu của Vafa là một trong số những nỗ lực để hiểu rõ xem AI xây dựng bản đồ mạng lưới thần kinh để chỉ đường như thế nào, khi được huấn luyện trên hàng triệu hướng dẫn từng bước, giống hệt như cách Google Maps chỉ đường cho chúng ta. Vafa và các đồng nghiệp đã sử dụng mạng lưới đường xá rộng lớn của Manhattan làm tài liệu tham khảo:



Kết quả không giống chút nào so với bản đồ đường phố của Manhattan. Kiểm tra kỹ lưỡng cho thấy, AI đã suy luận ra tất cả các loại thao tác bất khả thi, những tuyến đường nhảy qua Công viên Trung tâm, chạy xiên xẹo không theo đường, hoặc đi chéo góc các block nhà của thành phố New York, thứ hoàn toàn không thể làm được.

Tuy nhiên, mô hình kết quả vẫn có thể cung cấp hướng dẫn từng bước chính xác với độ chính xác 99% giữa hai địa điểm bất kỳ trong khu vực Manhattan.

Mặc dù bản đồ lộn xộn trên đây nếu đem ra chỉ đường dễ khiến anh em phát điên vì vô lý và phức tạp, nhưng mô hình đã về cơ bản học các quy tắc riêng biệt để điều hướng trong vô số tình huống khác nhau, từ mọi điểm bắt đầu được đưa ra. “Bộ não” với quy mô quá rộng lớn của AI, kết hợp với sức mạnh xử lý chưa từng có của hệ thống máy chủ toàn cầu, cho phép chúng học cách giải quyết vấn đề theo một cách lộn xộn, vừa không giống con người, mà con người cũng chẳng làm được như LLM.

Các nghiên cứu khác thì đã xem xét những điểm bất thường phát sinh khi các mô hình ngôn ngữ lớn cố gắng giải các vấn đề toán học. Đây là mảng mà LLM vốn dĩ rất tệ, nhưng đang dần cải thiện. Một số nghiên cứu cho thấy các mô hình đã học được một bộ quy tắc riêng biệt để nhân các số trong một phạm vi nhất định, ví dụ, từ 200 đến 210, khác biệt so với những gì chúng sử dụng để nhân các số trong một phạm vi khác.

Rõ ràng đấy không phải cách lý tưởng để làm toán, nếu dựa theo cách bộ não của chúng ta đã được học hồi xưa.



Tất cả các thử nghiệm này cho thấy rằng bên trong, AI hiện tại quá phức tạp, được vá víu và chứa đầy các giải pháp tạm thời để trả lời các câu hỏi của anh em. Vafa cho rằng, chúng ta nên hiểu những hệ thống AI hiện tại chỉ đơn thuần là một danh sách dài các quy tắc ghép lại với nhau.

Hiểu như vậy, chúng ta sẽ có thể giải thích lý do tại sao chatbot hay trợ lý AI gặp khó khăn khi thực hiện ngay cả những việc nhỏ nhất, nhưng nằm ngoài phạm vi dữ liệu huấn luyện. Khi nhóm của anh chặn chỉ 1% đường bộ trong bản đồ ảo của Manhattan, buộc AI phải điều hướng xung quanh các tuyến đường tránh, hiệu suất tìm đường của nó giảm nghiêm trọng.

Điều này minh họa một sự khác biệt lớn giữa AI hiện tại và con người. Một người có thể không thể kể tên từng bước hướng dẫn đi vòng New York City với độ chính xác 99%, nhưng bộ não con người chắc chắn sẽ đủ linh hoạt về mặt tinh thần để tránh những con phố đang sửa chữa.

Nghiên cứu này cũng có thể giải thích lý do tại sao nhiều mô hình lại có quy mô tham số lớn đến vậy, và tiêu tốn lượng tài nguyên máy chủ đám mây khổng lồ. Chúng phải ghi nhớ một danh sách vô tận các quy tắc, và không thể nén kiến thức đó thành một mô hình tinh thần như con người. Nó cũng có thể giúp giải thích lý do tại sao chúng cần được huấn luyện trên lượng dữ liệu khổng lồ. Một người có thể nắm bắt điều gì đó chỉ sau vài lần thử. Để suy luận được ra tất cả các quy tắc riêng lẻ đó, thì AI phải thấy mọi sự kết hợp có thể của từ ngữ, hình ảnh, vị trí bàn cờ trò chơi và những thứ tương tự. Và để huấn luyện AI tạo sinh một cách tốt nhất, chúng cần nhìn thấy những tổ hợp đó lặp đi lặp lại.



Nghiên cứu này cũng có thể giải thích lý do tại sao AI từ các công ty khác nhau dường như “nghĩ” theo cách giống nhau và thậm chí có cùng hiệu năng tạo sinh, một mức hiệu suất có thể đang đạt đến điểm bão hòa.

Đã từng có thời điểm, các nhà nghiên cứu AI đã từng lạc quan quá mức. Năm 1970, giáo sư Marvin Minsky của Viện Công nghệ Massachusetts dự đoán rằng máy tính sẽ có trí thông minh tương đương với mặt bằng chung con người trong “ba đến tám năm”. Rõ ràng điều đó đã không trở thành hiện thực.

Năm ngoái, Elon Musk tuyên bố rằng AI sẽ vượt qua trí tuệ của con người vào năm 2026. Vào tháng 2 vừa rồi, Sam Altman viết trên blog của mình rằng "các hệ thống bắt đầu cho thấy AGI đang tới gần" và khoảnh khắc trong lịch sử này đại diện cho “một sự khác biệt”. Vào hôm thứ 3 vừa rồi, Giám đốc An toàn vận hành AI của Anthropic thì đưa ra lời cảnh báo rằng “nhân viên ảo” sẽ thay thế con người làm việc tại các công ty Mỹ trong vòng một năm nữa.

Ngay cả khi những dự đoán này không trở thành hiện thực, AI vẫn sẽ thay đổi cuộc sống của chúng ta. Các nhà phát triển phần mềm mới chỉ bắt đầu tìm hiểu cách sử dụng các hệ thống này để giúp tất cả mọi người làm việc hiệu quả hơn. Và trong khi khả năng thông minh vốn có của chúng có thể đang đạt đến điểm bão hòa, công việc tinh chỉnh chúng vẫn đang được các đơn vị và tập đoàn tiếp tục.

Đồng thời, nghiên cứu về những hạn chế của cách AI “suy nghĩ” có thể là một phần quan trọng để cải thiện chúng. Trong một bài luận gần đây, nhà nghiên cứu AI Jacob Andreas của MIT viết rằng hiểu rõ hơn về những thách thức của các mô hình ngôn ngữ dẫn đến những cách mới để huấn luyện chúng: "Chúng ta có thể làm cho các mô hình ngôn ngữ trở nên tốt hơn (chính xác hơn, đáng tin cậy hơn, dễ kiểm soát hơn) khi bắt đầu giải quyết những hạn chế đó."

Theo WSJ
Nguồn:tinhte.vn/thread/nghien-cuu-moi-dung-tin-quang-cao-ve-ai-nua-no-suy-nghi-khong-giong-cach-con-nguoi-hoc-tap.4013711/
💬 bình luận

Bình luận

Trở thành viên của itcctv — Đăng ký
Thủ thuật tin học văn phòng Thủ thuật Word Thủ thuật Excel
Cuộn