Với kỹ thuật tạo sinh hiện tại, gần như không thể tạo ra trí tuệ nhân tạo tổng quát
“AI làm được mà”
Các chatbot như ChatGPT được vận hành dựa trên một hệ thống gọi là neural network. Chúng là những hệ thống toán học có thể xác định các mẫu trong văn bản, hình ảnh và âm thanh. Bằng cách chỉ ra các mẫu trong một lượng lớn các bài viết từ Wikipedia, những mẩu tin tức và nhật ký trò chuyện trên MXH, các hệ thống này có thể học cách tạo ra văn bản giống con người, chẳng hạn như thơ ca và cả code lập trình.
Điều đó có nghĩa là những hệ thống này đang có tốc độ tiến bộ nhanh hơn nhiều so với công nghệ máy tính điện toán trong quá khứ. Trong những thập kỷ trước, các kỹ sư phần mềm xây dựng các ứng dụng từng dòng mã một, một quy trình từng bước nhỏ, không thể tạo ra thứ gì mạnh mẽ như ChatGPT. Vì neural network có thể học từ dữ liệu, chúng có thể đạt đến những đỉnh cao mới và đạt được chúng nhanh chóng.
Sau khi chứng kiến sự cải thiện của các hệ thống này trong vòng một thập kỷ qua, một số nhà phát triển công nghệ tin rằng tiến trình phát triển AI sẽ tiếp tục với tốc độ tương tự, tạo ra được AGI hoặc những mục tiêu xa hơn.
Jared Kaplan
“Đang có những xu hướng nơi tất cả các hạn chế về công nghệ AI đang dần biến mất,” chia sẻ của Jared Kaplan, giám đốc khoa học tại Anthropic. “Trí tuệ AI rất khác so với trí tuệ của con người. Con người dễ dàng học cách thực hiện các nhiệm vụ mới hơn. Họ không cần phải luyện tập nhiều như AI. Nhưng rốt cuộc, nếu huấn luyện đủ nhiều và đủ lâu, có thể AI sẽ bắt chước được con người.”
Trong số các nhà nghiên cứu về trí tuệ nhân tạo, tiến sĩ Kaplan là người vô cùng nổi tiếng vì đã xuất bản một bài báo học thuật mang tính đột phá mô tả một quy luật tên là “Quy luật Scaling”. Những định luật của ông, về cơ bản nói rằng: Càng nhiều dữ liệu cho hệ thống AI phân tích, nó sẽ hoạt động càng tốt. Giống như một sinh viên học hỏi được nhiều hơn khi đọc nhiều sách hơn, một hệ thống AI tìm thấy nhiều mẫu trong văn bản và học cách mô phỏng chính xác hơn cách con người ghép các từ lại với nhau thành một đoạn văn.
Trong những tháng qua, các đơn vị như OpenAI và Anthropic đã sử dụng cạn kiệt nguồn văn bản tiếng Anh trên mạng internet, có nghĩa là họ cần một cách mới để cải thiện chatbot của mình. Vì vậy, họ đang dựa nhiều hơn vào một kỹ thuật mà các nhà khoa học gọi là học tăng cường. Thông qua quy trình kéo dài hàng tuần hoặc hàng tháng, một hệ thống có thể học hành vi thông qua quá trình thử – sai. Ví dụ, bằng cách giải quyết hàng ngàn bài toán, nó có thể học được những kỹ thuật nào thường dẫn đến câu trả lời đúng và những kỹ thuật nào không.
Nhờ kỹ thuật này, các nhà nghiên cứu như tiến sĩ Kaplan tin rằng Luật Scaling (hoặc một quy luật và phát hiện tương tự) sẽ tiếp tục được phát hiện và ứng dụng. Khi công nghệ tiếp tục học hỏi thông qua thử và sai trong nhiều lĩnh vực, các nhà nghiên cứu nói, nó sẽ đi theo con đường của AlphaGo, một máy học được xây dựng vào năm 2016 bởi một nhóm các nhà nghiên cứu Google.
Thông qua việc học tăng cường, AlphaGo đã học cách làm chủ trò chơi cờ vây bằng cách tự chơi hàng triệu ván với chính nó. Mùa xuân năm 2016, 9 năm về trước, nó đánh bại đại kiện tướng Lee Sedol, một trong những người chơi giỏi nhất thế giới, gây sốc cho cộng đồng và thế giới nghiên cứu AI. Hầu hết các nhà nghiên cứu đều cho rằng AI cần thêm 10 năm để đạt được thành tích như vậy.
AlphaGo đã chơi cờ vây theo cách mà không ai từng làm trước đây. Nó dạy những người chơi hàng đầu những cách tiếp cận chiến lược mới đối với trò chơi cổ xưa này. Đối với một số người, niềm tin là các hệ thống như ChatGPT sẽ thực hiện cú nhảy tương tự, đạt đến AGI và sau đó là siêu trí tuệ.
Nhưng AI chơi được các trò chơi như cờ vây, suy cho cùng cũng đều phải tuân theo một bộ quy tắc nhỏ gọn và hạn chế. Thế giới thực chỉ bị ràng buộc bởi các định luật vật lý. Mô hình hóa và mô phỏng toàn bộ thế giới thực vượt quá khả năng của máy móc ngày nay, vì vậy làm sao ai có thể chắc chắn rằng AGI rồi cả siêu trí tuệ đang ở rất gần chúng ta?
Khoảng cách giữa người và máy
Không thể phủ nhận rằng các máy tính ngày nay đã vượt qua não bộ con người ở một số khía cạnh nhất định, nhưng điều đó đã đúng từ lâu. Một chiếc máy tính bỏ túi có thể thực hiện phép toán cơ bản nhanh hơn một người. Chatbot như ChatGPT có thể viết nhanh hơn và khi chúng viết, chúng có thể ngay lập tức truy cập nhiều văn bản hơn bất kỳ não bộ con người nào có thể đọc hoặc nhớ được. Các hệ thống này đang vượt trội hơn hiệu suất của con người trong một số bài kiểm tra liên quan đến toán học và mã hóa cấp cao.
Nhưng con người không thể bị đánh giá bởi những tiêu chuẩn đó. “Có rất nhiều loại trí thông minh khác nhau trong thế giới tự nhiên,” theo lời tiến sĩ Josh Tenenbaum, giáo sư khoa học nhận thức điện toán tại MIT.
Josh Tenenbaum
Một sự khác biệt rõ ràng là trí thông minh của con người gắn liền với thế giới vật lý. Nó mở rộng vượt ra ngoài lời nói và số liệu thống kê và âm thanh và hình ảnh vào lĩnh vực bàn ghế, bếp núc, những tòa nhà, những chiếc ô tô, và bất cứ điều gì chúng ta gặp phải mỗi ngày. Một phần của trí thông minh là biết khi nào thì cần lật đồ ăn đang nấu trên bếp, dựa trên kinh nghiệm.
Một số công ty hiện đang huấn luyện robot hình người theo cách tương tự như những công ty khác đang huấn luyện chatbot. Nhưng đây là một quá trình khó khăn và tốn thời gian hơn so với việc xây dựng ChatGPT, đòi hỏi phải đào tạo chuyên sâu trong các phòng thí nghiệm vật lý, nhà kho và nhà ở. Nghiên cứu robot còn tụt hậu nhiều năm so với nghiên cứu chatbot.
Khoảng cách giữa con người và máy móc thậm chí còn lớn hơn. Cả trong thế giới vật lý và kỹ thuật số, máy móc vẫn đang phải vật lộn để bắt kịp những phần của trí thông minh của con người, những khái niệm trừu tượng mà máy móc khó định nghĩa.
Phương pháp mới để xây dựng chatbot, học tăng cường, hoạt động tốt trong các lĩnh vực như toán học và lập trình máy tính, nơi các công ty có thể xác định rõ giữa hành vi tốt và hành vi xấu. Các vấn đề toán học có câu trả lời không thể chối cãi. Những dòng code lập trình phải biên dịch và chạy. Nhưng kỹ thuật này không hoạt động tốt với việc viết sáng tạo, triết học hoặc đạo đức.
Altman gần đây đã viết trên MXH X rằng OpenAI đã huấn luyện một hệ thống mới “giỏi viết lách sáng tạo”. Theo CEO OpenAI, đây là lần đầu tiên “tôi thực sự bị ấn tượng bởi những gì được viết bởi AI”. Viết lách là điều mà các hệ thống này làm tốt nhất. Nhưng “viết lách sáng tạo” lại là thứ khó có thể đo lường. Nó có nhiều hình thức khác nhau trong các tình huống khác nhau, và thể hiện những đặc điểm không dễ dàng giải thích, chứ đừng nói đến định lượng: Sự chân thành, sự hài hước, sự trung thực.
Khi các hệ thống này được triển khai vào thế giới, con người hướng dẫn chúng cách làm gì và hướng dẫn chúng thông qua những khoảnh khắc mới lạ, thay đổi và không chắc chắn.
Matteo Pasquinelli
“AI cần chúng ta: Những sinh vật sống, sản xuất dữ liệu liên tục, rồi dùng chúng để nuôi những cỗ máy,” Tiến sĩ Matteo Pasquinelli, giáo sư triết học khoa học tại Đại học Ca’ Foscari ở Venice nói. “Nó cần sự nguyên bản của ý tưởng và cuộc sống của chúng ta.”
Ảo mộng đầy cuốn hút
Đối với những người cả trong ngành công nghệ lẫn bên ngoài, các tuyên bố về AGI sắp đến có thể rất thú vị. Con người đã mơ ước tạo ra trí tuệ nhân tạo từ câu chuyện thần thoại về Golem, xuất hiện từ thế kỷ thứ XII. Đó là ảo mộng thúc đẩy những tác phẩm như “Frankenstein” của Mary Shelley và “2001: A Space Odyssey” của Stanley Kubrick.
Bây giờ khi nhiều người trong chúng ta đang sử dụng các hệ thống máy tính có thể viết và thậm chí nói chuyện giống như con người, thì việc cho rằng máy móc thông minh gần đây là điều dễ hiểu. Đó là những gì chúng ta đã mong đợi hàng thế kỷ.
Khi một nhóm học giả thành lập ra lĩnh vực nghiên cứu AI vào cuối những năm 1950, họ chắc chắn rằng sẽ không mất nhiều thời gian để xây dựng các máy tính tái tạo bộ não. Khi đó, một số người cho rằng một cỗ máy sẽ đánh bại nhà vô địch cờ vua thế giới và khám phá ra định lý toán học của riêng mình trong vòng một thập kỷ. Nhưng điều đó đã không xảy ra vào thời điểm đó. Một số dự báo của 70 năm về trước hiện nay vẫn chưa xảy ra.
Nhiều người đang xây dựng công nghệ hiện đại coi họ như thể đang thực hiện một loại định mệnh của ngành công nghệ, hướng tới một khoảnh khắc khoa học không thể tránh khỏi, giống như sự tìm ra ngọn lửa hoặc khi con người phát minh ra bom nguyên tử. Nhưng họ không thể chỉ ra bằng chứng khoa học nào cho thấy điều đó sẽ xảy ra sớm.
Đó là lý do tại sao nhiều nhà khoa học khác nói rằng không ai đạt được AGI mà không có một ý tưởng mới, một cái gì đó vượt xa các neural network mạnh mẽ, nhưng giờ chúng đơn giản chỉ tìm kiếm mẫu trong dữ liệu. Ý tưởng mới đó có thể đến vào ngày mai. Nhưng ngay cả khi đó, ngành công nghiệp sẽ cần nhiều năm để phát triển nó.
Yann LeCun
Yann LeCun, trưởng bộ phận nghiên cứu khoa học AI của Meta, đã mơ ước xây dựng những gì chúng ta hiện gọi là AGI kể từ khi ông xem “2001: A Space Odyssey” ở định dạng Cinerama 70mm tại một rạp chiếu phim ở Paris khi ông mới 9 tuổi. Và ông là một trong ba người tiên phong giành được Giải thưởng Turing năm 2018. Giải thưởng này được coi là giải Nobel của ngành khoa học máy tính. Ông LeCun nhận được giải thưởng Turing cho công trình ban đầu nghiên cứu neural network. Nhưng chính bản thân ông cũng không tin rằng AGI đang đến gần.
Tại phòng thí nghiệm nghiên cứu của ông tại Meta, ông và các đồng nghiệp đang tìm kiếm vượt ra ngoài giới hạn các neural network, thứ đã mê hoặc ngành công nghệ trong 10 năm qua. Ông LeCun và các đồng nghiệp của mình đang tìm kiếm ý tưởng bị thiếu. “Rất nhiều điều phụ thuộc vào việc liệu kiến trúc thế hệ tiếp theo có mang lại AI ở mức độ tư duy của con người trong vòng 10 năm tới hay không”, ông nói. “Có thể là không. Tại thời điểm này, chúng ta không thể biết được.”
Theo The New York Times