Trong cuộc phỏng vấn với chương trình 60 Minutes, ông Demis Hassabis, Giám đốc điều hành Google DeepMind đã chia sẻ tầm nhìn về tương lai của trí tuệ nhân tạo (AI), tập trung vào sự phát triển của mô hình Gemini. Ông giới thiệu các tính năng nổi bật của Project Astra là một ứng dụng trí tuệ nhân tạo hiện đang trong giai đoạn thử nghiệm giới hạn với một nhóm người dùng được chọn. Astra được thiết kế để cải tiến khả năng tương tác và cá nhân hóa của AI.
Đáng chú ý, Astra có khả năng chào hỏi cá nhân hóa như “Xin chào Lan Anh. Rất vui được gặp lại bạn!”. Tính năng này có vẻ tương đồng so với khả năng của ChatGPT, vốn có thể ghi nhớ ngữ cảnh trong phiên trò chuyện hoặc lưu trữ thông tin cơ bản qua tính năng “Cá nhân hoá”. Tuy nhiên, Astra vượt trội hơn nhờ bộ nhớ cho phép lưu trữ chi tiết từ các cuộc trò chuyện trước đó để tạo trải nghiệm liên kết và tự nhiên, cùng với “bộ nhớ 10 phút” duy trì ngữ cảnh trong đối thoại hiện tại.
Một điểm nổi bật nữa là Astra có thể chủ động nhận diện và cá nhân hóa tương tác, trong khi đó ChatGPT chịu sự phụ thuộc của dữ liệu đầu vào hoặc kích hoạt bộ nhớ thủ công. Hơn nữa, Astra được thử nghiệm trên kính thông minh và hướng tới các tác vụ thực tế như đặt vé hoặc mua sắm, điều này khác so với ChatGPT vốn tập trung vào xử lý ngôn ngữ.
Hassabis cũng trình diễn ngắn gọn ứng dụng của Astra trên kính thông minh, hé lộ tiềm năng tích hợp AI vào các thiết bị đeo. Về dài hạn, Google DeepMind đang huấn luyện Gemini để không chỉ hiểu thế giới mà còn thực hiện các tác vụ thực tế như đặt vé hoặc mua sắm trực tuyến. Đây có thể là một phần của Project Mariner, dự án mà CEO Google Sundar Pichai từng cho biết sẽ ra mắt trong năm nay.
Một trọng tâm khác của cuộc phỏng vấn là trí tuệ nhân tạo tổng quát (AGI), khái niệm chỉ các hệ thống AI có khả năng thực hiện bất kỳ nhiệm vụ trí tuệ nào mà con người làm được, với sự linh hoạt và hiểu biết sâu rộng. Không như các AI chuyên biệt hiện nay, AGI có thể học hỏi, suy luận và áp dụng kiến thức vào nhiều lĩnh vực mà không cần huấn luyện riêng. Hassabis dự đoán AGI có thể xuất hiện trong 5-10 năm tới, đồng thời ông mô tả “Chúng ta sẽ có một hệ thống thực sự hiểu mọi thứ xung quanh bạn một cách tinh tế và sâu sắc, và hòa nhập vào cuộc sống hàng ngày của bạn”.
Về vấn đề tự nhận thức của AI, Hassabis khẳng định các hệ thống hiện tại chưa có dấu hiệu ý thức. Ông cho rằng tự nhận thức không phải mục tiêu trực tiếp, nhưng AI có thể vô tình phát triển một dạng nhận thức sơ khai khi học cách hiểu về bản thân và người khác. Tuy nhiên, ông nhấn mạnh sự khác biệt giữa con người (dựa trên carbon) và máy móc (dựa trên silicon) khiến việc đánh giá ý thức của AI trở nên phức tạp, ngay cả khi chúng thể hiện hành vi giống con người.
Cuộc phỏng vấn làm sáng tỏ quan điểm của Hassabis về ý thức và AGI, đồng thời nhấn mạnh rằng việc đạt được những cột mốc này đòi hỏi thêm nhiều nghiên cứu và trải nghiệm thực tế từ người dùng.
Xem thêm: Google mở rộng tính năng Gemini Live cho mọi thiết bị Android