Site icon donghochetac

Robot Hữu Ích Cho Việc Thám Hiểm Như Thế Nào?

Những tiến bộ vượt bậc trong trí tuệ nhân tạo (AI) đã thúc đẩy một số tiếng nói hàng đầu trong lĩnh vực này kêu gọi tạm dừng nghiên cứu, làm dấy lên khả năng AI gây ra sự tuyệt chủng của loài người, và thậm chí yêu cầu chính phủ điều chỉnh. Trọng tâm mối quan tâm của họ là ý tưởng AI có thể trở nên quá mạnh mẽ khiến chúng ta mất kiểm soát.

Nhưng liệu chúng ta có bỏ lỡ một vấn đề cơ bản hơn?

Cuối cùng, các hệ thống AI phải giúp con người đưa ra các quyết định tốt hơn, chính xác hơn. Tuy nhiên, ngay cả những công cụ AI ấn tượng và linh hoạt nhất hiện nay – chẳng hạn như các mô hình ngôn ngữ lớn đằng sau những công cụ như ChatGPT – có thể có tác dụng ngược lại.

Tại sao? Chúng có hai điểm yếu quan trọng. Chúng không giúp những người ra quyết định hiểu được mối quan hệ nhân quả hoặc sự không chắc chắn. Và chúng tạo ra các động lực để thu thập một lượng lớn dữ liệu và có thể khuyến khích thái độ lỏng lẻo đối với các vấn đề và rủi ro về quyền riêng tư, pháp lý và đạo đức.

Nguyên nhân, Hiệu ứng và Sự tự tin

ChatGPT và các “mô hình nền tảng” khác sử dụng một phương pháp gọi là học sâu để tìm kiếm thông qua các bộ dữ liệu khổng lồ và xác định các liên kết giữa các yếu tố có trong dữ liệu đó, chẳng hạn như các mẫu ngôn ngữ hoặc liên kết giữa hình ảnh và mô tả. Do đó, chúng rất giỏi trong việc nội suy – tức là dự đoán hoặc lấp đầy các khoảng trống giữa các giá trị đã biết.

Nội suy không giống như sáng tạo. Nó không tạo ra kiến thức, cũng không phải là những hiểu biết sâu sắc cần thiết cho những người ra quyết định hoạt động trong môi trường phức tạp.

Tuy nhiên, các phương pháp này đòi hỏi lượng dữ liệu khổng lồ. Do đó, chúng khuyến khích các tổ chức tập hợp các kho lưu trữ dữ liệu khổng lồ – hoặc tìm kiếm thông qua các bộ dữ liệu hiện có được thu thập cho các mục đích khác. Giải quyết “dữ liệu lớn” mang lại những rủi ro đáng kể về bảo mật, quyền riêng tư, tính hợp pháp và đạo đức.

Đọc thêm: Robot đang tạo ra hình ảnh và kể chuyện cười. 5 điều cần biết về các mô hình nền tảng và thế hệ AI tiếp theo

Trong các tình huống có rủi ro thấp, các dự đoán dựa trên “những gì dữ liệu cho thấy sẽ xảy ra” có thể cực kỳ hữu ích. Nhưng khi rủi ro cao hơn, có hai câu hỏi nữa chúng ta cần trả lời.

Câu hỏi đầu tiên là về cách thế giới vận hành: “điều gì đang thúc đẩy kết quả này?” Câu hỏi thứ hai là về kiến thức của chúng ta về thế giới: “chúng ta tự tin đến mức nào về điều này?”

Từ Dữ liệu lớn đến Thông tin hữu ích

Có lẽ đáng ngạc nhiên, các hệ thống AI được thiết kế để suy ra các mối quan hệ nhân quả không cần “dữ liệu lớn”. Thay vào đó, chúng cần thông tin hữu ích. Tính hữu ích của thông tin phụ thuộc vào câu hỏi đang đặt ra, các quyết định chúng ta phải đối mặt và giá trị chúng ta gán cho hậu quả của các quyết định đó.

Để diễn giải lại nhà thống kê và nhà văn người Mỹ Nate Silver, lượng chân lý là gần như không đổi bất kể khối lượng dữ liệu chúng ta thu thập.

Vậy, giải pháp là gì? Quá trình bắt đầu bằng việc phát triển các kỹ thuật AI cho chúng ta biết những gì chúng ta thực sự không biết, thay vì tạo ra các biến thể của kiến thức hiện có.

Tại sao? Bởi vì điều này giúp chúng ta xác định và thu thập lượng thông tin có giá trị tối thiểu, theo một trình tự sẽ cho phép chúng ta gỡ rối nguyên nhân và hiệu quả.

Một con robot trên Mặt Trăng

Các hệ thống AI xây dựng kiến thức như vậy đã tồn tại.

Ví dụ đơn giản, hãy xem xét một robot được gửi lên Mặt Trăng để trả lời câu hỏi, “Bề mặt Mặt Trăng trông như thế nào?”

Các nhà thiết kế robot có thể cho nó một “niềm tin” trước về những gì nó sẽ tìm thấy, cùng với một chỉ dẫn về mức độ “tự tin” mà nó nên có vào niềm tin đó. Mức độ tự tin cũng quan trọng như niềm tin, vì nó là thước đo những gì robot không biết.

Robot hạ cánh và phải đối mặt với một quyết định: nên đi theo hướng nào?

Đọc thêm: Định lý Bayes: công cụ toán học mà chúng ta có thể sử dụng hàng ngày, nhưng nó là gì?

Vì mục tiêu của robot là tìm hiểu càng nhanh càng tốt về bề mặt Mặt Trăng, nó nên đi theo hướng tối đa hóa khả năng học hỏi của nó. Điều này có thể được đo bằng kiến thức mới nào sẽ giảm sự không chắc chắn của robot về cảnh quan – hoặc nó sẽ tăng mức độ tự tin của robot vào kiến thức của mình đến mức nào.

Robot đi đến vị trí mới, ghi lại các quan sát bằng cảm biến và cập nhật niềm tin và sự tự tin liên quan của nó. Bằng cách đó, nó tìm hiểu về bề mặt Mặt Trăng một cách hiệu quả nhất có thể.

Các hệ thống robot như thế này – được gọi là “active SLAM” (Active Simultaneous Localization and Mapping) – lần đầu tiên được đề xuất cách đây hơn 20 năm, và chúng vẫn là một lĩnh vực nghiên cứu tích cực. Cách tiếp cận thu thập kiến thức và cập nhật sự hiểu biết một cách ổn định này dựa trên một kỹ thuật thống kê gọi là tối ưu hóa Bayesian.

Lập bản đồ các cảnh quan chưa biết

Một người ra quyết định trong chính phủ hoặc ngành công nghiệp phải đối mặt với sự phức tạp hơn robot trên Mặt Trăng, nhưng cách suy nghĩ là giống nhau. Công việc của họ bao gồm khám phá và lập bản đồ các cảnh quan kinh tế hoặc xã hội chưa biết.

Giả sử chúng ta muốn phát triển các chính sách để khuyến khích tất cả trẻ em phát triển mạnh ở trường và hoàn thành trung học. Chúng ta cần một bản đồ khái niệm về những hành động nào, vào thời điểm nào và trong những điều kiện nào, sẽ giúp đạt được những mục tiêu này.

Sử dụng các nguyên tắc của robot, chúng ta xây dựng một câu hỏi ban đầu: “Sự can thiệp nào sẽ giúp trẻ em nhiều nhất?”

Tiếp theo, chúng ta xây dựng một bản đồ khái niệm dự thảo bằng cách sử dụng kiến thức hiện có. Chúng ta cũng cần một thước đo về sự tự tin của chúng ta vào kiến thức đó.

Sau đó, chúng ta phát triển một mô hình kết hợp các nguồn thông tin khác nhau. Chúng sẽ không đến từ các cảm biến robot, mà từ cộng đồng, kinh nghiệm sống và bất kỳ thông tin hữu ích nào từ dữ liệu đã ghi.

Sau đó, dựa trên phân tích thông báo cho cộng đồng và sở thích của các bên liên quan, chúng ta đưa ra quyết định: “Những hành động nào nên được thực hiện và trong những điều kiện nào?”

Cuối cùng, chúng ta thảo luận, học hỏi, cập nhật niềm tin và lặp lại quá trình.

Học hỏi khi chúng ta đi

Đây là một cách tiếp cận “học hỏi khi chúng ta đi”. Khi có thông tin mới, các hành động mới được chọn để tối đa hóa một số tiêu chí được chỉ định trước.

AI có thể hữu ích ở chỗ xác định thông tin nào có giá trị nhất, thông qua các thuật toán định lượng những gì chúng ta không biết. Các hệ thống tự động cũng có thể thu thập và lưu trữ thông tin đó với tốc độ và ở những nơi mà con người có thể gặp khó khăn.

Các hệ thống AI như thế này áp dụng cái gọi là khuôn khổ lý thuyết quyết định Bayesian. Các mô hình của chúng có thể giải thích và minh bạch, được xây dựng dựa trên các giả định rõ ràng. Chúng nghiêm ngặt về mặt toán học và có thể đưa ra các đảm bảo.

Chúng được thiết kế để ước tính các con đường nhân quả, để giúp đưa ra sự can thiệp tốt nhất vào thời điểm tốt nhất. Và chúng kết hợp các giá trị của con người bằng cách được đồng thiết kế và đồng thực hiện bởi các cộng đồng bị ảnh hưởng.

Chúng ta cần cải cách luật pháp và tạo ra các quy tắc mới để hướng dẫn việc sử dụng các hệ thống AI có khả năng gây nguy hiểm. Nhưng điều quan trọng không kém là chọn đúng công cụ cho công việc ngay từ đầu.

Exit mobile version