Nguyên do Sam Altman bị đá khỏi ghế CEO OpenAI: Khi an toàn xung đột với tham vọng
Tuần trước, cả thế giới công nghệ đã chấn động trước thông tin Sam Altman, CEO của OpenAI, một trong những phòng thí nghiệm nghiên cứu AI hàng đầu thế giới, bị truất quyền CEO chỉ trong vòng 4 ngày.
Trước khi được khôi phục chức vụ vào ngày thứ 4 vừa rồi theo giờ Việt Nam, Altman đã phải đối mặt với một làn sóng phản đối mạnh mẽ từ các nhà đầu tư và nhân viên OpenAI.
Hiện giờ, nguyên nhân chính khiến Altman bị sa thải vẫn chưa được công bố chính thức. Tuy nhiên, theo những thông tin mới nhất được Reuters hé lộ, bức thư cảnh báo về sự nguy hiểm của thuật toán AI có thể chính là nguyên nhân.
Những lo ngại về hiểm họa của AGI
Nhiều người ở OpenAI tin rằng, dự án Q* có thể sẽ là bước nhảy vọt tạo ra đột phá lớn trong nỗ lực phát triển thứ gọi là trí thông minh nhân tạo phổ quát (AGI – Artificial General Intelligence).
Đến tận thời điểm hiện tại, AGI vẫn chỉ là khái niệm thuần túy lý thuyết, mô tả một hệ thống những dòng code chạy trên máy tính, giúp máy móc có thể học, xử lý tình huống và ứng xử hệt như con người hay động vật.
Về phần OpenAI, AGI được họ định nghĩa là một hệ thống tự động có khả năng vượt qua khả năng xử lý của con người trong hầu hết mọi nhiệm vụ có thể tạo ra giá trị thặng dư.
Miễn là có đủ sức mạnh xử lý của phần cứng, mô hình mới này có thể xử lý những vấn đề toán học nan giải với con người hiện giờ. Ở thời điểm hiện tại, theo nguồn tin giấu tên, Q* mới chỉ làm được toán trung học, nhưng hoàn thành chúng luôn là bước đầu tiên để tạo ra một trí thông minh nhân tạo đầy sức mạnh.
Các nhà nghiên cứu AI luôn coi toán học là bức tường lớn nhất cần vượt qua để phát triển AI tạo nội dung. Hiện giờ AI tạo nội dung đủ khả năng viết văn bản và dịch thuật bằng cách dự đoán và nội suy khả năng những từ ngữ có khả năng cao sẽ đứng cạnh nhau, nhờ đó tạo ra được cả câu và cả đoạn văn. Nhờ đó, không bao giờ AI tạo nội dung và chatbot có thể đưa ra được 1 câu trả lời giống hệt nhau dù người dùng lặp đi lặp lại câu hỏi.
Tuy nhiên, nếu chinh phục được khả năng làm toán, nơi chỉ có một câu trả lời đúng duy nhất, điều đó sẽ đồng nghĩa với việc AI có khả năng lý luận giống với bộ não con người. Nếu làm được vậy, AI sẽ có thể ứng dụng nghiên cứu khoa học hay làm được rất nhiều thứ hữu ích hơn bây giờ. Quan trọng hơn cả, thay vì là một chiếc “máy tính”, AGI có thể khái quát, học và tóm tắt kiến thức, chứ không đơn thuần thực hiện những phép tính một cách máy móc.
Những gì OpenAI làm được với dự án Q* khiến các nhà nghiên cứu tại đây phải viết một bức thư gửi lên ban lãnh đạo, đề cập những lo ngại về hiểm họa tiềm tàng của đột phá trong ngành AGI này.
Tham vọng của Altman và lo ngại của các nhà nghiên cứu
Sam Altman là một người rất tham vọng. Ông từng tuyên bố rằng, mục tiêu của OpenAI là tạo ra một trí thông minh nhân tạo vượt qua con người trong mọi lĩnh vực.
Điều này đã khiến các nhà nghiên cứu tại OpenAI lo ngại. Họ cho rằng, nếu AGI quá thông minh, nó có thể vượt khỏi tầm kiểm soát của con người và gây ra những hiểm họa khôn lường.
Trong bức thư gửi lên ban giám đốc, các nhà nghiên cứu OpenAI đã đề nghị dừng lại nghiên cứu dự án Q* và thực hiện các biện pháp đảm bảo an toàn cho AGI.
Tuy nhiên, Altman lại không đồng ý với đề xuất này. Ông cho rằng, việc dừng lại nghiên cứu sẽ là một sai lầm lớn và khiến OpenAI mất đi cơ hội tạo ra một trí thông minh nhân tạo có thể thay đổi thế giới.
Sự xung đột giữa hai quan điểm đã dẫn đến việc Altman bị sa thải.
Kết luận
Vụ việc sa thải Sam Altman là một dấu mốc quan trọng trong lịch sử phát triển của AI. Nó cho thấy rằng, những lo ngại về hiểm họa của AGI vẫn là một vấn đề cần được quan tâm nghiêm túc. Vụ việc Sam Altman bị sa thải cũng cho thấy rằng, cộng đồng AI cần có sự hợp tác chặt chẽ hơn. Chúng ta cần thảo luận và chia sẻ quan điểm của mình một cách cởi mở.