Khi cuộc cải tổ lãnh đạo tại OpenAI nổ ra, nhiều sự chú ý đổ dồn vào nhà khoa học máy tính Ilya Sutskever.

Là nhà khoa học trưởng của OpenAI, ông Sutskever đồng thời là thành viên hội đồng quản trị của công ty. Ông được cho là trung tâm của quyết định sa thải bất ngờ mà hội đồng quản trị đưa ra đối với Giám đốc điều hành Sam Altman, với lý do khó hiểu - ông Altman đã không "thẳng thắn và nhất quán" với hội đồng.

Khi những đồn đoán xoay quanh cuộc cải tổ lãnh đạo tại OpenAI được đưa ra, Ilya Sutskever trở thành nhân vật thu hút sự chú ý.

Truyền thông Mỹ đưa tin, căng thẳng nội bộ trong OpenAI xuất phát từ việc CEO Altman và một số thành viên còn lại của hội đồng quản trị bất đồng quan điểm liên quan đường hướng phát triển trí tuệ nhân tạo (AI): Một bên có hướng thương mại hóa còn một bên muốn duy trì phi lợi nhuận. 

2
Khi cuộc cải tổ lãnh đạo tại OpenAI nổ ra, nhiều sự chú ý đổ dồn vào nhà khoa học máy tính Ilya Sutskever.

Sutskever được cho là thuộc nhóm thứ hai. Tháng trước, nhà khoa học OpenAI có cuộc phỏng vấn dài với MIT Technology Review, chia sẻ về trọng tâm mới của ông là làm thế nào để ngăn chặn siêu trí tuệ nhân tạo - thứ có thể vượt trội hơn con người nhưng theo như chúng ta biết thì vẫn chưa tồn tại - trở nên có hại. 

Ilya Sutskever sinh ra ở nước Nga thời Xô Viết, nhưng lớn lên ở Jerusalem từ năm 5 tuổi. Khi lớn lên, ông theo học tại Đại học Toronto, Canada. Một trong những vị thầy ông theo học là Geoffrey Hinton, người tiên phong trong lĩnh vực trí tuệ nhân tạo và đôi khi được gọi là “cha đỡ đầu của AI”.

Đầu năm nay, Hinton rời Google và cảnh báo các công ty AI đang đâm đầu vào nguy hiểm bằng cách tích cực tạo ra các công cụ AI có tính sáng tạo như ChatGPT. Ông nói với tờ New York Times: “Thật khó để biết làm thế nào có thể ngăn chặn những kẻ xấu sử dụng công cụ này vào những việc xấu”.

Hinton và hai sinh viên - một trong số họ là Sutskever - đã phát triển một mạng thần kinh nhân tạo (sử dụng các mô hình toán học) vào năm 2021 rồi "huấn luyện" để mạng này xác định các vật thể trong ảnh. Được gọi là AlexNet, dự án cho thấy mạng lưới có khả năng nhận dạng tốt hơn nhiều so với thông thường. 

Quá ấn tượng, Google đã mua lại công ty nghiên cứu DNNresearch của Hinton và thuê Sutskever. Khi làm việc tại gã khổng lồ công nghệ này, Sutskever đã giúp chứng minh rằng kiểu nhận dạng AlexNet thực hiện với hình ảnh cũng có thể áp dụng cho các từ và câu.

Nhưng Sutskever nhanh chóng thu hút sự chú ý của một người có quyền lực khác trong lĩnh vực trí tuệ nhân tạo: Giám đốc điều hành Tesla, Elon Musk.

Tỷ phú này từ lâu cũng đã cảnh báo về những mối nguy hiểm tiềm tàng mà AI gây ra cho nhân loại. Nhiều năm trước, ông đã lo lắng về việc người đồng sáng lập Google Larry Page không quan tâm đến khía cạnh an toàn của AI. Ông Musk nhắc lại các lo ngại khi nói về việc Google tập trung các tài năng AI, đặc biệt là sau khi mua lại DeepMind vào năm 2014.

Với sự thúc giục của Musk, Sutskever rời Google vào năm 2015 để trở thành người đồng sáng lập và nhà khoa học trưởng tại OpenAI, khi đó là một tổ chức phi lợi nhuận mà Musk hình dung sẽ trở thành đối trọng với Google trong không gian AI.

Sau đó, Musk bất đồng với OpenAI, công ty quyết định không trở thành một tổ chức phi lợi nhuận và nhận hàng tỷ USD đầu tư từ Microsoft. Hiện Musk có một công cụ cạnh tranh với ChapGPT tên là Grok.

Nhớ lại về Sutkever, Musk cho biết: “Đó là một trong những cuộc chiến tuyển dụng khó khăn nhất mà tôi từng trải qua, nhưng thực sự là mấu chốt giúp OpenAI thành công" và nói thêm rằng Sutskever, ngoài việc thông minh, còn là một “con người tốt” với “ý tưởng tốt và trái tim tử tế".

Tại OpenAI, Sutskever đóng vai trò quan trọng trong việc phát triển các mô hình ngôn ngữ lớn, bao gồm GPT-2, GPT-3 và mô hình chuyển văn bản thành hình ảnh DALL-E.

Sau đó là ChatGPT, được phát hành vào cuối năm ngoái, thu hút 100 triệu người dùng trong vòng chưa đầy hai tháng và tạo ra sự bùng nổ trong giới AI như hiện tại. Sutskever nói với Technology Review rằng chatbot AI này đã cho mọi người cái nhìn thoáng qua về những gì có thể xảy ra, ngay cả khi công cụ có thể khiến họ thất vọng vì trả về kết quả không chính xác. 

Nhưng gần đây hơn, Sutskever tập trung vào những mối nguy hiểm tiềm tàng của AI, đặc biệt là khi siêu trí tuệ nhân tạo có thể vượt xa con người xuất hiện, điều mà ông tin rằng có thể xảy ra trong vòng 10 năm tới. Ông phân biệt giữa siêu trí tuệ nhân tạo (superintelligence AI) với trí tuệ nhân tạo tổng hợp (artificial general intelligence, hay AGI), thứ có thể ngang với con người.

Quay trở lại trọng tâm của cuộc cải tổ lãnh đạo tại OpenAI, theo các nguồn tin của Bloomberg, đó là về vấn đề an toàn AI. Sutskever không đồng ý với Altman về tốc độ thương mại hóa các sản phẩm AI tổng hợp và các bước cần thiết để giảm tác hại tiềm ẩn cho công chúng.

Sutskever nói với Technology Review: “Rõ ràng việc để bất kỳ siêu trí tuệ nào được bất cứ ai xây dựng nên đều không bị lợi dụng là rất quan trọng".

Với ý nghĩ đó, Sutskever muốn tập trung vào các phương pháp liên kết để điều khiển hệ thống AI theo các mục tiêu đã định sẵn hoặc các nguyên tắc đạo đức của con người, thay vì theo đuổi các mục tiêu ngoài ý muốn - và có thể áp dụng cho cả siêu trí tuệ nhân tạo.

Hồi tháng 7, Sutskever và đồng nghiệp Jan Leike đã viết một thông báo trên OpenAI về dự án liên kết siêu trí tuệ, hay còn gọi là “siêu liên kết”.

Họ cảnh báo rằng mặc dù siêu trí tuệ có thể giúp “giải quyết nhiều vấn đề quan trọng nhất của thế giới”, nhưng cũng có thể trở nên “rất nguy hiểm và có thể dẫn đến sự mất quyền lực của loài người hoặc thậm chí là sự tuyệt chủng của loài người”.

Ngày đăng: 21:11 | 19/11/2023

Phương Anh / VTC News