Він займеться розробкою «безпечного суперінтелекту», назвавши це «найважливішою технічною проблемою нашого часу».
Колишній головний науковий співробітник і співзасновник OpenAI Ілля Суцкевер анонсував свій новий стартап – він займеться розробкою «безпечного суперінтелекту».
«Запускаю нову компанію», – просто представив Суцкевер свій проєкт під назвою Safe Superintelligence (SSI). Основними пріоритетами компанії називають безпеку користувача і відсутність комерційного тиску від таких гігантів, як Google і Microsoft.
Суцкевер покинув OpenAI, компанію-розробника ChatGPT, у травні цього року після невдалої спроби відставки тодішнього керівника Сема Альтмана. Головний науковий співробітник виступав за обережний розвиток штучного інтелекту, щоб зменшити потенційні ризики, тоді як інші, включно з самим Альтманом, були більш схильні до технологічного прогресу та отримання комерційної вигоди від своїх розробок.
Відео дня
Як пише Independent, Суцкевер зіграв ключову роль у гучному, але короткостроковому вигнанні Альтмана з OpenAI в минулому листопаді. Пізніше він шкодував про участь в ініціативі та разом з іншими співробітниками закликав повернути виконавчого директора на свій пост. Альтман був відсутній лише п’ять днів, але історія вбила клин між двома співзасновниками, а Суцкевер був виключений з ради директорів.
Крім нього, співзасновниками Safe Superintelligence стали Деніел Гросс, колишній керівник зі ШІ в Apple, і Деніел Леві, який раніше працював технічним співробітником в OpenAI. Тріо заявило, що у стартапу буде одна мета і один продукт: «безпечний суперінтелект», назвавши це «найважливішою технічною проблемою нашого часу».
Нагадаємо, до кінця 2024 року OpenAI планує запустити ChatGPT-5, яка обіцяє революцію у сфері штучного інтелекту. Йдеться про концепцію штучного загального інтелекту (AGI). Це означає, що ШІ буде здатний вивчити будь-яке завдання, які людина зможе придумати. Це зробить її не відмінною від людини.
А напередодні OpenAI заявила про «зрив таємних онлайн-кампаній», за якими стояла Росія і низка інших країн. Зловмисники за допомогою сервісів OpenAI (ймовірно, ChatGPT) генерували коментарі для обманного маніпулювання громадською думкою і впливу на геополітику.