Група провідних світових експертів у галузі штучного інтелекту (ШІ), серед яких багато дослідників-новаторів, які в останні місяці б’ють на сполох з приводу екзистенціальних загроз, пов’язаних з їхньою власною роботою, у вівторок опублікувала різку заяву, в якій попереджає про “ризик вимирання” від передового ШІ, якщо його розвитком не керувати належним чином.
Спільна заява, підписана сотнями експертів, включаючи керівників OpenAI, DeepMind і Anthropic, спрямована на подолання перешкод для відкритого обговорення катастрофічних ризиків, пов’язаних зі штучним інтелектом, за словами її авторів. Це відбувається в період посилення занепокоєння щодо впливу штучного інтелекту на суспільство, в той час як компанії та уряди намагаються досягти трансформаційних стрибків у його можливостях.
Що таке декарбонізація – чому вона настільки важлива?
“Експерти з ШІ, журналісти, політики та громадськість все частіше обговорюють широкий спектр важливих і нагальних ризиків, пов’язаних зі штучним інтелектом, – йдеться в заяві, опублікованій Центром безпеки ШІ. “Незважаючи на це, може бути важливо висловити занепокоєння з приводу деяких з найбільш серйозних ризиків, пов’язаних зі штучним інтелектом. Лаконічна заява, наведена нижче, має на меті подолати цю перешкоду і відкрити дискусію”.
Світові лідери визнають занепокоєння
Серед підписантів – одні з найвпливовіших фігур в індустрії ШІ, такі як Сем Альтман, генеральний директор OpenAI; Денніс Хассабіс, генеральний директор Google DeepMind; і Даріо Амодей, генеральний директор Anthropic. Ці компанії вважаються лідерами в галузі досліджень і розробок ШІ, тому визнання їхніми керівниками потенційних ризиків заслуговує на особливу увагу.
Серед відомих дослідників, які також підписали заяву, – Йошуа Бенгіо, піонер у галузі глибокого навчання; Я-Цінь Чжан, видатний вчений і корпоративний віце-президент Microsoft; і Джеффрі Хінтон, відомий як “хрещений батько глибокого навчання”, який нещодавно залишив свою посаду в Google, щоб “говорити більш вільно” про екзистенціальну загрозу, яку становить ШІ.
Відхід Хінтона з Google минулого місяця привернув увагу до його еволюції поглядів на можливості комп’ютерних систем, дослідженню яких він присвятив усе своє життя. У свої 75 років відомий професор висловив бажання брати участь у відвертих дискусіях про потенційні небезпеки штучного інтелекту без обмежень, пов’язаних з корпоративною приналежністю.
Ця спільна заява стала продовженням аналогічної ініціативи, що мала місце в березні, коли десятки дослідників підписали відкритий лист із закликом зробити шестимісячну “паузу” в широкомасштабних розробках ШІ після завершення GPT-4 OpenAI. Серед підписантів листа про “паузу” – світила технологій Ілон Маск, Стів Возняк, Бенгіо і Гері Маркус.
Незважаючи на ці заклики до обережності, серед лідерів галузі та політиків залишається мало консенсусу щодо найкращого підходу до регулювання та відповідального розвитку ШІ. Раніше цього місяця технологічні лідери, зокрема Альтман, Амодей і Хассабіс, зустрілися з президентом Байденом і віце-президентом Гаррісом, щоб обговорити потенційне регулювання. У подальших свідченнях у Сенаті Альтман виступив за втручання уряду, підкресливши серйозність ризиків, які несуть у собі передові системи ШІ, і необхідність регулювання для усунення потенційної шкоди.
У нещодавньому дописі в блозі керівники OpenAI виклали кілька пропозицій щодо відповідального управління системами штучного інтелекту. Серед їхніх рекомендацій – посилення співпраці між провідними дослідниками ШІ, більш глибокі технічні дослідження великих мовних моделей (LLM) і створення міжнародної організації з безпеки ШІ. Ця заява є ще одним закликом до дії, закликаючи широку спільноту до змістовної розмови про майбутнє ШІ та його потенційний вплив на суспільство.
Джерело: https://venturebeat.com/