Дізнайтеся що таке сингулярність, коли комп’ютерний інтелект перевершить людський, та коли це може статися.
Що таке Сингулярність?
Технологічна сингулярність, яку також називають просто сингулярністю, – це теоретична подія в майбутньому, коли комп’ютерний інтелект перевершить людський.
Термін “сингулярність” походить з математики і означає точку, яка не має чіткого визначення і поводиться непередбачувано. У цій точці перегину гіпотетично може виникнути ефект втечі, коли надрозумні машини стануть здатними створювати кращі версії самих себе з такою швидкістю, що людина більше не зможе їх розуміти або контролювати.
Експоненціальне зростання цієї технології ознаменувало б точку неповернення, докорінно змінивши суспільство, яким ми його знаємо, невідомим і незворотнім чином.
Що таке сингулярність (технологічна сингулярність)?
Технологічна сингулярність – це теоретична подія майбутнього, коли швидкі технологічні інновації призводять до створення неконтрольованого суперінтелекту, який трансформує цивілізацію, якою ми її знаємо. Інтелект машин перевершує людський, що призводить до непередбачуваних наслідків.
За словами Джона фон Неймана, піонера концепції сингулярності, якби машини змогли досягти сингулярності, то “людські справи, як ми їх знаємо, не могли б продовжуватися”.
Питання про те, як саме і коли ми дійдемо до цієї ери, є предметом гострих дискусій. Деякі футурологи вважають сингулярність неминучою долею, в той час як інші активно намагаються запобігти створенню цифрового розуму, непідвладного людському контролю.
Наразі політики по всьому світу проводять мозкові штурми, щоб знайти способи регулювання розвитку штучного інтелекту. Тим часом понад 1000 технологічних лідерів колективно закликали призупинити всі лабораторні проекти зі створення штучного інтелекту, які можуть перевершити чат-бота GPT-4 від OpenAI, посилаючись на “глибокі ризики для суспільства і людства”.
Тільки час покаже, чи достатньо цих перешкод для того, щоб зупинити технологічний прогрес, зупинити гонку ШІ до суперінтелекту і взагалі відстрочити сингулярність.
Які наслідки технологічної сингулярності?
Ми дізналися що таке сингулярність – але наскільки вона небезпечна? Технологічна сингулярність, спричинена експоненціальним зростанням нових технологій, зокрема штучного інтелекту та машинного навчання, може, з одного боку, автоматизувати наукові інновації та еволюційний прогрес швидше, ніж це можливо для людини, генеруючи ідеї на рівні Нобелівської премії за лічені хвилини.
У найкращому випадку це призведе до подальшого злиття людини і машини, доповнюючи розум небіологічними, комп’ютеризованими інструментами, так само, як протез кінцівки стає частиною тіла. Ми зможемо поглибити людський досвід на всіх бажаних рівнях, краще зрозуміти самих себе і, в процесі, всесвіт в цілому.
З іншого боку, сингулярність може призвести до вимирання людства. Ґрунтуючись на наших знаннях про те, як існуюче розумне життя (наприклад, люди) ставилося до менш розумних форм життя (наприклад, лабораторних щурів, свиней, вирощених на забій, і шимпанзе в клітках), надрозумні машини можуть знецінити людей, оскільки вони стануть домінуючим видом.
Samsung Galaxy AI: ваш невидимий штучний друг
Якими б не були їхні плани, надрозумні машини потребуватимуть місцевої матерії, щоб почати будувати постлюдську цивілізацію, “включаючи атоми, з яких ми зроблені”, як стверджує Роман Ямпольський, комп’ютерний науковець і доцент Університету Луїсвілля, чиї праці сприяли дискусії про сингулярність.
За словами Ямпольського, все, що потрібно для появи цієї “дуже небезпечної технології”, – це щоб прогрес у розробці ШІ не зупинявся на досягнутому.
Чи можлива технологічна сингулярність?
Деякі експерти вважають, що технологічна сингулярність неминуча. Футуролог Рей Курцвейл навіть назвав дату її настання – 2045 рік. Але сингулярність все ще залишається лише гіпотетичною, і ймовірність того, що машини будуть відповідати своїм творцям, залежить від кількох ключових факторів.
Розглянемо давній стандарт експоненціального зростання технологій – закон Мура. У своїй оригінальній статті, опублікованій у 1965 році, співзасновник Intel Гордон Мур передбачив, що потужність комп’ютерів подвоюватиметься кожні два роки в міру того, як зменшуватимуться розміри апаратного забезпечення.
Незважаючи на неминучі квантові обмеження, ця теорія вражаюче підтвердилася протягом багатьох років. Процес розвитку технологій є адитивним і може продовжувати розширюватися навіть у прискореному темпі. На противагу цьому, потужність людського мозку не змінюється протягом тисячоліть і завжди буде обмежена фізичними, біологічними можливостями.
Ще одним показником близькості суспільства до сингулярності є загальний розвиток штучного інтелекту. Дослідники покладаються на тести Тюрінга, щоб продемонструвати інтелект комп’ютера. Під час цих оцінок машина повинна обдурити суддівську колегію, імітуючи людські відповіді на низку запитань. Як повідомляється, лише нещодавно цього вперше вдалося досягти чат-боту зі штучним інтелектом, який видавав себе за 13-річного хлопчика на ім’я Юджин Густеман у 2014 році.
Технології, достатньо потужні для досягнення сингулярності, також потребують фінансування, і, незважаючи на занепокоєння громадськості, інтерес до ШІ як у приватному, так і в державному секторах лише зростає. Останні проекти, такі як ChatGPT від Microsoft і безпілотні автомобілі Tesla, регулярно потрапляють у заголовки газет, оскільки технологічні стартапи підживлюють бум ШІ з глибокими кишенями.
За прогнозами дослідницької компанії Next Move Strategy Consulting, ринок ШІ, який наразі оцінюється в 100 мільярдів доларів, до 2030 року зросте у двадцять разів – до майже двох трильйонів доларів США.
Історія створення ChatGPT: “місія – змінити ВСЕ”
Але чи є все це феноменом, здатним перевернути суспільство, все ще залишається предметом дискусій. За словами Тобі Волша, провідного дослідника ШІ, який зараз разом з урядовими організаціями розробляє засоби захисту від ШІ, радикальний технологічний прогрес у найближчому майбутньому є очевидним, але чи виправдовує він сингулярність, викликає сумніви.
“Було б самовпевнено вважати, що ми не дійдемо до штучного суперінтелекту, адже ми самі є лише машинами”.
“Було б самовпевнено вважати, що ми не досягнемо штучного суперінтелекту, адже ми самі є лише машинами, – сказав Волш, головний науковий співробітник Інституту штучного інтелекту Університету Нового Південного Уельсу, в інтерв’ю виданню Built In. – Але, можливо, ми дійдемо до штучного інтелекту. “Але, можливо, ми прийдемо до штучного суперінтелекту старим добрим способом – людським потом і винахідливістю, а не через якусь технологічну сингулярність”.
Не всі експерти вважають, що сингулярність обов’язково станеться. Дехто, як Марк Бішоп, почесний професор когнітивних обчислень у Голдсмітському університеті Лондона, відкидає твердження, що комп’ютери коли-небудь зможуть досягти рівня людського розуміння, не кажучи вже про те, щоб перевершити його. Насправді він вважає штучний інтелект відверто дурним.
Бішоп підтримує аргумент “Китайської кімнати” – уявний експеримент, запропонований філософом Джоном Серлом. Він стверджує, що хоча машини можна запрограмувати на імітацію людської поведінки, наприклад, поведінки та діалогу, що вимірюється за допомогою тесту Тюрінга, це не демонструє розуміння. Машини, обмежені скінченними цілими числами, намагаються імітувати нескінченні, досвідчені аспекти фізичного світу, але це не спрацьовує.
Навіть якби робот міг досконало відтворювати ці відчуття, то, згідно з теорією Бішопа “Танці з ельфами”, нам довелося б визнати, що всі речі можуть усвідомлювати всі можливі феноменальні стани – можливо, абсурдну банку з черв’яками, відому як панпсихізм.
“Ми живемо у величезному циклі хайпу, коли люди з комерційних міркувань сильно перебільшують можливості цих систем”.
Як людина, яка пропрацювала в лабораторіях ШІ половину часу, відколи вони взагалі існують, Бішоп вважає нинішній ажіотаж однією з багатьох швидкоплинних примх, свідком яких він був протягом своєї кар’єри.
“Ми живемо у величезному циклі ажіотажу, коли люди з комерційних міркувань сильно перебільшують можливості цих систем, – каже Бішоп, який зараз працює над платформою для виявлення шахрайства з використанням ШІ у FACT360. “Зараз в ШІ вкладені величезні суми грошей, а історично так було не завжди …. Це впливає на громадськість, яка помилково переоцінює те, що може дати ШІ”.
Що буде після технологічної сингулярності?
За визначенням, наслідки технологічної сингулярності будуть незрозумілими для людини. Щільність, з якою мають прискорюватися технології, щоб досягти сингулярності, означає, що принципи, якими ми завжди керувалися, руйнуються і більше не мають сенсу.
“Люди можуть розповісти вам, як би вони намагалися захопити світ, але ми не маємо жодного уявлення, як би це зробив суперінтелект, – сказав Ямпольський, відзначаючи непередбачувану природу ШІ. “Як миша, яка не має поняття про мишоловку”.
Таким чином, хоча суперінтелект може розуміти кінцеву мету, йому бракує здорового глузду, необхідного для її досягнення. Наприклад, якщо суперінтелектуальна система запрограмована на “знищення раку”, Ямпольський пояснив, що вона може або розробити ліки, або вбити всіх з позитивним діагнозом раку.
Але це не означає, що ми автоматично стаємо свідками антиутопії Судного дня. Пам’ятайте, що ці системи є алгоритмічними машинами, які колись були запрограмовані людиною. Цей процес, яким би обчислювально обґрунтованим він не був, все одно зазнає впливу людської семантики та нюансів.
Отже, якщо машина, що “самовдосконалюється”, набуде форми, їй потрібно буде визначити, як саме виглядає її самовдосконалення. Наприклад, змодельований мозок може інтерпретувати самовдосконалення як задоволення, каже Ямпольський, і зосередитися виключно на оптимізації свого каналу винагороди до нескінченності.
“Немає верхньої межі для задоволення, так само як немає верхньої межі для інтелекту, – додав Ямпольський. “Нам може пощастити: замість того, щоб знищити нас, ШІ може вирішити піти досліджувати всесвіт”.
Різні погляди на те, що таке сингулярність
Серед футурологів існують різні типи уявних сингулярностей. Нижче ви побачите, як деякі з видатних лідерів думок у цій галузі відрізняються у своїх інтерпретаціях надлюдського інтелекту
ДЖОН ФОН НЕЙМАН, 1958
Джон фон Нейман був талановитим математиком, який винайшов теорію ігор і допоміг закласти основи сучасного комп’ютера. Але лише після його смерті Нейман став асоціюватися з технологічною сингулярністю, коли його колега, ядерний фізик Станіслав Улам, приписав йому цю ідею в посмертній статті.
У ній Улам перефразував розмову між ними, в якій Нейман вперше представив сингулярність як явище, спричинене “постійно прискорюваним прогресом технологій”, що вплине на спосіб людського життя і змінить його назавжди.
ІРВІНГ ДЖ. ГУД, 1965 РІК
Гуд, криптолог, працював зламувачем кодів у Блетчлі-парку разом з Аланом Тюрінгом під час Другої світової війни. У своїй статті 1965 року “Спекуляції щодо першої надрозумної машини” він розглядає можливе створення надрозумної машини як “останній винахід, який людині коли-небудь знадобиться зробити”.
Він відомий тим, що описав сингулярність як “вибух інтелекту”, оскільки вона ініціює автономний цикл самозбирання. Гуд вірив, що сингулярність змінить суспільство на краще. Він також припускав, що ці машини відтворюватимуть функції людського мозку, розвиваючи нейронні схеми.
ВЕРНОР ВІНДЖ, 1993 РІК
Комп’ютерний науковець і письменник-фантаст Вернор Вінґ бачить сингулярність як швидке прискорення падіння людства, яке за важливістю можна порівняти з біологічним сходженням людини з тваринного світу. У своїй статті 1993 року “Прийдешня технологічна сингулярність” Вінґе прогнозує кілька різних сценаріїв, які можуть призвести до таких подій.
Він вважає, що комп’ютери можуть одного дня “прокинутися” в міру розвитку штучного інтелекту, або по одному, або у вигляді великих взаємопов’язаних мереж.
Інша можливість – у вигляді комп’ютерно-людських інтерфейсів, коли машини з часом настільки зливаються з людьми-користувачами, що їх можна буде вважати надлюдськи розумними. Навіть більше, вчені та дослідники можуть застосувати внутрішній підхід до посилення людського інтелекту, імплантуючи технології в саму людину за допомогою біоінженерії.
Технологія, необхідна для запуску сингулярності, буде доступна до 2030 року, за словами Вінджа; але чи захочемо ми брати участь у власній загибелі – не факт.
РЕЙ КУРЦВЕЙЛ, 2005 РІК
Футуролог і піонер технологій розпізнавання образів Рей Курцвейл бачить сингулярність як злиття людини і машини, що розширює можливості розуму. У своїй книзі “Сингулярність близько” він описує це як “безпрецедентний людино-машинний синтез”, де комп’ютери стають потужним додатком до людини, дозволяючи нам розвантажити когнітивні здібності, щоб сприяти подальшій експансії.
Цей “надлюдський” суперінтелект будується за допомогою позитивного зворотного зв’язку, який потім повторюється і посилюється на кожному етапі розвитку нових технологій – зокрема, комп’ютерів, генетики, нанотехнологій, роботів і штучного інтелекту.
ТОБІ ВОЛШ, 2017
У своїй статті 2017 року “Сингулярність може ніколи не настати” Волш пропонує “менш драматичний” результат замість сингулярності. Замість повстання автономних ботів зі штучним інтелектом Волш уявляє, що будь-яка технологія майбутнього, здатна до суперінтелекту, все одно буде переважно створена людиною і повільно розвиватиметься з плином часу.
Зрозуміло, що Волш не сумнівається в можливості комп’ютеризованого надлюдського інтелекту, але в те, що він буде достатньо потужним, щоб самозароджуватися і підбурювати до сингулярності, яка змінить цивілізацію, віриться менше.
“[Технологічна сингулярність] не порушує жодних законів фізики, про які ми знаємо, тому ми не можемо сказати, що вона неможлива, – каже Волш. “Але є півдюжини причин, чому вона може ніколи не настати, або чому вона може настати дуже, дуже нескоро”.
Джерело: https://builtin.com/