Що чат-боти зі штучним інтелектом знають про нас і з ким вони цим діляться?

Що чат-боти зі штучним інтелектом знають про нас і з ким вони цим діляться?

Чат-боти зі штучним інтелектом відносно старі за технологічними мірками, але новітні розробки, на чолі з ChatGPT від OpenAI та Bard від Google, значно перевершують своїх предків, причому не завжди з позитивних причин.

Нещодавній вибух у розвитку ШІ вже викликав занепокоєння щодо дезінформації, плагіату та машинно-генерованого шкідливого програмного забезпечення. Які проблеми може створити генеративний ШІ для приватності пересічного інтернет-користувача? Відповідь, на думку експертів, значною мірою залежить від того, як ці боти навчені і наскільки ми плануємо з ними взаємодіяти

Як працюють чат-боти?

Для того, щоб відтворювати взаємодію, подібну до людської, чат-боти зі штучним інтелектом навчаються на великих обсягах даних, значна частина яких береться зі сховищ на кшталт Common Crawl.

ChatGPT на телефоні: інструкція для Android та iOS 

Як випливає з назви, Common Crawl роками накопичував петабайти даних, просто скануючи та вилучаючи їх з відкритих веб-сторінок.

“Ці моделі навчаються на великих масивах даних, що знаходяться у відкритому доступі в Інтернеті”, – каже Мегха Шрівастава, аспірантка факультету комп’ютерних наук Стенфорда і колишня резидентка відділу штучного інтелекту в Microsoft Research.

Хоча ChatGPT і Bard використовують те, що вони називають “відфільтрованою” частиною даних Common Crawl, сам розмір моделі робить “неможливим для будь-кого переглянути ці дані і очистити їх”, за словами Шрівастави.

Небезпека від того, що чат-бот вчиться на наших даних

Або через вашу власну необережність, або через погані практики безпеки третьої сторони, дані можуть зараз перебувати в якомусь віддаленому куточку Інтернету. Навіть якщо пересічному користувачеві важко отримати до неї доступ, цілком можливо, що інформація була зішкрябана в навчальний набір і згодом може бути відригнута цим чат-ботом.

Чи в безпеці наші особисті дані?

І те, що бот випльовує чиюсь реальну контактну інформацію, не є теоретичною проблемою. Оглядач Bloomberg Дейв Лі написав у Twitter, що коли хтось попросив ChatGPT поспілкуватися на платформі зашифрованих повідомлень Signal, він надав його точний номер телефону.

Така взаємодія, ймовірно, є крайнім випадком, але інформація, до якої мають доступ ці навчальні моделі, все одно заслуговує на увагу.

“Малоймовірно, що OpenAI захоче збирати спеціально специфічну інформацію, таку як медичні дані, і пов’язувати її з конкретними особами, щоб навчати свої моделі, – сказав Engadget Девід Хелзер, співробітник організації з питань безпеки SANS Institute, – але чи може це статися випадково? “Але чи може вона випадково опинитися там? Безумовно”.

Open AI, компанія, що стоїть за ChatGPT, не відповіла на запитання про те, яких заходів вона вживає для захисту конфіденційності даних або про те, як вона обробляє особисту інформацію, яка може потрапити в її навчальні набори. Тому ми звернулися до самого ChatGPT. Він повідомив нам, що “запрограмований на дотримання етичних і правових стандартів, які захищають конфіденційність і особисту інформацію користувачів”, і що він “не має доступу до особистої інформації, якщо тільки вона не надана мені”.

Нейромережа, яка малює онлайн за описом чи з фото: топ 5 

Google, зі свого боку, повідомив Engadget, що запрограмував аналогічні запобіжники в Bard, щоб запобігти обміну особистою інформацією під час розмов.

Чат-боти збирають інформацію про наші пристрої

ChatGPT виявив другий основний вектор, за яким генеративний ШІ може становити ризик для конфіденційності: використання самого програмного забезпечення – або через інформацію, якою діляться безпосередньо в чатах, або через інформацію про пристрої та користувачів, яку сервіс збирає під час використання.

У політиці конфіденційності OpenAI вказано кілька категорій стандартної інформації, яку він збирає про користувачів і яку можна ідентифікувати, а після запуску ChatGPT попереджає, що розмови можуть переглядатися його тренерами з ШІ з метою вдосконалення системи.

Тим часом Bard від Google не має окремої політики конфіденційності, натомість використовує загальний документ про конфіденційність, який поширюється на інші продукти Google (і який виявляється надзвичайно широким). Розмови з Bard не обов’язково зберігати в обліковому записі Google, і користувачі можуть видалити їх через Google, повідомили Engadget у компанії.

“Для того, щоб побудувати і підтримувати довіру користувачів, вони повинні бути дуже прозорими щодо політики конфіденційності та процедур захисту даних на передньому кінці”, – сказав Engadget Ріші Джайтлі, професор і видатний гуманітарний науковець з Вірджинського технологічного університету.

Незважаючи на те, що на сторінці FAQ сервісу є дія “очистити розмови”, натискання цієї кнопки не призводить до видалення ваших даних, так само як і OpenAI не може видаляти конкретні підказки. Хоча компанія не рекомендує користувачам ділитися чимось конфіденційним, схоже, що єдиний спосіб видалити особисту інформацію, надану ChatGPT, – це видалити свій обліковий запис, що, за словами компанії, назавжди видалить всі пов’язані з ним дані.

Хольцер сказав Engadget, що його не турбує те, що ChatGPT поглинає окремі розмови з метою навчання. Але ці дані про розмови десь зберігаються, і тому їхня безпека стає обґрунтованою проблемою.

До речі, у березні ChatGPT був ненадовго виведений з мережі, оскільки програмна помилка розкрила інформацію про історію чатів користувачів. На такому ранньому етапі їх широкого розгортання незрозуміло, чи стануть журнали чатів від таких ШІ цінною мішенню для зловмисників.

В осяжному майбутньому краще ставитися до таких чат-ботів з тією ж підозрою, з якою користувачі повинні ставитися до будь-якого іншого технологічного продукту.

Джерело: www.engadget.com

Подібні новини