Лондонський метрополітен тестує інструменти штучного інтелекту для виявлення злочинів у реальному часі

Лондонський метрополітен тестує інструменти штучного інтелекту для виявлення злочинів у реальному часі

Система комп’ютерного зору намагалася виявити злочинність, зброю, людей, що стрибають на рейки, та безквиткових пасажирів.

За рухами, поведінкою і мовою тіла тисяч людей, які користуються лондонським метрополітеном, стежили за допомогою програмного забезпечення зі штучним інтелектом, розробленого для того, щоб виявити, чи не скоюють вони злочини і чи не перебувають у небезпечних ситуаціях, як повідомляє видання WIRED.

Шучний інтелект допомагає помітити протиправну поведінку в Лондонському метро

Програмне забезпечення для машинного навчання поєднувалося з відеозаписами з камер спостереження, воно намагалося виявити агресивну поведінку, розмахування зброєю або ножами, а також шукати людей, які падають на рейки метро або ухиляються від оплати за проїзд.

Полювання на дронів за допомогою дронів: DroneHunter F700

З жовтня 2022 року до кінця вересня 2023 року компанія Transport for London (TfL), яка управляє міською мережею метро і автобусів, протестувала 11 алгоритмів для моніторингу людей, які проходять через станцію метро Willesden Green, що на північному заході міста.

Це випробування концепції – перший випадок, коли транспортний орган об’єднав штучний інтелект і відеозаписи в реальному часі, щоб генерувати попередження, які надсилаються співробітникам, що знаходяться на місці. Під час тесту було видано понад 44 000 попереджень, з яких 19 000 були доставлені співробітникам станції в режимі реального часу.

TfL використовувала широкий спектр алгоритмів комп’ютерного зору для відстеження поведінки людей під час їх перебування на станції.

Під час випробування на станції Willesden Green, яка до пандемії COVID-19 мала 25 000 відвідувачів на день, система штучного інтелекту була налаштована на виявлення потенційних інцидентів безпеки, щоб персонал міг допомогти людям, які цього потребують, але вона також була спрямована на виявлення злочинної та антигромадської поведінки.

Експерти з питань приватності, які ознайомилися з документами, ставлять під сумнів точність алгоритмів виявлення об’єктів. Вони також кажуть, що незрозуміло, скільки людей знали про випробування, і попереджають, що такі системи спостереження можуть бути легко розширені в майбутньому і включати більш складні системи виявлення або програмне забезпечення для розпізнавання облич, яке буде ідентифікувати конкретних осіб.

“Хоча це випробування не передбачало розпізнавання облич, використання ШІ в громадському просторі для ідентифікації поведінки, аналізу мови тіла піднімає багато з тих же наукових, етичних, правових і соціальних питань, що і технології розпізнавання облич”, – говорить Майкл Бертвістл, асоційований директор незалежного дослідницького інституту Інституту Ади Лавлейс.

TfL повідомило, що використовувало існуючі зображення з камер відеоспостереження, алгоритми штучного інтелекту та “численні моделі розпізнавання”, щоб виявити шаблони поведінки.

“Надаючи співробітникам станцій інформацію та повідомлення про пересування і поведінку клієнтів, вони, сподіваємося, зможуть швидше реагувати на будь-які ситуації”, – йдеться у відповіді. У ній також йдеться про те, що експеримент дозволив отримати інформацію про безквитковий проїзд, яка “допоможе нам у наших майбутніх підходах і втручаннях”, а зібрані дані відповідають політиці щодо обробки даних.

Лондонський метрополітен тестує інструменти штучного інтелекту для виявлення злочинів у реальному часі / Photo: https://www.bez-kabli.pl/news/en/2024/02/08/thousands-of-london-underground-users-monitored-using-ai-software-to-detect-crimes-and-dangerous-situations/
Лондонський метрополітен тестує інструменти штучного інтелекту для виявлення злочинів у реальному часі / Photo: https://www.bez-kabli.pl/news/en/2024/02/08/thousands-of-london-underground-users-monitored-using-ai-software-to-detect-crimes-and-dangerous-situations/

Системи комп’ютерного зору, такі як ті, що були використані в тесті, працюють, намагаючись виявити об’єкти і людей на зображеннях і відео. Під час випробувань у Лондоні алгоритми, навчені виявляти певну поведінку або рухи, були об’єднані із зображеннями з 20-річних камер відеоспостереження станції метро, які аналізували зображення кожну десяту долю секунди.

Що таке FPV дрони?

Коли система виявляла одну з 11 типів поведінки або подій, визначених як проблемні, вона надсилала сповіщення на iPad або комп’ютер персоналу станції. Співробітники TfL отримали 19 000 сповіщень для потенційного реагування, а ще 25 000 були збережені для аналітичних цілей, йдеться в документах.

Виявити акти агресії не так вже просто

Даніель Лойфер, старший аналітик групи з цифрових прав Access Now, каже, що коли він бачить будь-яку систему, яка здійснює такий моніторинг, перше, на що він звертає увагу, – чи намагається вона виокремити агресію або злочин. “Камери роблять це, ідентифікуючи мову тіла і поведінку, – каже він. “Який набір даних вам знадобиться, щоб навчити щось на цьому?”

У звіті TfL про випробування сказано, що вони “хотіло включити акти агресії”, але виявилося, що “не змогло їх успішно виявити”. У звіті також зазначено, що бракувало навчальних даних. Натомість система видавала попередження, коли хтось піднімав руки, що в документах описується як “звичайна поведінка, не пов’язана з актами агресії”.

“Навчальних даних завжди недостатньо, тому що ці речі, ймовірно, занадто складні і нюансовані, щоб їх можна було належним чином відобразити в наборах даних”, – каже Лейфер, відзначаючи, що позитивним моментом є те, що TfL визнав, що у нього недостатньо даних для навчання.

“Я вкрай скептично ставлюся до того, чи можна використовувати системи машинного навчання для надійного виявлення агресії таким чином, щоб вони не просто повторювали існуючі в суспільстві упередження щодо того, який тип поведінки є прийнятним у громадських місцях”.

А як же захист приватності?

Мадлен Стоун, старший спеціаліст з адвокації в групі Big Brother Watch, що займається захистом приватності, каже, що багато пасажирів метро будуть “стурбовані”, дізнавшись, що влада піддає людей спостереженню за допомогою штучного інтелекту. Стоун каже, що використання алгоритму для визначення того, чи є хтось “агресивним”, є “глибоко помилковим”, і вказує на те, що британський регулятор даних застерігає від використання технологій аналізу емоцій.

У документах йдеться про те, що під час випробувань співробітники транспортної служби провели “масштабні симуляції” на станції Willesden Green, щоб зібрати більше навчальних даних. Вони включали падіння співробітників на підлогу, і деякі з цих тестів відбувалися, коли станція була закрита.

“Ви побачите офіцера BTP [Британської транспортної поліції], який тримає мачете і пістолет у різних місцях станції”, – йдеться в одному з підписів у документах, хоча зображення відредаговані. Під експеременту, згідно з документами, на вокзалі не було жодного повідомлення про інциденти із застосуванням зброї.

Найбільше повідомлень було про людей, які потенційно уникали оплати за проїзд, перестрибуючи або пролазячи під зачиненими турнікетами, штовхаючи їх, проходячи крізь відчинені ворота або їдучи в хвості того, хто заплатив. За даними TfL, безквитковий проїзд коштує до 130 мільйонів фунтів стерлінгів на рік, і під час випробування було отримано 26 000 попереджень про ухилення від сплати за проїзд.

Під час усіх тестів зображення облич людей були розмиті, а дані зберігалися максимум 14 днів. Однак через шість місяців після початку тестування TfL вирішив розмивати зображення облич, коли людей підозрювали в несплаті проїзду, і зберігати ці дані довше. Спочатку планувалося, що співробітники будуть реагувати на повідомлення про безквитковий проїзд, йдеться в документах.

“Однак через велику кількість щоденних сповіщень (в деякі дні понад 300) і високу точність виявлення, ми налаштували систему на автоматичне розпізнавання сповіщень”, – йдеться в документах.

Бертвістл з Інституту Ади Лавлейс каже, що люди очікують “надійного нагляду та управління”, коли впроваджуються подібні технології. “Якщо ці технології будуть використовуватися, вони повинні використовуватися лише за умови суспільної довіри, згоди і підтримки”, – каже Бертвістл.

Значна частина випробувань була спрямована на те, щоб допомогти персоналу зрозуміти, що відбувається на станції, і реагувати на інциденти. 59 оповіщень про інвалідні візки дозволили співробітникам станції Willesden Green, яка не має пристосувань для інвалідних візків, “надати необхідний догляд і допомогу”, – йдеться у матеріалах справи.

Водночас було майже 2200 попереджень про людей, які виходили за жовті лінії безпеки, 39 – про людей, які перехилилися через край колії, і майже 2000 попереджень про людей, які тривалий час сиділи на лавці.

“Протягом усього часу роботи PoC ми спостерігали величезне збільшення кількості публічних оголошень, зроблених персоналом, які нагадували клієнтам відійти від жовтої лінії”, – йдеться в документах.

У них також йдеться про те, що система генерувала сповіщення про жебраків на входах до станції, і стверджується, що це дозволило співробітникам “дистанційно контролювати ситуацію і надавати необхідну допомогу і догляд”. TfL стверджує, що система була випробувана для того, щоб допомогти їй покращити якість роботи персоналу на станціях і зробити їх безпечнішими для пасажирів.

Файли не містять жодного аналізу того, наскільки точною є система виявлення ШІ, проте в різні моменти її доводилося коригувати. “Виявлення об’єктів і виявлення поведінки, як правило, досить крихке і не є надійним”, – каже Лейфер з Access Now. В одному випадку система сповістила про те, що люди перебувають у недозволеній зоні, тоді як насправді машиністи поїзда виходили з нього. Сонячне світло, що потрапляло на камеру, також робило їх менш ефективними, йдеться в документах.

Тести також мали на меті з’ясувати, чи може штучний інтелект розпізнавати розкладені або нерозкладені велосипеди та самокати, які здебільшого заборонені в транспортній мережі. “ШІ не зміг відрізнити розкладений велосипед від звичайного, а електросамокат від дитячого”, – йдеться в документах.

Модель безквиткового проїзду також помічала дітей. “Під час шкільних поїздок ми спостерігали сплеск сповіщень про безквитковий проїзд батьків і дітей”, – йдеться в документах. Система була налаштована так, щоб не позначати людей, “чий зріст був нижчим за ворота”.

Спостереження в метро за пасажирами за допомогою ШІ відбуваеться не лише в Лондоні

В останні роки використання штучного інтелекту в громадських місцях для виявлення поведінки, пересування або ідентифікації людей зросло – часто під виглядом підходів “розумного міста”.

У липні минулого року з’явилася інформація про те, що на кількох станціях нью-йоркського метрополітену штучний інтелект відстежує безквитковий проїзд. У Лондоні TfL заявила в грудні, що розширить свої випробування з відстеження безквиткового проїзду на інші станції, хоча статус цих експериментів невідомий.

Багато з цих систем розробляються в умовах відсутності спеціальних законів, що регулюють їх використання, з попередженнями про регуляторний вакуум у Великобританії. “Нормалізація моніторингу на основі ШІ на транспортних вузлах – це слизька доріжка до стану стеження, і вона повинна бути предметом більшої прозорості та громадських консультацій”, – говорить Стоун з організації Big Brother Watch.

Лейфер попереджає, що як тільки ці системи почнуть використовуватися більш широко, їх завжди можна буде модернізувати. “Як тільки інфраструктура буде створена, буде абсолютно тривіально оновити те, що вона робить”, – каже він. “Це дійсно викликає занепокоєння, що можна було б додати до цих речей. Схил дуже слизький”.

Джерело: https://arstechnica.com/

Подібні новини