"Кодування тих самих упереджень": Обмеження штучного інтелекту у відповіді на коронавірус

По мірі того, як пандемія коронавірусу триває, соціально-економічні наслідки раси та статі при зараженні COVID-19 та смерті від нього оголюються. Штучний інтелект (ШІ) відіграє ключову роль у реагуванні, але це може також посилити нерівність у наших системах охорони здоров'я - критична проблема, яка тягне обмеження технології назад у центр уваги.

упереджень

Реакція на кризу багато в чому опосередкована даними - вибух інформації, що використовується алгоритмами ШІ для кращого розуміння та вирішення проблеми COVID-19, включаючи відстеження поширення вірусу та розробку терапевтичних втручань.

ШІ, як і його виробник, не захищений від упередженості. Технологія, загалом розроблена для перетравлення великих обсягів даних та відрахувань на підтримку прийняття рішень, відображає забобони людей, які її розробляють, і подає їй інформацію, яку вона використовує для виведення результатів. Наприклад, кілька років тому, коли Amazon розробив інструмент штучного інтелекту, який допомагає класифікувати кандидатів на роботу, навчаючись на минулих робочих місцях, система імітувала гендерні упередження виробників, знижуючи резюме жінок.

"Ми спостерігали, як ШІ широко використовувались до COVID-19, а під час COVID-19 ви спостерігаєте збільшення використання деяких типів інструментів", - зазначила Мередіт Віттакер, видатний науковий співробітник Нью-Йоркського університету в США та співзасновник Інституту AI Now, який проводить дослідження з вивчення соціальних наслідків ШІ.

Інструменти моніторингу, щоб стежити за працівниками, що працюють вдома, та освітні інструменти, які стверджують, що виявляють, чи обманюють студенти на іспитах, стають все більш поширеними. Але Уітакер каже, що більша частина цієї технології не перевірена - і деякі з них виявилися недосконалими. Однак це не завадило компаніям продавати свою продукцію як ліки від побічної шкоди, заподіяної пандемією, додає вона.

Наприклад, у США на компактному медичному приладі, який називається пульсоксиметром, призначеному для вимірювання рівня кисню в крові, на його крихітних екранах були приклеєні деякі пацієнти з коронавірусом, щоб вирішити, коли йти до лікарні, на додаток до його використання лікарі для допомоги у прийнятті клінічних рішень у лікарнях.

Однак спосіб роботи пристрою схильний до расових упереджень і, ймовірно, був відкалібрований для користувачів зі світлою шкірою. Ще в 2005 році дослідження остаточно показало, що пристрій "здебільшого має тенденцію завищувати рівні насичення (киснем) на кілька пунктів" для небілих людей.

Проблема з імпульсним оксиметром була відома десятки років і не була вирішена виробниками, каже Уітакер. "Але, навіть незважаючи на це, ці інструменти використовуються, вони виробляють дані, і ці дані продовжують формувати діагностичні алгоритми, які використовуються в охороні здоров'я. І так, бачите, навіть на рівні того, як працюють наші системи штучного інтелекту побудовані, вони кодують однакові упередження та однакові історії расизму та дискримінації, які так чітко демонструються в контексті COVID-19 ".

Тим часом, оскільки накопичується маса доказів того, що кольорові люди частіше помирають від інфекцій COVID-19, ця різноманітність не обов’язково відображається в масиві клінічних випробувань, які охрестили для розробки ліків та вакцин - тривожної моделі, яка давно передувала пандемія. Що стосується гендерної різноманітності, нещодавній огляд показав, що з 927 досліджень, пов’язаних з COVID-19, більше половини явно виключили вагітність, а вагітні жінки взагалі були виключені з досліджень вакцин.

Результати продуктів у цих клінічних випробуваннях не обов'язково будуть репрезентативними для населення, зазначає Кателіне Мюллер, член групи експертів високого рівня ЄС з питань ШІ та співзасновник організації ALLAI, спрямованої на сприяння розвитку відповідального ШІ.

"І якщо ви потім використаєте ці результати для забезпечення алгоритму ШІ для майбутніх прогнозів, ці люди також матимуть недолік у цих моделях прогнозування", - сказала вона.

Проблема із використанням технології ШІ в контексті COVID-19 не відрізняється від питань упередженості, яка переслідувала цю технологію до пандемії: якщо ви подасте упереджені дані технології, це призведе до упереджених результатів. Дійсно, існуючі широкомасштабні системи штучного інтелекту також відображають відсутність різноманітності середовища, в якому вони побудовані, і людей, які їх побудували. Це майже виключно кілька технологічних компаній та елітарних університетських лабораторій - простори, які на Заході, як правило, надзвичайно білі, заможні, технічно орієнтовані та чоловічі ", - йдеться у звіті Інституту AI Now за 2019 рік.

Але технологія - це не просто відображення виробників - ШІ також посилює їх упередження, каже Уітакер.

"Одна людина може мати упередження, але вони не масштабують ці упередження до мільйонів і мільярдів рішень", - сказала вона. "Тоді як система ШІ може кодувати упередження людини, а потім може розповсюджувати такі способи, що мають набагато більший вплив".

Що ще більше ускладнює ситуацію, є проблеми з упередженням автоматизації, додає вона. "Існує тенденція, що люди більше довіряють рішенню, яке приймає комп'ютер, ніж ті, хто приймає те саме рішення, якщо його прийняла людина. Отже, нам слід стежити за тим, як відмивають системи ШІ ці упередження і роблять їх суворими та науковими, і це може призвести до того, що люди будуть менш охочі ставити під сумнів рішення, прийняті цими системами ".

Немає чіткого консенсусу щодо того, що зробить технологію ШІ масово відповідальною та безпечною, кажуть експерти, хоча дослідники починають домовлятися про такі корисні кроки, як справедливість, зрозумілість та надійність.

Першим кроком є ​​запитання "нульового питання", за словами Мюллера: в чому моя проблема і як я можу її вирішити? Я вирішую її за допомогою штучного інтелекту або за допомогою чогось іншого? Якщо з AI, чи достатньо це додаток? Чи це шкодити основним правам?

"Ми бачимо, що багато людей думають, що іноді ШІ - це свого роду чарівна паличка ... і він начебто вирішить все. Але іноді це нічого не вирішує, тому що не підходить для проблеми. Іноді це настільки інвазивно, що може вирішити одну проблему, але створити велику, іншу проблему ".

Коли мова заходить про використання ШІ в контексті COVID-19 - відбувається виверження даних, але ці дані повинні бути надійними та оптимізованими, говорить Мюллер.

"Дані не можна просто кидати на інший алгоритм", - сказала вона, пояснивши, що алгоритми працюють шляхом пошуку співвідношень. "Вони не розуміють, що таке вірус".

Проблеми справедливості щодо ШІ демонструють упередженість у прийнятті рішень людьми, за словами доктора Едріана Веллера, директора програми ШІ в Інституті Алана Тьюрінга у Великобританії. Неправильно вважати, що не використання алгоритмів означає, що все буде добре, говорить він.

У цих системах є така надія та хвилювання, оскільки вони працюють послідовніше та ефективніше, ніж люди, але їм бракує понять здорового глузду, міркувань та контексту, де люди набагато кращі, говорить Веллер.

Підзвітність

Якщо люди більше беруть участь у процесі прийняття рішень, це один із способів забезпечити підзвітність програм ШІ. Але з’ясування того, ким має бути ця людина чи особи, має вирішальне значення.

"Просто розміщення людини десь у процесі не гарантує гарного рішення", - сказав Віттакер. Є такі питання, як, на кого ця людина працює, і які стимули вони працюють, на які потрібно звертати увагу, говорить вона.

"Я думаю, нам потрібно дійсно звузити цю широку категорію" людина "і подивитися на те, хто і з якою метою".

Людський нагляд може бути включений різними способами для забезпечення прозорості та пом'якшення упередженості, пропонують Мюллер та колеги ALLAI у звіті, в якому аналізується пропозиція, над якою працюють регулятори ЄС щодо регулювання застосувань ШІ з високим рівнем ризику, таких як використання у вербуванні, біометричне визнання або при розгортанні охорони здоров'я.

Сюди входять аудит кожного циклу прийняття рішень в системі ШІ, моніторинг роботи системи, вирішення питання про те, коли і як використовувати систему в будь-якій конкретній ситуації, і можливість замінити рішення, прийняте системою.

Для Віттейкера останні події, такі як готовність регуляторів ЄС регулювати програми, що стосуються "високого ризику", або організація громад в США, що призводить до заборони на технологію розпізнавання обличчя, обнадіює.

"Я думаю, що нам потрібно більше того самого ... щоб гарантувати, що ці системи перевіряються, щоб ми могли перевірити їх, щоб забезпечити демократичний контроль, і щоб люди мали право відмовитись від використання цих систем".

Мередіт Віттакер та Кейтлейн Мюллер виступатимуть на панелі, на якій будуть обговорюватися проблеми упередженості статі та етнічної приналежності у сфері штучного інтелекту на конференції Європейських днів досліджень та інновацій, яка відбудеться в Інтернеті з 22 по 24 вересня.