Сьогодні очевидно, що чим більше ми використовуємо технологію штучного інтелекту (AI), як-от ChatGPT, тим розумнішою та, здавалося б, самозабезпеченнішою вона стає. І, на жаль, з цими досягненнями також підвищується ризик упередженості ШІ. Стає все більш очевидним, що, як і люди, боти можуть розвивати упередження, пов’язані з різними демографічними ознаками, такими як раса, стать, сексуальність та інвалідність.
Іншими словами, на штучний інтелект можуть впливати наші особисті упередження та навчена поведінка, незалежно від того, наскільки несвідомими або прихованими ці упередження можуть бути.
Це Алгоритм
Алгоритми зазвичай розробляються для вирішення конкретної проблеми або завдання. Одним із основних кроків у розробці алгоритму є збір і розуміння даних. Хоча це може здатися досить простим, щоб намітити процес, який створює рішення, завжди будуть нюанси.
Однією з суттєвих проблем у розробці чесних алгоритмів штучного інтелекту є відсутність доступу до даних, що стосуються маргіналізованих спільнот і груп населення. Алгоритм сам по собі не є упередженим; це дані, які ми їм надаємо. Без належних даних певні групи населення будуть недостатньо представлені, що призведе до викривлення даних, помилкової прогнозної аналітики та потенціалу для алгоритмічної дискримінації.
Після того, як алгоритм розроблено, його слід перевірити всередині компанії та перевірити, можливо, сторонньою організацією. Після впровадження алгоритму його необхідно постійно контролювати протягом усього життєвого циклу, особливо якщо вашій команді бракує необхідної різноманітності та альтернативних точок зору для вирішення проблем.
Це дані
Іншим поясненням упередженості штучного інтелекту є використання неповних та/або неточних даних. Щоб уникнути ненавмисної упередженості, потрібні вичерпні дані. Збір даних і методи обробки даних повинні бути репрезентативними для всіх груп населення, щоб забезпечити більш інклюзивний досвід і справедливі результати моделі ШІ. Наприклад, встановити які дані використовуються для навчання моделі? Алгоритмічне зміщення, зміщення набору даних і когнітивне зміщення – це лише деякі випадки, які можуть призвести до дискримінаційних результатів, якщо доступ до відповідних даних обмежений.
Хоча люди знають про проблему упередженості штучного інтелекту, боротися з нею не є простим чи єдиним завданням. Основним прикладом упередженості в ШІ є розпізнавання обличчя, яке виявилося найменш точним біометричним показником, який використовується для ідентифікації. Відоме дослідження, проведене ProPublica у 2016 році, прийшло до висновку, що алгоритм штучного інтелекту, який використовувався в той час для прогнозування рецидивів серед обвинувачених, за своєю суттю був упереджений проти темношкірих людей.
Тим не менш, алгоритмічна дискримінація є найчастішою проблемою, яка впливає на набори даних. Чи надані дані прозорі? Чи брак різноманітності у вашій компанії негативно впливає на дані, які ви використовуєте? Якщо це так, запит на відгук сторонніх зацікавлених сторін може допомогти протистояти упередженості.
Це ми
У процесі прийняття рішень щодо даних особисті та культурні упередження, а також базова суб’єктивність можуть бути надзвичайно непомітними. Це одна з причин того, що використання різноманітної команди з багатьма різними досвідом і точками зору є таким критичним. Недостатньо представлені люди можуть визначити упередження, про які інші люди можуть не знати.
Інфографіка зрілості зміщення даних у різних компаніях. Джерело: видання «Прогрес».
Джерело: «Зміщення даних: прихований ризик штучного інтелекту», Progress
У недавньому інтерв’ю BetaNews Метьє Жонглез, віце-президент із технологій у програмній компанії Progress, вказав на дослідження, які показують, що дві третини організацій вважають, що в їхніх процесах наразі є упередженість даних. Деякі з його пропозицій щодо зменшення цієї упередженості полягають у створенні більш надійної політики щодо даних, а також механізмів вимірювання упередженості. Джонґлез також рекомендує впровадити прозорість у все використання штучного інтелекту, оскільки «прозорість — це протиотрута від упередженості».
Людські упередження, від когнітивних упереджень до категоризації, ніколи не будуть повністю викорінені з ШІ. Але є низка захисних заходів, які можуть допомогти, включаючи різноманітність компанії; справедливі дані; і впровадження більш продуманого процесу, пов’язаного з використанням технологій ШІ.
Зрештою, штучний інтелект навчається за допомогою наших несвідомих упереджень і моделей мислення та реагує відповідно. І лише ми можемо це виправити…