AI та алгоритми все більше контролюют……
Компанії все частіше використовують алгоритми та штучний інтелект (AI), щоб проаналізувати величезну кількість даних, які вони вискакують про нас, щоб вирішити, на які фінансові продукти ми кваліфікуємо та скільки ми заплатимо за них.Ці складні інструменти використовуються банками під час прийняття рішень щодо кредитування, роботодавцями, які обстежують заявки на роботу, а в більшості штатів, а також компанії з авто та житловими людьми під час встановлення премії.
Якщо вони навчаються для забезпечення справедливості та точності, ШІ може розширити доступ до кредиту та зменшити дискримінацію, спричинену ухилом людини.Якщо ні, це може завдати величезної фінансової шкоди.
Наприклад, якщо AI заперечує вашу заявку на позику, ви не можете знати, чому було прийнято це рішення або які дані використовувались.
“За допомогою багатьох моделей AI та машинного навчання вони пишуть дані з соціальних медіа, використовуючи цифрові додатки на вашому телефоні, і ви не маєте уявлення про те, що в цій базі даних, яку вони мають”, – сказав Чак Белл, адвокат фінансової політики у звітах споживачів.”Це може бути навіть для якоїсь іншої людини, яка має подібне ім’я, і зовсім не ви”.
Більшість претендентів не мають уявлення, коли рішення приймається AI.І навіть якщо вони це зробили, процес прийняття рішень непрозорий, тому вони ніколи не дізнаються, які фактори розглядаються.Інструмент AI може зняти інформацію з Інтернету про заявника, який є неточним або абсолютно помилковим.
“Це проблема з чорною коробкою”,-сказала Сьюзен Вайнсток, генеральний директор неприбуткової федерації споживачів Америки.”Якщо є погані дані, ви збираєтесь отримувати дані про сміття”, – сказав Вайнсток у недавньому епізоді подкасту Consumerpedia Companybook.”І тоді споживач повністю на мить цих поганих даних. Регулятори можуть навіть не знати, що алгоритм є упередженим”.
Минулого року споживчі звіти та Федерація споживачів Americasent лист до бюро захисту споживачів, що “алгоритмічна дискримінація може виникати з багатьох джерел”, таких як “нерепрезентативні, неправильні або неповні дані про навчання, а також дані, що відображають історичні упередження”.Це могло б запобігти доступним кредитом споживачів кольорів та з низьким рівнем доходу споживачів.
Упередження можуть бути вбудовані в моделі AI під час процесу проектування, наприклад, коли “захищені характеристики”, такі як раса, неправильно використовуються безпосередньо або через проксі.
Наприклад, база даних, створена для інструменту кредитування, може включати поштові коди, які можуть здатися нейтральним фактором для розробника, але може слугувати проксі для раси, доходів, статі чи релігії.
“Коли у вас є дискримінація проксі, Белл пояснив:” Ви дискримінуєте захищений клас людей, які заслуговують на справедливе поводження, і ви навіть не дійсно звертаєте увагу на те, що вони постраждали від вашої моделі.І це по суті ситуація, яку ми маємо ».
AI та алгоритми все більше контролюют…
Часта книжка попросила Асоціацію AI, галузеву торговельну групу, коментувати це, але вона не відповідала на наші запити.
Проблеми споживачів
Опитування споживачів 2024 року, що більшість американців є “дещо незручними” або “дуже незручними” з рішенням AI, які приймають високі ставки щодо їхнього життя, такі як аналіз інтерв’ю з відеороликами (72 відсотки), обстеження потенційних орендарів (69 відсотків) та прийняття рішень щодо кредитування (66 відсотків).
Коли CR запитав про подання заявки на роботу з компанією, яка використовувала AI для прийняття рішень щодо найму, 83 відсотки сказали, що хотіли б знати, яку особисту інформацію використовувала програма для прийняття свого рішення, а 93 відсотки сказали, що хочуть отримати можливість виправити будь -яку неправильну особисту інформацію, на яку покладається інструмент найму AI.
Переважний дискомфорт, що дозволяє машинам приймати важливі фінансові рішення, може бути обґрунтованим.Дослідження показують, що AI може дати помилкові результати та посилювати шкідливі упередження.
Генеративні інструменти AI “несуть потенціал для інакше оманливих результатів”, – це спорт з Массачусетського технологічного інституту.Вони також виявили, що вони надають користувачам “виготовленими даними, які видаються справжніми”.Ці неточності “є настільки поширеними”, – зазначається у звіті: “Вони заробили власний монітор; ми називаємо їх” галюцинаціями “.”
Потрібні огородження
Прихильники споживачів кажуть, що вони вважають, що нові закони та правила необхідні для захисту споживачів від постійно зростаючого використання прийняття рішень AI.
“Нам потрібно вести розмову про те, як AI може бути справедливим та відповідальним, і використовувати таким чином, що допомагає споживачам, а не стримати їх”, – сказав CRE Check.”[Має бути] чітке розкриття, коли використовуються алгоритмічні інструменти, щоб споживач усвідомлював, що AI використовується. І ми хотіли б бачити, як люди зможуть звернутися до людини”, якщо алгоритм відкидає свої програми.
AI та алгоритми все більше контролюют…
Споживчі звіти хочуть державних та федеральних правил, які б регулювали, що повинні робити компанії, коли AI використовується для прийняття “наслідкових рішень” щодо споживача, наприклад, чи вони мають право на позику, вибираються для оренди квартир, отримають підвищення або бачать їх страхування …
поділитися в твіттері: AI та алгоритми все більше контролюют...