Батьківський нагляд: «штучний інтелект» використовується для оцінювання нянь на основі їхньої історії соціальних медіа

Зміст:

{title}

Коли Джессі Батталья почала шукати нову няньку для свого однорічного сина, вона хотіла отримати більше інформації, ніж вона могла б отримати від кримінальної перевірки, батьківських коментарів і особистого інтерв'ю.

Таким чином, вона звернулася до Predictim, онлайн-сервісу, який використовує "просунутий штучний інтелект" для оцінки особистості няні, і націлював свої сканери на тисячі Facebook, Twitter та Instagram.

  • Хочете знати, чому позбавлення сну відчуває себе як катування? Це тому, що це так
  • Реальність «дат ночі»: як це зробити насправді
  • Система запропонувала автоматизований "рейтинг ризику" 24-річного кандидата, заявивши, що вона "дуже низький ризик" бути наркоманом. Але це дало дещо вищу оцінку ризику - дві з п'яти - за знущання, домагання, "неповагу" і "погані відносини".

    Система не пояснила, чому вона прийняла це рішення. Але Батталья, який вважав, що ситтерна віра, раптом відчув сумніви.

    "Соціальні медіа показують характер людини", сказав 29-річний Батталія, який живе біля Лос-Анджелеса. - То чому ж вона прийшла на двох, а не на одного?

    Predictim пропонує батькам таку ж п'єсу, яку продають десятки інших технічних фірм роботодавцям по всьому світу: системи штучного інтелекту, які аналізують мовлення людини, міміку та історію онлайн з обіцянками розкрити приховані аспекти їхнього приватного життя.

    Технологія змінює те, як деякі компанії підходять до найму, найму та перегляду працівників, пропонуючи роботодавцям неперевершений погляд на кандидатів на роботу через нову хвилю інвазивної психологічної оцінки та спостереження.

    Технологічна фірма Fama каже, що використовує AI для соціальних медіа працівників поліції для "токсичної поведінки" і попереджає своїх босів. Фірма HireVue, яка працює з компаніями, такими як Geico, Hilton і Unilever, пропонує систему, яка автоматично аналізує тон заявника, вибір слова та рухи обличчя під час відео-інтерв'ю, щоб передбачити їхню майстерність і поведінку на роботі. (Кандидатам рекомендується посміхатися за найкращі результати.)

    Але критики кажуть, що Predictim і подібні системи представляють свої власні небезпеки, роблячи автоматизовані і, можливо, рішення, що змінюють життя, практично неперевірені.

    Системи залежать від алгоритмів «чорного ящика», які надають детальну інформацію про те, як вони зменшили складність внутрішнього життя людини до розрахунку чесноти або шкоди. І навіть якщо технологія Predictim впливає на мислення батьків, вона залишається повністю недоведеною, здебільшого незрозумілою і вразливою до тихої упередженості щодо того, як відповідна няня має ділитися, дивитися і говорити.

    Там це "божевільний поспіх скористатися владою AI зробити всі види рішень, не забезпечуючи його підзвітність людям", сказав Джефф Честер, виконавчий директор Центру цифрової демократії, група технічної адвокатури. "Це схоже на те, що люди випили цифрову Kool-Aid і думають, що це правильний спосіб керувати нашим життям".

    Прогнози Predictim аналізують всю історію соціальних медіа няні, які, для багатьох наймолодших ситтерів, можуть охопити більшу частину свого життя. І сестрам повідомляють, що вони будуть у великому мінусі для конкурентних робочих місць, якщо вони відмовляться.

    Керівник Predictim і співзасновник Sal Parsa повідомив, що компанія, запущена в минулому місяці як частина університету Каліфорнії в технологічному інкубаторі SkyDeck в Берклі, серйозно ставиться до етичних питань щодо використання цієї технології. Батьки, за його словами, повинні бачити рейтинги як супутника, який "може відображати чи не відображати реальні атрибути няні".

    Але небезпека найму проблемної або насильницької няні, додав він, робить AI необхідним інструментом для будь-якого батька, який сподівається зберегти його чи її дитину.

    "Якщо ви шукаєте образливих нянь на Google, ви побачите сотні результатів прямо зараз", - сказав він. "Там є люди, які або мають психічне захворювання, або просто народжені злим. Наша мета - зробити все, щоб ми могли їх зупинити".

    Сканування Predictim починається від $ 24, 99 і вимагає ім'я та адресу електронної пошти няні, а також її згоду на надання широкого доступу до її облікових записів соціальних медіа. Няня може відмовитися, але батько повідомляється про її відмову, і в електронному листі дитині повідомляють: "зацікавлений батько не зможе найняти вас, поки ви не завершите цей запит".

    Керівники компанії Predictim стверджують, що вони використовують алгоритми обробки мови та програмне забезпечення для розпізнавання зображень, відоме як "комп'ютерне бачення", щоб оцінити Facebook, Twitter і Instagram, щоб дізнатися про їхнє життя в автономному режимі. Батько надає звіт виключно і не зобов'язаний повідомляти дитині про результати.

    Батьки могли, мабуть, самі поглянути на власні рахунки соціальних медіа своїх ситтерів. Але згенеровані комп'ютером звіти обіцяють поглиблену перевірку років он-лайн діяльності, зводяться до однієї цифри: інтоксикаційно просте рішення непрактичного завдання.

    Оцінки ризиків поділяються на кілька категорій, включаючи явне зміст і зловживання наркотиками. Запуск також оголосив, що його система може оцінювати нянь на інші риси особистості, такі як ввічливість, здатність працювати з іншими і "позитивність".

    Компанія сподівається розширити багатомільярдний "батьківський аутсорсинг" і почала рекламувати через платне спонсорство батьківських і "мумієвих" блогів. Маркетинг компанії зосереджується на його здатності розкривати приховані таємниці та запобігати "кошмарам кожного батька", посилаючись на кримінальні справи, в тому числі і на няню Кентуккі, яку було нараховано раніше цього року з серйозною травмою восьмимісячної дівчини.

    "Якби батьки маленької дівчинки, поранені цією нянею, могли використовувати Predictim як частину свого процесу перевірки", - говорить компанія з маркетингу компанії, - вони ніколи б не залишили її наодинці зі своєю дорогоцінною дитиною ".

    Але технічні експерти кажуть, що система піднімає червоні прапори власних, включаючи побоювання, що вона полює на побоювання батьків продавати сканування особистості неперевіреної точності.

    Вони також ставлять під сумнів те, як навчаються системи і наскільки вони вразливі для того, щоб нерозуміти розмиті значення використання соціальних медіа. Для всіх сканувань, крім найвищого ризику, батькам дається лише припущення про сумнівну поведінку і відсутність конкретних фраз, посилань або деталей для оцінки самостійно.

    Коли сканування однієї няні позначалося за можливе знущання, невгамована мати, яка запитала, сказала, що вона не може сказати, чи виявило це програмне забезпечення стару цитату фільму, лірику пісні або іншу фразу, на відміну від реальної мови знущання.

    Але Predictim все ж каже, що він готується до загальнонаціональної експансії. Керівники компанії Sittercity, що є ринком онлайн-няні, яку відвідують мільйони батьків, повідомили, що вони починають пілотну програму на початку наступного року, яка складатиметься в автоматизованих рейтингах Predictim на поточний масив скринінгу та перевірок.

    "Пошук ситтера може прийти з великою невизначеністю", - сказала Сандра Дайнора, керівник продукту Sittercity, який вважає, що такі інструменти можуть незабаром стати "стандартною валютою" для пошуку вихователів онлайн. "Батьки завжди шукають найкраще рішення, самі дослідження, кращі факти".

    The Washington Post

    Попередня Стаття Наступна Стаття

    Рекомендації Для Мам‼