Vecāku vadība: “mākslīgais intelekts”, ko izmanto, lai novērtētu aukles, pamatojoties uz viņu sociālo mediju vēsturi
Kad Jessie Battaglia sāka meklēt jaunu bērnu auklīti viengadīgajam dēlam, viņa vēlējās iegūt vairāk informācijas, nekā viņa varēja saņemt no kriminālpārbaudes, vecāku komentāriem un tiešas intervijas.
Tāpēc viņa vērsās pie Predictim, tiešsaistes pakalpojuma, kas izmanto "uzlaboto mākslīgo intelektu", lai novērtētu aukles personību, un vērsa skenerus pie viena kandidāta tūkstošiem Facebook, Twitter un Instagram amatu.
Sistēma piedāvāja 24 gadus veca kandidāta automatizētu "riska novērtējumu", norādot, ka viņai ir "ļoti zems risks" būt par narkotiku lietotāju. Bet tas sniedza nedaudz augstāku riska novērtējumu - divas no piecām - par iebiedēšanu, uzmākšanos, "necienīgu" un "sliktu attieksmi".
Sistēma nepaskaidroja, kāpēc tā bija pieņēmusi šo lēmumu. Bet Battaglia, kas ticēja, ka bērns bija uzticams, pēkšņi izjutās par šaubām.
"Sociālie mediji parāda cilvēka raksturu, " sacīja Battaglia, 29 gadi, kas dzīvo pie Losandželosas. "Tātad, kāpēc viņa ieradās divās, nevis vienā?"
Predictim piedāvā vecākiem tādu pašu izskatu, ka desmitiem citu tehnoloģiju uzņēmumu pārdod darba devējiem visā pasaulē: mākslīgā intelekta sistēmas, kas analizē cilvēka runu, sejas izteiksmes un tiešsaistes vēsturi ar solījumiem atklāt slēptos privātās dzīves aspektus.
Šī tehnoloģija pārveido to, kā daži uzņēmumi vēršas pie darbinieku pieņemšanas darbā, iznomāšanas un pārskatīšanas, piedāvājot darba devējiem nepārspējamu darba kandidātu izskatu, izmantojot jaunu invazīvā psiholoģiskā novērtējuma un uzraudzības viļņu.
Tehnoloģiju firma Fama saka, ka tā izmanto AI, lai policijas darbiniekiem sniegtu sociālos medijus "toksiskai uzvedībai" un brīdinātu viņu priekšniekus. Un darbā pieņemšanas tehnoloģiju uzņēmums HireVue, kas strādā ar tādiem uzņēmumiem kā Geico, Hilton un Unilever, piedāvā sistēmu, kas automātiski analizē pieteikuma iesniedzēju toni, vārdu izvēli un sejas kustības video interviju laikā, lai prognozētu viņu prasmes un izturēšanos darbā. (Kandidāti tiek aicināti smaidīt labākos rezultātus.)
Bet kritiķi saka, ka Predictim un līdzīgas sistēmas uzrāda savas briesmas, padarot automatizētus un, iespējams, dzīvības maiņas lēmumus praktiski nekontrolētus.
Sistēmas ir atkarīgas no melnās kastes algoritmiem, kas sniedz maz informācijas par to, kā viņi samazina cilvēka iekšējās dzīves sarežģītību tikumības vai kaitējuma aprēķinā. Un, tā kā Predictim tehnoloģija ietekmē vecāku domāšanu, tas joprojām ir pilnīgi nepierādīts, lielā mērā neizskaidrojams un neaizsargāts pret klusām aizspriedumiem par to, kā atbilstošam auklītei vajadzētu dalīties, izskatīties un runāt.
Ir šis "traks skriešanās, lai izmantotu AI spēku, lai padarītu visu veidu lēmumus, nenodrošinot, ka tas ir atbildīgs cilvēku priekšā", teica Jeff Chester, Tehniskās aizstāvības grupas Digitālās demokrātijas centra izpilddirektors. "Tas ir tāpat kā cilvēki, kas dzēruši digitālo Kool-Aid, un domāju, ka tas ir piemērots veids, kā pārvaldīt mūsu dzīvi."
Predikta skenē analizē bērnu auklīšu sociālo mediju vēsturi, kas daudziem no jaunākajiem sēžējiem var aptvert lielāko daļu savas dzīves. Un sitters ir teicis, ka viņi būs lielā mērā neizdevīgā situācijā attiecībā uz konkurētspējīgām darbavietām, ja tās atteiksies.
Predictima galvenais un līdzdibinātājs Sal Parsa teica, ka uzņēmums, kas pagājušajā mēnesī tika uzsākts Kalifornijas Universitātes Berkelejas SkyDeck tehnoloģiju inkubatorā, nopietni uztver ētiskus jautājumus par tehnoloģijas izmantošanu. Viņš teica, ka vecākiem ir jāredz reitingi kā pavadonis, kas "var vai nevar atspoguļot vērtētāja faktiskās atribūtus."
Bet viņš piebilda, ka, pieņemot darbā problemātisku vai vardarbīgu aukle, AI ir nepieciešams instruments jebkuram no vecākiem, kas vēlas saglabāt savu bērnu.
"Ja Google meklējat ļaunprātīgus bērnu aukles, šobrīd jūs redzēsiet simtiem rezultātu, " viņš teica. "Tur ir cilvēki, kuriem ir psihiskas slimības vai tikko dzimuši ļaunums. Mūsu mērķis ir darīt visu, ko mēs varam, lai tos apturētu."
Predictim skenēšana sākas ar 24, 99 ASV dolāriem, un tai ir nepieciešams aukles vārds un e-pasta adrese, kā arī viņas piekrišana dalīties plašā piekļuvē viņas sociālo mediju kontiem. Aukle var atteikties, bet vecākam tiek paziņots par viņas atteikumu, un e-pastā bērnam ir teikts: "ieinteresētais vecāks nevarēs jūs pieņemt darbā, līdz jūs pabeigsiet šo pieprasījumu."
Predictim vadītāji apgalvo, ka lieto valodu apstrādes algoritmus un attēla atpazīšanas programmatūru, kas pazīstama kā "datora vīzija", lai novērtētu aukleņu Facebook, čivināt un Instagram ziņas, lai iegūtu informāciju par viņu bezsaistes dzīvi. Vecākam tiek sniegts ziņojums tikai un tam nav jāsniedz rezultāti.
Iespējams, vecāki paši varētu aplūkot viņu sēdētāju publisko sociālo mediju kontus. Bet datorizēti ziņojumi sola padziļinātu tiešsaistes darbības gadu pārbaudi, kas uzkrāta līdz vienai ciparam: neticami vienkāršs risinājums nepraktiskam uzdevumam.
Riska novērtējumi ir iedalīti vairākās kategorijās, ieskaitot skaidru saturu un narkotiku lietošanu. Sākotnēji ir arī reklamējuši, ka tās sistēma var novērtēt aukles par citām personības iezīmēm, piemēram, pieklājību, spēju strādāt ar citiem un "pozitivitāti".
Uzņēmums cer atbalstīt vairāku miljardu dolāru "vecāku ārpakalpojumu" nozari un ir sācis reklāmu ar apmaksātu sponsorēšanu vecākiem un "māmiņa" emuāriem. Uzņēmuma mārketings lielā mērā koncentrējas uz spēju atklāt slēptos noslēpumus un novērst "katra vecāka murgu", atsaucoties uz krimināllietām, tostarp Kentuki auklei, kas šogad iekasēta, nopietni ievainojot astoņu mēnešu vecu meiteni.
"Ja šīs aukles bērna meitenes vecāki spētu izmantot Predictim kā daļu no viņu pārbaudes procesa, " saka uzņēmuma mārketinga dokuments: "viņi nekad nebūtu viņu atstājuši ar savu dārgo bērnu."
Bet tehnoloģiju eksperti saka, ka sistēma rada savas sarkanās karodziņus, tostarp rūpes par to, ka vecāku bailes ir pārdot personības skenēšanu ar nepārbaudītu precizitāti.
Viņi arī šaubās par to, kā tiek apmācītas sistēmas un cik neaizsargātas tās varētu būt nepareizas izpratnes par sēdētāju sociālo mediju izmantošanu. Visiem, izņemot visaugstākā riska skenēšanu, vecākiem tiek dots tikai apšaubāms uzvedības ieteikums un nekādas konkrētas frāzes, saites vai detaļas, lai novērtētu to pašu.
Kad viens aukles skenējums tika atzīmēts ar iespējamu iebiedēšanu, necietīgā māte, kas to lūdza, teica, ka nevarēja pateikt, vai programmatūra ir pamanījusi vecu filmu citātu, dziesmu dziesmu vai citu frāzi, nevis pretrunā ar aktuālo valodu.
Bet Predictim tomēr saka, ka tā gatavojas valsts mēroga paplašināšanai. Sittercity, tiešsaistes bērnu auklīšu tirgus, ko apmeklēja miljoniem vecāku, vadītāji teica, ka nākamā gada sākumā sāk īstenot izmēģinājuma programmu, kas Predictim automatizētajos reitingos iekļausies pašreizējā sitter skatu un fona pārbaužu masīvā.
"Meklētāja atrašana var nākt ar lielu nenoteiktību, " sacīja Sittercity produktu vadītājs Sandra Dainora, kas uzskata, ka tādi rīki drīz kļūs par "standarta valūtu", lai atrastu aprūpētājus tiešsaistē. "Vecāki vienmēr meklē vislabāko risinājumu, visvairāk pētījumu, labākos faktus."
The Washington Post