Real Reason Tech taistelee algoritmisen biasin kanssa


Ovatko koneet rasistisia? Ovatko algoritmit ja keinotekoinen äly luontaisesti ennakkoon? Onko Facebookilla, Googlella ja Twitterillä poliittisia puolueita? Nämä vastaukset ovat monimutkaisia.

Mutta jos kysymys on siitä, tekeekö teknologiateollisuus tarpeeksi vastatakseen näihin puolueisiin, suora vastaus on ei.

KÄYTTÖÖNPANO

NOIN

Yaël Eisenstat on entinen CIA: n upseeri, varapuheenjohtaja Bidenin kansallisen turvallisuusneuvonantaja ja ExxonMobilin CSR-johtaja. Hän oli vaalien eheysoperaatiot Facebookissa kesäkuusta marraskuuhun 2018.

Varoitukset siitä, että AI- ja koneen oppimisjärjestelmiä koulutetaan "huonojen tietojen" avulla, on runsaasti. Usein sanottu ratkaisu on varmistaa, että ihmiset kouluttavat järjestelmiä puolueettomilla tiedoilla, mikä tarkoittaa sitä, että ihmisten on vältettävä itseään. Mutta tämä tarkoittaisi sitä, että teknologiayritykset kouluttavat insinööreitään ja tietotieteilijöitään kognitiivisen puolueettomuuden ymmärtämisestä sekä siitä, miten "taistella" sitä. Onko kukaan pysähtynyt kyselemään, ymmärtävätkö ihmiset, jotka ruokkivat koneita, oikeastaan ​​mitä bias tarkoittaa?

Facebookin kaltaiset yritykset – entinen työnantaja – Google ja Twitter – ovat toistuvasti joutuneet hyökkäyksen kohteeksi erilaisille bias-kuormitetuille algoritmeille. Vastauksena näihin oikeutettuihin pelkoihin heidän johtajansa ovat vannoneet tekevänsä sisäisiä tarkastuksia ja väittävät, että ne vastustavat tätä eksponentiaalista uhkaa. Ihmiset eivät voi täysin välttää puolueellisuutta, sillä lukemattomat tutkimukset ja julkaisut ovat osoittaneet. Muuten vaatimus on älyllisesti epärehellinen ja laiska vastaus hyvin todelliseen ongelmaan.

Kuuden kuukauden aikana Facebookissa, jossa minut palkittiin globaalien vaalien johtajaksi, osallistuin lukuisiin keskusteluihin aiheesta. En tiennyt ketään, joka tahallisesti halusi sisällyttää puolueettomuutta työhönsä. Mutta en myöskään löytänyt ketään, joka tiesi, mitä tarkoitti torjua puolueettomuutta missään todellisessa ja menetelmällisesti.

Yli vuosikymmenen ajan työskentelemään CIA: n virkamiehenä kävi läpi kuukausien koulutuksen ja rutiininomaisen uudelleenkoulutuksen rakenteellisista menetelmistä oletusten tarkistamiseksi ja kognitiivisten puolueiden ymmärtämiseksi. Se on yksi tärkeimmistä taidoista, joita tiedusteluviranomainen voi kehittää. Analyytikoiden ja toimijoiden on karsittava kykyä testata oletuksia ja tehdä epämiellyttävä ja usein aikaa vievä työ, jossa arvioidaan tarkasti omia puolueettomia tapahtumia analysoitaessa. Niiden on myös tutkittava keräilijöille tietoa tarjoavien – varojen, ulkomaisten hallitusten, median, vastustajien – puolueet.

Tällainen koulutus on perinteisesti varattu niille aloille, jotka tarvitsevat kriittistä analyyttistä ajattelua, ja tietoni ja kokemukseni mukaan se on vähemmän yleistä teknisillä aloilla. Vaikka teknologiayrityksillä on usein pakollinen "hallitseva puolueellisuus" -koulutus, joka auttaa monimuotoisuutta ja osallisuutta koskevissa kysymyksissä, en nähnyt tällaista koulutusta kognitiivisen puolueettomuuden ja päätöksenteon alalla, varsinkin kun se liittyy siihen, miten tuotteet ja prosessit rakennetaan ja varmistetaan.

Joidenkin Facebook-kollegojeni ympärillä olevien ideoiden perusteella mikään niistä asioista, joita olin vuosia käyttänyt – strukturoidut analyyttiset tekniikat, punnitus todisteista, ei hyppääminen johtopäätöksiin, haastavat oletukset – olivat tavallisia käytäntöjä, vaikka se olisi ratkaistava niiden rakentamien tuotteiden todelliset seuraukset. "Liikkuvan nopean" kulttuuri on suurelta osin vastakkainen näille tekniikoille, koska ne vaativat hidastumista tärkeiden päätösten edessä.

Useat näennäisesti pienet, mutta Facebookin aikani esimerkkejä osoittavat, että nämä yritykset puuttuvat veneestä huolimatta hyvistä tarkoituksista. Valmistellessani vuoden 2018 Yhdysvaltojen puolivälin vaaleja, kysyimme tiimeiltämme, oliko olemassa vaara, että meitä syytetään varovaisuudesta, joka on varovainen poliittisissa mainoksissamme. Jotkut ehdottamista ratkaisuista osoittivat, että heillä ei ollut aavistustakaan siitä, miten todellisuudessa voitaisiin tunnistaa tai mitata puolueellisuutta. Eräs ohjelmapäällikkö ehdotti suoraa tietojen vertailua kuinka monta liberaalia tai konservatiivista mainosta hylättiin – mikään muu analyytikko tai PM ei merkinnyt tätä ongelmalliseksi. Selitykseni tämän ajatuksen luontaisista virheistä ei näyttänyt houkuttelevan heitä siitä, että tämä ei todellisuudessa osoittaisi puolueellisuutta.

Muissa harjoituksissa työntekijät kuvailevat joskus mainoksia omien luontaisten harhojensa perusteella. Yhdessä silmiinpistävässä esimerkissä osakkuusyhtiö luokitteli virheellisesti LGBT-mainoksen, jota konservatiivinen ryhmä käytti LGBT-vastaisena mainoksena. Kun huomautin, että hän oli antanut hänen olettamuksistaan ​​konservatiivisten ryhmien mielipiteistä LGBT-asioista aiheettoman väärän merkinnän, vastaukseni vastasi hiljaa ketjun alta. Nämä väärinkäytökset sisällytetään käsikirjoihin, jotka kouluttavat sekä ihmisen arvioijia että koneita.

Nämä ovat virheitä, kun yritetään tehdä oikein. Mutta ne osoittavat, miksi kouluttamattomien insinöörien ja tietotieteilijöiden tehtävien hoitaminen korjaavalla puolueellisuudella on laajemmalla tasolla naiivi ja johtajuustasolla epävarma.

Uskon, että monet Facebookin entiset työtoverit haluavat pohjimmiltaan tehdä maailmasta paremman paikan. Minulla ei ole epäilystäkään siitä, että he tuntevat olevansa rakentaneet tuotteita, jotka on testattu ja analysoitu varmistaakseen, etteivät ne säilytä kaikkein pahimpia ennakkoluuloja. Yhtiö on kuitenkin luonut omanlaisensa saarekupullon, jossa sen työntekijöiden käsitys maailmasta on useiden puolueettomuusmuotojen tulos, jotka on sisällytetty Piilaakson teknologia- ja innovaatiotoimintaan.

Juuri tästä syystä teknologiateollisuudessa on itse asiassa investoitava todellisiin kognitiivisiin harhakoulutuksiin ja annettava todellisille asiantuntijoille mahdollisuus käsitellä näitä kysymyksiä, toisin kuin kiihkeästi. Väärinkäytön torjuminen tekee työtä. Vaikka en usko, että yritykset asettavat työntekijöidensä samaan tiukkaan tiedusteluanalyytikkojen koulutukseen, tietoisuus heidän kognitiivisista rajoituksistaan ​​työpajojen ja koulutuksen avulla olisi yksi konkreettinen askel.

Viime vuonna, kun osallistuin työpajaan Ruotsissa, kouluttaja aloitti istunnon, jossa oli tyypillinen testi. Heti kun hän laittoi liukumäen ylös, tiesin, että kyseessä oli kognitiivinen harjoitus; minun aivoni salaavat löytää temppu. Silti kriittisen ajattelutaidon ja analyyttisen koskemattomuuden huolimatta olen vielä laskenut suoraan "kuviohinnoittelun" ansaan, jossa näemme malleja, joita odotamme nähdä. Niissä työpajoissa, jotka annoin muutama kuukausi myöhemmin New Yorkissa koulutetuille älykkyyden ja turvallisuusanalyytikoille, he myös kaikki lankesivat useiden puolueettomien ansojen vuoksi.

Ei ole väliä kuinka koulutettua tai ammattitaitoista voit olla, se on 100 prosenttia ihmistä luottaa kognitiiviseen puolueelliseen päätökseen. Daniel Khanemanin työ, jossa haastetaan ihmisen rationaalisuuden olettamuksia, muun käyttäytymistalouden ja heuristiikan teorioiden joukossa, ajaa kotiin sitä seikkaa, että ihmiset eivät pysty voittamaan kaikkia puolueellisuutta. Mutta hidastaa ja oppia, mitä nämä ansat ovat – sekä miten tunnistaa ja haastaa heidät – on kriittinen. Koska ihmiset jatkavat koulutusta malleihin kaikesta siitä, miten vihamielinen puhuminen verkosta päättyy, ja poliittisen mainonnan merkitseminen oikeudenmukaisempaan ja oikeudenmukaisempaan palkkaamiseen ja edistämiseen, tällainen työ on ratkaisevan tärkeää.

Liiallinen riippuvuus datasta – joka sinänsä on saatavuusprofiilin tuote – on suuri osa ongelmaa. Facebookissa ollessani olin turhautunut siitä, että välitöntä hypätä "tietoihin" ratkaisuna kaikkiin kysymyksiin. Tämä impulssi varjossi usein välttämättömän kriittisen ajattelun varmistaakseen, että toimitettuja tietoja ei häirinnyt vahvistus, kuvio tai muut kognitiiviset puolueet.

Ei ole aina olemassa tiukkaa tietopohjaista vastausta ihmisen luontoon. Usko, että tietokokonaisuuden yksinkertainen ratkaiseminen ratkaisee jokaisen haasteen ja jokaisen biasin, on ongelmallista ja likinäköistä. Algoritmisen, kone- ja AI-virheen torjumiseksi ihmisen älykkyys on sisällytettävä ratkaisuihin, toisin kuin ns.

Vaikka on olemassa myönteisiä merkkejä siitä, että teollisuus etsii todellisia ratkaisuja, kuten IBM Researchin työtä syrjinnän vähentämiseksi jo koulutussarjassa, tällaiset toimet eivät ratkaise ihmisen luonnetta. Jotkin ehdotetuista korjauksista sisältävät algoritmien tarkistamisen tai koneisiin syötettävien tietojen päivittämisen. Mutta ihmiset ovat edelleen kehittämässä taustalla olevia järjestelmiä. Yritetään välttää puolueettomuutta ilman selkeää ymmärrystä siitä, mitä todella tarkoittaa, epäonnistuu.

WIRED-lausunto julkaisee ulkopuolisten tekijöiden kirjoittamia kappaleita ja edustaa monenlaisia ​​näkökulmia. Lue lisää mielipiteitä täältä. Lähetä op-editori osoitteeseen Opinion@wired.com


Lisää suuria WIRED-tarinoita