Algoritamske greške koje bi mogle da nas skupo koštaju
Tehnologija nije samo za gikove , već za sve nas. Samo šačica kompanija kao što su Apple, Amazon, Microsoft i Google imaju kontrolu nad našim novčanicima. Da li oni odluke donose samo ili je u ceo proces upleten neki algoritam koji im pomaže da bi doneli važne odluke?
U Oksfordskom Rečniku algoritam se definiše kao: „proces ili set pravila koje treba pratiti u proračunima ili u drugim operacijama koje rešavaju probleme, posebno kompjuterom.“ Savršen primer je Facebook Feed. Niko ne zna kako radi ili da li se neki vaši postovi pokazuju na News Feed-u nekih drugih ljudi ili ne. Ili na primer Amazon koji vam pokazuje preporučene knjige za vas nakon što ste jednu pogledali ili kupili. Ne zaboravite Google povezane pretrage. Međutim algoritmi nisu savršeni, oni umeju da nas iznevere i to spektakularno. U očima društvenih medija mala greška može brzo da se pretvori u noćnu moru kada se radi o odnosima sa javnošću.
Rasističke reklame namnjene određenoj grupi ljudi
ProPublca je izjavila da je Facebook dozvolio oglašivačima da svoje uvredljive reklame usmere na ljude poput, antisemista. Sajt je platio 30 dolara za reklamu koja je bila direktno upućena onima koji će pozitivno reagovati na ovakve stvari kao što su “zašto jevreji vode svet” i “Hitler nije ništa lose učinio.” Bilo je odobreno u roku od petnaest minuta.
Tako je sajt po imenu Slate pronašao da postoje slične uvredljive kategorije, što je postala još jedna stvar zbog koje se Facebook nije samo izvinjavao, nego je morao da povede računa o ljudima koji nadgledaju ovakve situacije u kompaniji. Setite se i da je dao reklame u vrednosti od 100.000 dolara za izbore u Rusiji. U jednom Facebook postu, izvršna direktorka Facebook-a Scheryl Sandbarg je rekle “zgađena sam i razočarana tim rečima” i najavila je promenu alatki za reklame. BuzzFeed je proverio kako bi se Google snašao sa istim stvarima i saznao je da je na Google-u još lakše namestiti ovakve reklame. Prema Daily Beast na Twitteru se često koriste izrazi “nazi”, “wetback,” i N reč (pogrdna reč za crnce).
Tesla Autopilot sudar
Mnoge algoritamske greške daleko od toga da su fatalne, ali u svetu autonomnuh vozila donose jedan drugi nivo opasnosti. To se već jednom dogodilo. Vlasnik Tesla automobila na autoputevima Floride koristio je Autopilot (polu-autonomni način vožnje) i udario je u prikolicu traktora.
Tesla je ubrzo izbacio update, ali da li je to bila krivica autopilota? Administracija za Nacionalni Bezbedni Saobraćaj Autoputem (The National Highway Traffic Safety Administration) kaže da verovatno nije pošto sistem zahteva od vozača da pazi ako iskrsne problem, kao što vidite u videu. Tesla sprečava da se Autopilot uključi ukoliko vozač prvo ne odgovori vizuelnim znacima koja mu kola daju i ispred sebe.
Microsoft i Tay rasistička veštačka inteligencija
Pre nekoliko godina, čet bot-ovi su trebali da preuzmu svet društvenih medija, zamenjujući pružanje usluge mušterijama i pretvarajući onlajn svet u jedno pričljivo mesto gde možete doći do informcija.
Microsoft je marta 2016. Lansirao Tay veštačku inteligenciju koja bi tveet-ovala masama, uglavnom usmerena na interakciju sa ljudima između 18-te i 24-te godine. Ali za manje od 24 sata, pošto je naučio dosta loših reči, Tay je postao rasista. Microsoft je odmah povukao Tay i vratili su ga kao AI sa novim imenom Zo decembra 2016, ovog puta su se pobrinuli da niko ne eksploatiše njihovu veštačku inteligenciju.
Čestitamo vam na vašoj nepostojećoj bebi
Ovo je napisala osoba kojoj je poslat ovaj mejl i dala je dozvolu da to bude objavljeno. On i njegova supruga su dobili ovaj mejl od Amazon-a u kome piše da je neko kupio nešto za nas iz odeljka za bebe. Mi još uvek nismo javno rekli da čekamo dete, ali nije bilo toliko ni šokantno.
U međuvremenu, nekoliko miliona drugih Amazon-ovih mušterija je dobilo istu poruku. U Amazon-u su shvatili šta se dešava i poslali su svima mejl u kome se svima izvinjavaju. Međutim, već je bilo kasno Amazon je bio zatrpan žalbama u kojima se kaže da su nepristojni i operisani od emocija. Ovde se radi manje o algoritmu a vise o serveru koji je bio u problemu.
Amazon “preporučuje” materijale za pravljenje bombi
Nakon što su svi videli vest o Amazon-u i njegovim preporukama za izgradnju bombe na UK Channel4 News, Fox News i The New York Times, svi su bili opsednuti Amazon-om. Navodno je pronađeno da Amazon-ci kupuju zajedno i da Amazon kaže šta je potrebno da bi napravili bombu, kada bi počeli sa jednim sastojkom , koji sajt nije hteo da imenuje (kalijum-nitrat).
Šta je Amazon-ov algoritam zapravo uradio? Pokazivao je kupcima sastojke crnog praha u malim količinama, što je legalno u Ujedinjenom Kraljevstvu i koristi se za različite stvari kao što je vatromet. Umesto toga, svi izveštaji govore o tome kako Amazon gleda na to i njegovu reakciju u svetu uplašenog od terorizma i takve logike.
Izvor: pcmag