Algoritamske greške koje bi mogle da nas skupo koštaju

Tehnologija nije samo za gikove , već za sve nas. Samo šačica kompanija kao što su Apple, Amazon, Microsoft i Google imaju kontrolu nad našim novčanicima. Da li oni odluke donose samo ili je u ceo proces upleten neki algoritam koji im pomaže da bi doneli važne odluke?

U Oksfordskom Rečniku algoritam se definiše kao: „proces ili set pravila koje treba pratiti u proračunima ili u drugim operacijama koje rešavaju probleme, posebno kompjuterom.“ Savršen primer je Facebook Feed. Niko ne zna kako radi ili da li se neki vaši postovi pokazuju na News Feed-u nekih drugih ljudi  ili ne. Ili na primer Amazon koji vam pokazuje preporučene knjige za vas nakon što ste jednu pogledali ili kupili. Ne zaboravite Google povezane pretrage. Međutim algoritmi nisu savršeni, oni umeju da nas iznevere i to spektakularno.  U očima društvenih medija mala greška može brzo da se pretvori u noćnu moru kada se radi o odnosima sa javnošću.

Rasističke reklame namnjene određenoj grupi ljudi

ProPublca je izjavila da je Facebook dozvolio oglašivačima da svoje uvredljive reklame usmere na ljude poput, antisemista. Sajt je platio 30 dolara za reklamu koja je bila direktno upućena onima koji će pozitivno reagovati na ovakve stvari kao što su “zašto jevreji vode svet” i “Hitler nije ništa lose učinio.” Bilo je odobreno u roku od petnaest minuta.

Pročitajte i:  Veštačka inteligencija stiže u vinograde

Tako je sajt po imenu Slate pronašao da postoje slične uvredljive kategorije, što je postala još jedna stvar zbog koje se Facebook nije samo izvinjavao, nego je morao da povede računa o ljudima koji nadgledaju ovakve situacije u kompaniji. Setite se i da je dao reklame u vrednosti od  100.000 dolara za izbore u Rusiji. U jednom Facebook postu, izvršna direktorka Facebook-a Scheryl Sandbarg je rekle “zgađena sam i razočarana tim rečima” i najavila je promenu alatki za reklame. BuzzFeed je proverio kako bi se Google snašao sa istim stvarima i saznao je da je na Google-u još lakše namestiti ovakve reklame. Prema Daily Beast na Twitteru se često koriste izrazi “nazi”, “wetback,” i N reč (pogrdna reč za crnce).

Tesla Autopilot sudar

Mnoge algoritamske greške daleko od toga da su fatalne, ali u svetu autonomnuh vozila donose jedan drugi nivo opasnosti. To se već jednom dogodilo. Vlasnik Tesla automobila na autoputevima Floride koristio je Autopilot (polu-autonomni način vožnje) i udario je u prikolicu traktora.

Tesla je ubrzo izbacio update, ali da li je to bila krivica autopilota? Administracija za Nacionalni Bezbedni Saobraćaj Autoputem  (The National Highway Traffic Safety Administration) kaže da verovatno nije pošto sistem zahteva od vozača da pazi ako iskrsne problem, kao što vidite u videu. Tesla sprečava da se Autopilot uključi ukoliko vozač prvo ne odgovori vizuelnim znacima koja mu kola daju i ispred sebe.

Pročitajte i:  Kindle i anotacije: Kako da unapredite iskustvo čitanja e-knjiga

Microsoft i Tay rasistička veštačka inteligencija

Pre nekoliko godina, čet bot-ovi su trebali da preuzmu svet društvenih medija, zamenjujući  pružanje usluge mušterijama i pretvarajući onlajn svet u jedno pričljivo mesto gde možete doći do informcija.

Microsoft je marta 2016. Lansirao Tay veštačku inteligenciju koja bi tveet-ovala masama, uglavnom usmerena na interakciju sa ljudima između 18-te i 24-te godine. Ali za manje od 24 sata, pošto je naučio dosta loših reči, Tay je postao rasista. Microsoft je odmah povukao Tay i vratili su ga kao AI sa novim imenom Zo decembra 2016, ovog puta su se pobrinuli da niko ne eksploatiše njihovu veštačku inteligenciju.

Čestitamo vam na vašoj nepostojećoj bebi

Ovo je napisala osoba kojoj je poslat ovaj mejl i dala je dozvolu da to bude objavljeno. On i njegova supruga su dobili ovaj mejl od Amazon-a u kome piše da je neko kupio nešto za nas iz odeljka za bebe. Mi još uvek nismo javno rekli da čekamo dete, ali nije bilo toliko ni šokantno.

Pročitajte i:  Novi Tesla kamion kao vozilo iz budućnosti

U međuvremenu, nekoliko miliona drugih Amazon-ovih mušterija je dobilo istu poruku. U Amazon-u su shvatili šta se dešava i poslali su svima mejl u kome se svima izvinjavaju. Međutim, već je bilo kasno Amazon je bio zatrpan žalbama u kojima se kaže da su nepristojni i operisani od emocija. Ovde se radi manje o algoritmu a vise o serveru koji je bio u problemu.

Amazon “preporučuje” materijale za pravljenje bombi

Nakon što su svi videli vest o Amazon-u i njegovim preporukama za izgradnju bombe  na UK Channel4 News, Fox News i The New York Times, svi su bili opsednuti Amazon-om. Navodno je pronađeno da Amazon-ci kupuju zajedno i da Amazon kaže šta je potrebno da bi napravili bombu, kada bi počeli sa jednim sastojkom , koji sajt nije hteo da imenuje (kalijum-nitrat).

Šta je Amazon-ov algoritam zapravo uradio? Pokazivao je kupcima sastojke crnog praha u malim količinama, što je legalno u Ujedinjenom Kraljevstvu i koristi se za različite stvari kao što je vatromet. Umesto toga, svi izveštaji govore o tome kako Amazon gleda na to i njegovu reakciju u svetu uplašenog od terorizma i takve logike.

Izvor: pcmag

Facebook komentari: