Umelá inteligencia (AI) si získava pozornosť médií tým, ako poráža ľudských šampiónov v šachu a v čínskej hre Go. Potichu však vstupuje do našich životov vo forme virtuálnych hlasových asistentiek, autonavigácií či nákupných odporúčaní v e-shopoch. Ešte užitočnejšia je kdesi na pozadí – už dnes organizáciám pomáha od výpočtu rizikovosti pôžičiek cez medicínske diagnózy až po sčítanie chodcov.

Všetky tieto veci sú užitočné, no zároveň sa spájajú s istými obavami týkajúcimi sa napríklad predsudkov algoritmov AI či ochrany súkromia. Veď aj vy ste už možno počuli o tom, ako má AI problém rozpoznávať tváre Ázijcov či ako firmám podchvíľou unikajú osobné údaje. Medzi nové výzvy, ktoré umelá inteligencia priniesla, preto patria aj riziká neúmyselnej diskriminácie v dôsledku neférových rozhodnutí a napríklad aj informovanosť zákazníkov o tom, že sa AI podieľa na dôležitých či citlivých rozhodnutiach o nich samotných. Veľkým problémom algoritmov AI je aj to, že nevieme pochopiť a už vôbec nie popísať ako sa rozhodujú.

Na Slovensku debata o úskaliach AI zatiaľ úplne chýba.Aj vo svete však veľa veľkých otázok zostáva nezodpovedaných a niektoré, azda ešte väčšie, sme sa ešte ani len neopýtali.

Napriek týmto výzvam predstavuje AI úžasnú príležitosť na vytváranie nových produktov a služieb, zvýšenie produktivity či posilnenie konkurencieschopnosti. Organizácie však musia zaviesť usmernenia či nariadenia, ktoré zabezpečia, že keď sa AI použije pri rozhodovaní, bude tento proces vysvetliteľný, transparentný a férový. Hlavným zámerom vývoja a nasadenia AI by mala byť ochrana záujmov nás ľudí vrátane nášho pohodlia, šťastia či bezpečia. Len vtedy dokážeme šíriť dôveru v ňu.

V niečom z toho nám môžu pomôcť samotné technológie. Niektoré IT firmy už totiž pracujú na softvéri, ktorý vie identifikovať nechcené predsudky AI alebo vie vizualizovať, ako sa AI rozhoduje. Či však budú tieto riešenia efektívne aj na pochopenie či „ustráženie“ veľmi veľkých komplexných AI algoritmov strojového učenia ešte len uvidíme.

V každom prípade by mali organizácie zaviesť interné riadiace štruktúry a nariadenia, ktoré nad využívaním AI zabezpečia dohľad. Dajú sa využiť aj existujúce štruktúry – etické nariadenia sa napríklad môžu zahrnúť do súboru korporátnych hodnôt a správa rizík súvisiacich s AI sa zas dá začleniť do existujúcich procesov vytvorených na riadenie iných podnikových rizík.

Správa rizík súvisiacich s algoritmami AI by sa mala začať klasifikáciou pravdepodobnosti a závažnosti toho, ako môže rozhodnutie AI človeku ublížiť. Spôsob posúdenia závisí od kontextu – ublíženie človeku v dôsledku nesprávnej medicínskej diagnózy je akiste podstatne závažnejšie ako následky nesprávneho nákupného odporúčania v online kníhkupectve.

Výsledná mapa rizík AI by následne mala navrhnúť, ako by mal na celý proces dozerať človek. Pri spomínaných automatizovaných odporúčaniach v online kníhkupectve môžeme dať AI voľnú ruku – prinajhoršom zle poradí, ale kupujúci sa stále vie slobodne rozhodnúť a zlé odporúčanie ignorovať. Pri lekárskej diagnóze môžu byť následky nesprávneho rozhodnutia veľmi vážne, preto je vhodné ponechať ho plne ľuďom a AI využiť len ako poradný nástroj.

Tretí scenár môže byť ten, že AI predostrie alternatívy, z ktorých si človek vyberie, ako napríklad keď GPS navigácia ponúkne viacej alternatívnych trás. Vodič vie vybratú trasu navyše počas jazdy sám zmeniť a ísť, kam chce, napríklad ak sa nečakane objaví zápcha. Takto by to možno malo ostať aj pri autonómnych autách, ktoré človek už nebude priamo riadiť.

Aj laici už chápu, že algoritmy AI sú len také dobré, ako sú dobré dáta, ktoré ich vytrénovali. Organizácie by preto mali dbať na to, aby pracovali s kvalitnými informáciami. Dáta môžu byť zlé v mnohých ohľadoch: neúplné, zaujaté, skreslené, zastarané, nepresné, pozmenené alebo prosto len málo relevantné pre daný problém.

Vo všeobecnosti sa odporúča mať oddelené súbory údajov na trénovanie, testovania aj validáciu. Trénovacími dátami algoritmus naučíme, na testovacích potom overíme jeho funkčnosť a na validačných model potvrdíme. Pri testovaní by mali byť vždy použité vzorky z rôznych demografických skupín, aby sa identifikovali možné predsudky.

Množstvo algoritmov AI k nám prichádza zo zahraničia a môžu byť vytrénované na vzorkách, ktoré u nás nemusia fungovať hodnoverne. Ak bude napríklad naše letisko rozpoznávať tváre pasažierov a porovnávať ich s fotografiami teroristov, algoritmus trénovaný povedzme v Číne môže byť nepresný pri ľuďoch s tmavšou pokožkou, keďže ich črty sú vizuálne menej kontrastné, čo by mohlo viesť k nezamýšľanej diskriminácii našich Rómov.

Niekedy sa úskalia algoritmov AI môžu ukázať až pri nasadení vo veľkom. Napríklad inteligentný parkovací systém môže dobre poradiť vodičovi, aby zaparkoval na konkrétnom mieste, ale ak pri širokom nasadení odporučí to isté miesto sto vodičom, môže nastať problém.

V neposlednom rade by mali organizácie o nasadení AI otvorene komunikovať. Azda raz v obchodoch budú visieť oznamy o tom, akým spôsobom AI vyhodnocuje pohyb zákazníkov po predajni, pretože už dnes to na Slovensku niektoré reťazce nasadzujú. Banky, ktoré už teraz používajú umelú inteligenciu na rozhodovanie o tom, či poskytnúť alebo neposkytnúť úver, by zase mali vedieť otvorene vysvetliť, ako presne toto rozhodnutie vzniká.

Dôležité je tiež opatrne zvážiť, či by nemali ľudia dostať možnosť rozhodnúť sa, či vôbec chcú byť vystavení algoritmom AI a či radšej nechcú, aby sa im venoval človek. Napríklad je pozitívne, že na Slovensku máme banku, kde sa dá založiť účet prostredníctvom biometrie tváre, ale je možno rovnako dôležité, aby bola naďalej ponechaná možnosť otvoriť si účet aj klasicky na pobočke, zoči-voči bankovému úradníkovi.

Ak sa tieto riziká nenaučíme poznať a priebežne adresovať, hrozí nám, že sa verejnosť postaví proti nasadzovaniu AI, čo by bola škoda. Obyvatelia Toronta napríklad nedávno masívne protestovali proti plánovanej výstavbe smart city projektu, ktorý má práve obsahovať veľké množstvo inteligentných senzorov.

Tak, ako sa vyvíjajú technológie AI, budú napredovať aj s nimi spojené výzvy v oblasti riadenia rizík či etiky. Je v záujme ľudského pokroku, aby sa technológie spojili s občianskou spoločnosťou. Preto treba neustále sledovať ich vplyv na spoločnosť, zároveň monitorovať jej postoj k jednotlivým technológiám a následne zabezpečiť, aby tieto technológie boli nasadzované etickým spôsobom tak, aby z nich mali prospech všetci ľudia. Len tak totiž žiadaný pokrok bude môcť prísť.


Aktuálne novinky nielen z diania vo firme

Na informatiku budúcnosti sa dá pripraviť najmä zjednodušovaním a lepším zabezpečením. Oboje je možné v cloude

Počítače zásadne menia azda všetky stránky našich životov. Medzi výnimky, kde toho veľa zostáva po starom, patrí aspoň v našich končinách paradoxne samotná informatika. Iste, aj u nás sú progresívne firmy, ktoré sa inšpirujú modernými IT riešeniami v zahraničí a je aj veľa takých, ktoré prinášajú vlastné originálne inovácie. Keď však ide o priemernú slovenskú organizáciu,

Stali sme sa víťazom ceny Microsoft Country Partner of the Year 2019

The Microsoft Partner of the Year Award oceňuje partnerov spoločnosti Microsoft z rôznych krajín, ktorí za posledný rok vyvinuli a dodávali vynikajúce Microsoft riešenia a preukázali špičkové obchodné zastúpenie v poskytovaní Microsoft riešení svojim zákazníkom. Spoločnosť exe, a.s. získala 6. júna tohto roku prestížne ocenenie ako víťaz Microsoft Country Partner of the Year. Na poli

Pri migrácii do cloudu spôsobom „jedna k jednej“ zbytočne platíte za vzduch

Ak niekto presúva lokálne servery do cloudu v nezmenenej výpočtovej konfigurácii, zbytočne si svoj pobyt tam prepláca. V cloude sa totiž servery škálujú inak, na ten istý výkon potrebujete podstatne menej výpočtových zdrojov. Získať rovnaký výkon z menších serverov je pritom len jedným z viacerých spôsobov, ako sa dá v cloude ušetriť. Servery sú vo