Hlavní navigace

Nereálná skutečnost: Nenechte si rozkazovat syntetickým šéfem

23. 8. 2022

Sdílet

 Autor: Adobe Stock
Uměle vytvořený hlas známé osobnosti, digitální avatar zemřelého blízkého, debata o covidu vedená roboty. To vše se dnes děje. Hranice nemožného se posouvají každým dnem. Možnosti technologií jsou obrovské a lidstvo jim do značné míry svěřilo svůj osud. Zároveň ale technologiím kvůli hrozbě zneužití nikdy nedůvěřovalo tak málo jako dnes. Zpráva Tech Vision 2022 společnosti Accenture předkládá byznysu návod, jak se nenechat napálit jedničkami a nulami a jak být sám věrohodný.

Vstupujeme do světa syntetické reality, kde data generovaná umělou inteligencí (AI) přesvědčivě odrážejí fyzický svět. V tomto prostředí nereálných dat a obrazů, chatbotů či rozšířené a virtuální reality už ani není tak důležité, co všechno je a co není skutečné. Podstatné je rozpoznat, kdy máme začít rozlišovat.

Je pro vás u AI projektů zásadní rychlá návratnost investic?

  • Ano, taková investice by se měla co nejdříve vrátit
    23 %
  • Zatím to neřešíme, jde spíše o ověřování možností
    17 %
  • Ne, investice do AI jsou příliš vysoké na to, aby se brzy vrátily
    14 %
  • Do AI zatím nic neinvestujeme
    46 %

V reklamě tolik nesejde na tom, zda produkt propaguje skutečný herec, nebo jeho digitální dvojník. Někdy dokonce upřednostňujeme umělé kontakty – třeba o některých problémech si lidé možná raději pohovoří se „syntetickým“ doktorem, než s tím skutečným. Na druhou stranu bychom asi uvítali, kdyby projev prezidenta skutečně pronášel prezident.

„Rané debaty o umělé inteligenci se vedly především na téma dobro a zlo, pak se důraz přesunul k reálnosti, tedy co je skutečné a co umělé či upravené. Schopnost toto dobře rozlišit je však v současné době velice omezená. Dnes nás proto zajímá a musí zajímat hlavně to, zda sdělení, s nimiž přicházíme do styku, a která nás ovlivňují, jsou autentická,“ vysvětluje posun ve vnímání umělé inteligence Adam Leščišin, hlavní konzultant Accenture pro technologické strategie a finanční služby.

Pro korporátní sféru jde o téma zásadní důležitosti. Firma, která s těmito technologiemi nebude nakládat autenticky, může ztratit důvěru i klienty. A to se ani nebude muset uchýlit k vytváření deepfakes a dezinformací. Autenticita by tak pro digitální reprezentaci firem měla být novým imperativem.

Co se dozvíte v článku
  1. Nepřesný, ale užitečný Codex
  2. Odvrácená strana
  3. Miliardy v ohrožení
  4. Autenticita jako kompas
  5. Jak se připravit na interakci s neskutečným?

Nepřesný, ale užitečný Codex

Zatímco dříve představovala umělá inteligence jen konkurenční výhodu, dnes se stává v byznysu nepostradatelnou. Dává smysl obrovskému množství dat, čímž pomáhá zefektivnění podnikových procesů, zlepšení zákaznické zkušenosti, a především dosažení lepších obchodních výsledků.

„Pokroky v generativní umělé inteligenci, zejména pak generativní adverzní sítě (typ pokročilého strojového učení bez přímého lidského zásahu), umožňují vytvářet a používat syntetická data, která jsou neuvěřitelně realistická. Syntetická data, tedy informace uměle vytvořené, zároveň nabývají reálné vlastnosti a sentiment, stávají se podobnějšími lidem a lidskému chování, aby je mohl kdokoli snáze používat a pracovat s nimi, což šetří čas a úsilí,” uvádí Leščišin.

Pište pro Computerworld

 

Máte dobré nápady, máte co říct? Chcete se podělit o své znalosti se čtenáři Computerworldu?

Je tu ideální příležitost. V redakci neustále hledáme externí autory, kteří rozšíří náš záběr. Nabízíme možnost publikací zajímavých článků nejen na webu, ale také v našem tištěném magazínu.

Pokud máte zájem, ozvěte se šéfredaktorovi na e-mail: radan.dolejs@iinfo.cz

Příkladem je Codex společnosti OpenAI, který pomáhá programátorům psát kód v několika jazycích. Pokud ho například v jednoduché angličtině požádáte, aby vytvořil skákající modrou kouli, dokáže vytvořit kód, který to udělá. Ačkoli Codex podle odhadů OpenAI vytváří správný kód pouze v 37 procentech případů, nebrání to tomu, aby se stal cenným partnerem vývojářů, protože za ně vyhledá referenční materiály a poskytne celé bloky kódu, na nichž lze stavět.

Jako další příklad lze uvést společnost Hour One, jež vytváří digitální postavy založené na podobiznách skutečných lidí, které mohou být zobrazeny při mluvení jakéhokoli textu ve vysoce realistických videích. Tyto postavy mohou hrát virtuální realitní agenty nebo učitele jazyků a snadno převádět statický textový obsah na video – ušetří tak hodiny času herců a produkčních štábů ve studiu.

Odvrácená strana

Umělá inteligence má jistě mnoho předností, ale také nedostatků. Pokud však působí škody, nejde o její úmysl, ale o její zneužití lidmi. Podvody, deepfakes a dezinformační vlny postavené na slabinách lidí i algoritmů vedly k propadu důvěry v technologický sektor. Ta podle výzkumu Edelman Trust Barometer, dosáhla v roce 2021 v 17 z 27 zemí svého historického minima.

Rekordně nízká je také důvěra napříč všemi médii – podle stejného průzkumu, který se uskutečnil o rok později, se až 7 z 10 lidí obává, že jim novináři záměrně lžou a jen 37 % dotázaných důvěřuje obsahu na sociálních sítích.

Procesorů se prodává rekordně málo, stolních CPU dokonce nejméně od roku 1984 Přečtěte si také:

Procesorů se prodává rekordně málo, stolních CPU dokonce nejméně od roku 1984

Má se za to, že používání algoritmů AI na sociálních sítích za účelem personalizace obsahu vedlo ke vzniku bublin, v nichž se uživatelům zobrazuje omezenější a extrémnější obsah. Falešné zprávy navíc mají tendenci šířit se rychleji a s větší intenzitou. Známé je též nasazení východoevropských „trollích farem“ na Facebooku před posledními americkými prezidentskými volbami – tyto „farmy“ byly podle průzkumu MIT Technology review schopné zasáhnout svojí propagandou až 140 milonů lidí měsíčně, 75 % uživatelů se pak obsah zobrazil na základě doporučujícího mechanismu, i když dané stránky vůbec nesledovali.

Tendenční či lživé posty přitom netvoří jen lidé. Výzkum Brownovy univerzity zjistil, že boti napíšou denně 25 procent tweetů týkajících se klimatické krize či 38 procent tweetů o údajných vědeckých zjištěních. Výzkum Carnegie Mellon University navíc ukázal, že boti na Twitteru mohou stát za 45 až 60 procenty účtů diskutujících o nemoci covid-19.

Miliardy v ohrožení

Podle pravidelného reportu Accenture Cyber Threat Intelligence Report se jen v roce 2021 zvýšil průměrný počet útoků na firmy o 31 % oproti předchozímu roku. A podle průzkumu společnosti IronScales čelilo od března 2020 zvýšené intenzitě phishingových útoku až 81 % společností.

Situace se navíc s největší pravděpodobností bude jen zhoršovat. Některé podniky se spoléhají na školení a informovanost zaměstnanců, ale to nemusí stačit.

„Představme si, že se jazykový model GPT-3 vycvičí na e-mailech generálních ředitelů, aby generoval text, který zní přesně jako ten jejich. Pro spear-phishing požehnání,“ říká Jan Krob, který vede divizi Accenture Security v České republice.

Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.

Podle FBI přišly firmy kvůli e-mailovým podvodům za pět let o více než dvě miliardy dolarů. Psaný textem to vše ale jen začíná. Už v roce 2019 byl generální ředitel energetické firmy ve Velké Británii připraven o 243 tisíc dolarů, když mu zavolal „šéf“ jeho mateřské společnosti – ve skutečnosti hlasový deepfake umělé inteligence – a řekl mu, aby okamžitě převedl peníze. Manažera přesvědčil věrný přízvuk a melodie hlasu. Jak daleko jsme asi od videohovorů s falešnými šéfy?

Autenticita jako kompas

V roce 2021 vzbudil pozdvižení film Roadrunner o zesnulém kuchaři Anthonym Bourdainovi, kde mluvila umělá inteligence hlasem vycvičeným na Bourdainových nahrávkách. Jeho hlas tak citoval pasáže, které napsal, ale nikdy nepronesl. Tvůrci filmu nemohli získat jeho souhlas a použití AI zprvu nepřiznali. Bylo to v pořádku?

Pro firmy, které také pracují s nereálnem, je nejvyšší čas začít si takové otázky klást a nacházet na ně odpovědi. S možností, jak zneužití zamezit, přichází například startup Streambed, který umožňuje tvůrcům obsahu jednoduše emitovat NFT jejich příspěvků na sociálních sítích s možností nastavit podmínky použití, odpovídajícím způsobem licencovat obsah a mít větší kontrolu nad tím, jak je tento obsah znovu využíván ostatními.

„Mnoho analytiků předpovídá, že velká část online obsahu bude v příštích letech ověřována pomocí blockchainu. Ale bez ohledu na technologii bude určení původu klíčové, právě kvůli hrozbě deepfakes. Stejně důležité bude umožnit ostatním, aby při interakci s vaším podnikem mohli ověřit původ jeho obsahu či sdělení,“ zdůrazňuje Leščišin.

Zda syntetická data využijeme tak, abychom svět zlepšili, nebo se staneme oběťmi záškodníků, se ukáže. Autenticita je kompas, který každou firmu povede k tomu, aby při použití umělé inteligence zohledňovala ověřitelnost a zřejmý účel, v širším pohledu i politiku a lidské společenství. Jen tak bude AI užitečným a věrohodným partnerem naší civilizace.

Nový iPhone 14 leak ukazuje to dobré, horší i zvláštní. Přijde v polovině září Přečtěte si také:

Nový iPhone 14 leak ukazuje to dobré, horší i zvláštní. Přijde v polovině září

Jak se připravit na interakci s neskutečným?

Je zřejmé, že využití syntetických dat představuje pro firmy spoustu nových příležitostí, ale též hrozeb.

„Pokud chtějí udržet krok, měly by firmy určitě vytipovat, kde jim chatboti nebo obsah generovaný umělou inteligencí mohou pomoci zvýšit povědomí o značce, vytvořit nové interakce se zákazníky či zvýšit kvalitu zákaznické zkušenosti a přemýšlet nad tím, jak budou schopny zajistit autenticitu takového obsahu,“ vyjmenovává Leščišin.

příloha_ovladnete_sva_data

Naopak v rámci hrozeb je potřeba vnímat hlavně lidi, a to z pohledu prevence a schopnosti reakce.

„Je naprosto klíčové neustále zvyšovat povědomí zaměstnanců školeními, ale i pravidelnými testy jejich pozornosti vůči bezpečnostním rizikům. Klíčové je také mít ty správné lidi, kteří budou zodpovědní za zabezpečení, ochranu soukromí, bezpečnost, transparentnost a etické chování, Také je třeba zaměřit se na původ informací přicházejících do vaší firmy a rovněž těch, která z ní odchází a v rámci všech platforem začlenit ověření identity a autentičnosti. Na pokročilejší úrovni pak budou firmy samy přispívat k tvorbě nových řešení a služeb a přispívat tak k autenticitě a důvěryhodnosti ´neskutečného´ světa,“ dodává Krob.

 

Security World si můžete koupit i jako klasický časopis, buď v klasické tištěné formě nebo v elektronické verzi. Věnujeme se bezpečnosti počítačových systémů, ochraně dat, informací a soukromí.  Jsme jediný titul na českém a slovenském trhu, který oslovuje širokou čtenářskou obec – od ředitelů firem, přes odborníky na bezpečnost po koncové uživatele. Naším cílem je poskytnout ucelený přehled o bezpečnostních hrozbách a zejména o tom, proč a jak se jim bránit, případně proč respektovat a dodržovat nařízení IT manažerů ve firmách.

Byl pro vás článek přínosný?