Hlavní navigace

Vaše konverzace s AI nejsou tak soukromé, jak si myslíte – Co byste měli vědět!

30. 10. 2024

Sdílet

 Autor: Radan Dolejš s podporou AI
Dvakrát si rozmyslete, než s umělou inteligencí začnete sdílet citlivé obchodní nebo osobní údaje.

Generativní umělá inteligence (genAI) ovládla technologický průmysl. Od genAI asistenta Copilot až po operační systém Android, který je „navržen s AI v jádru“, už pomalu nemůžete aktualizovat svůj software, aniž byste získali novou svižnou funkci AI, která slibuje zvýšení vaší produktivity.

Ale když mluvíte s AI, nemluvíte jen s AI. Na vaše konverzace se může dívat i člověk, což znamená, že nejsou tak soukromé, jak byste možná očekávali. To je velký problém jak pro firmy pracující s citlivými informacemi, tak pro jednotlivce, kteří se ptají na zdravotní problémy, osobní problémy nebo cokoli jiného, o čem by možná nechtěli, aby se někdo jiný dozvěděl.

Je pro vás bezpečnost aplikací s generativní AI důležitá?

Některé společnosti zabývající se umělou inteligencí trénují své velké jazykové modely (LLM) na základě konverzací. A obava, že by se vaše obchodní nebo osobní údaje mohly stát součástí modelu a uniknout k dalším lidem, je docela běžná. Kromě toho však existuje ještě další obava, která může být problémem, i když poskytovatel umělé inteligence slíbí, že nikdy nebude trénovat své modely na datech, která mu poskytnete.

Proč lidé hodnotí konverzace s umělou inteligencí

Proč tedy lidé tyto konverzace prohlížejí? Jde o zajištění kvality a odhalení problémů. Společnosti vyvíjející genAI mohou nechat lidi prohlížet protokoly konverzací, aby zjistili, jak si technologie vede. 

Pokud dojde k chybě, mohou ji identifikovat. Představte si to jako provádění „namátkových kontrol“, přičemž zpětná vazba od lidských hodnotitelů se pak používá k trénování modelu genAI a zlepšování toho, jak bude v budoucnu reagovat.

Přidejte si magazín Computerworld mezi své oblíbené zdroje na Google News.

Vývojáři přezkoumávají konverzace taky tehdy, mají-li podezření na zneužití své služby. Je snadné si představit, že by k takovému prohledávání masy záznamů o chatech a vyhledávání těch problematických mohli používat – zase – umělou inteligenci. Nebylo by to ani nic nového. Například Microsoft nechal smluvní partnery poslouchat zvukové konverzace lidí ve Skypu, právě za účelem zajištění kvality…

Skutečná obava o soukromí

Nástroje jako ChatGPT nebo Gemini se používají k nejrůznějším účelům. Na pracovišti je lidé používají k analýze dat a urychlení pracovních úkolů. Doma je lidé používají jako konverzační partnery, s nimiž probírají detaily svého života – alespoň v to doufají mnohé společnosti zabývající se umělou inteligencí.

Umělá inteligence není jen ta generativní, upozorňuje odborník David Filgas
Umělá inteligence není jen ta generativní, upozorňuje odborník David Filgas
0:00/

Lidé však mohou sdílet údaje, které by bylo lepší udržet v soukromí. Podniky po celém světě se v souvislosti s nárůstem chatbotů s umělou inteligencí potýkají s bezpečností dat a mnohé z nich zakazují svým zaměstnancům používat ChatGPT v práci nebo mohou dovolovat jen konkrétní nástroje AI, jejichž používání od zaměstnanců vyžadují. 

Je zřejmé, že si uvědomují, že jakákoli data zadaná chatbotovi se odesílají na servery jeho autorů. I kdyby se v budoucnu k trénování modelů genAI nepoužívala, samotný akt odesílání dat by mohl být porušením zákonů o ochraně osobních údajů.

Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.

Pro mnohé znalostní pracovníky je lákavé předat ChatGPT velký soubor dat s údaji o zákaznících nebo finančními dokumenty společnosti a nechat ho udělat nějakou tu informační práci. Ale opět, tato data by mohl vidět lidský kontrolor. Totéž platí, když se tyto nástroje používají pro osobní účely.

Používají aplikace ChatGPT, Copilot a Gemini lidské hodnotitele?

Aby bylo jasno, vše nasvědčuje tomu, že lidé aktivně nečtou naprostou většinu konverzací s chatboty s umělou inteligencí. Konverzací je příliš mnoho na to, aby to bylo možné. Přesto hlavní nástroje genAI, o kterých jste slyšeli, lidské hodnotitele používají alespoň občas.

Například:

  • ChatGPT umožňuje vypnout historii chatu aktivací „dočasného chatu“. Při zapnuté historii chatu se konverzace použijí k trénování modelů OpenAI. S dočasným chatem nebudou konverzace použity k trénování modelů, ale budou uloženy po dobu 30 dnů pro případné přezkoumání agenturou OpenAI „z bezpečnostních důvodů“. Plány ChatGPT Enterprise poskytují větší ochranu dat, ale stále jsou v něm občas zapojeni lidští hodnotitelé.
  • Microsoft uvádí, že konverzace v systému Copilot jsou v některých situacích také přezkoumávány lidmi: „Do našeho procesu školení zahrnujeme lidskou zpětnou vazbu od školitelů a zaměstnanců AI. Například lidskou zpětnou vazbu, která posiluje kvalitní výstup na výzvu uživatele, čímž se zlepšuje zkušenost koncového uživatele.“
  • Gemini od Googlu taky využívá lidské recenzenty. Google to upřesňuje: „V konverzacích prosím nezadávejte důvěrné informace ani údaje, které byste nechtěli, aby hodnotitel viděl nebo aby je společnost Google použila ke zlepšení našich produktů, služeb a technologií strojového učení.“

Jak zajistit, aby vaše konverzace s umělou inteligencí nikdo nečetl

Společnosti, které potřebují chránit obchodní data a dodržovat příslušné zákony, by měly pečlivě zvážit nástroje a plány genAI, které používají. Není dobrý nápad, aby zaměstnanci používali změť nástrojů s nejistými dohodami o ochraně údajů nebo aby cokoli, co souvisí s podnikáním, dělali prostřednictvím osobního účtu ChatGPT.

AI pro pokročilé

Otestujte své znalosti umělé inteligence v našem kvízu pro IT profesionály! Zvládnete pokročilé otázky, nebo vás AI zaskočí?

Z dlouhodobého hlediska by se jako ideální řešení mohly ukázat AI modely, které běží lokálně. Snem je, že chatbot s umělou inteligencí by běžel výhradně na vlastním počítači nebo mobilním zařízení a nikdy by nemusel „volat domů“. Společnosti by mohly provozovat svůj vlastní AI software ve vlastních datových centrech, pokud by se tak rozhodly – veškerá data by tak zůstala zcela pod jejich vlastní kontrolou.

Navzdory veškeré kritice nástroje Recall společnosti Microsoft, který vám po spuštění umožní prohledávat používání počítače s Windows 11 na počítači Copilot+, byla jeho myšlenka v mnoha ohledech správná. Recall vše provede na vašem vlastním počítači, aniž by odesílal věci do Microsoftu. Lidští hodnotitelé to neuvidí.

Tiny 11 dokáže zmenšit Windows 11 o víc než 80 % jejich velikosti Přečtěte si také:

Tiny 11 dokáže zmenšit Windows 11 o víc než 80 % jejich velikosti

Naopak Google nedávno spustil vyhledávání historie pomocí umělé inteligence pro Chrome – a opět, pokud ho vyzkoušíte, lidští hodnotitelé mohou prozkoumat historii vašeho vyhledávání.

bitcoin_skoleni

Dvě strany mince

Ale zpět k věci. Nechci tu malovat čerta na zeď: Konverzace běžného člověka na ChatGPT nebo v chatech Copilotu pravděpodobně nikdo neprohlíží. Je však důležité si uvědomit, že by mohly být prohlíženy. 

To je součástí dohody, když se zaregistrujete k používání těchto služeb. A to je dnes víc než kdy jindy něco, co by měli mít na paměti všichni – od firem, které umělou inteligenci používají profesionálně, až po lidi, kteří s AI chatují o svých nadějích a snech.

 

Computerworld si můžete objednat i jako klasický časopis. Je jediným odborným měsíčníkem na českém a slovenském trhu zaměreným na profesionály v oblasti informačních a komunikačních technologií (ICT). Díky silnému zázemí přináší aktuální zpravodajství, analýzy, komentáře a přehledy nejnovejších technologií dříve a na vyšší odborné úrovni, než ostatní periodika na tuzemském trhu.

Obsah Computerworldu je určen odborníkům a manažerům z firem a institucí, kteří se podílejí na rozhodovacím procesu při nákupu ICT technologií. Jednotlivá čísla si můžete objednat i v digitální podobě.