Hlavní navigace

GenAI je možná nejméně důvěryhodný software, který existuje. Přesto se očekává, že mu budeme důvěřovat

12. 6. 2024

Sdílet

 Autor: Computerworld.cz s využitím Dall-E
Pokud nemůžete věřit výrobku, můžete věřit jeho výrobci?

Důvěra. Klíčové slovo, bavíme-li se o umělé inteligenci. Věří koncoví uživatelé nebo vedoucí pracovníci tomu, co říká generativní umělá inteligence (genAI)? Pravděpodobně ano, jinak by se ji nikdy neobtěžovali používat. Ale je umělá inteligence skutečně důvěryhodná? (Stručně řečeno: Ne, není.)

Pokud využíváte AI pro rozhodování, zkreslila už nějakou odpověď?

Ale ještě, než se budeme zabývat tím, jak důvěryhodné jsou výsledky genAI, začněme tím, jak důvěryhodní jsou vedoucí pracovníci společností, které algoritmy AI vytvářejí. Jde o zásadní otázku. Protože pokud vedoucí IT pracovníci firem nemohou věřit lidem, kteří vytvářejí AI produkty, jak mohou věřit produktům? Jak můžete věřit tomu, co AI říká vašim lidem, věřit tomu, co udělá s jejich dotazy, nebo být v pohodě s tím, co chce AI dělat se všemi vašimi citlivými daty.

Ať se vám to líbí, nebo ne, když používáte jejich software, říkáte, že jste srozuměni s vložením veškeré této důvěry.

Začněme s OpenAI. Dnes by proklamovaná otevřenost měla být uváděna nejspíš raději v uvozovkách. Aby se společnost, která nesdílí zdroje, jež používá k trénování svého modelu, nazývala Open – Otevřenou, je zpochybněním definice tohoto slova. Ale to odbočuji.

Video ke kávě

Máte čas na rychlé a informativní video?

Časopis Artificial Intelligence and Law LiveScience nabídl podrobný pohled na tvrzení společnosti OpenAI, že GPT-4 si vedl skvěle při advokátní zkoušce (UBE, Uniform Bar Exam). Ve skutečnosti to byla lež. Statistická, ale přesto lež.

„Snad nejrozšířenějším úspěchem GPT-4 při spuštění byl jeho údajný 90. percentil při jednotné advokátní zkoušce,“ uvádí publikace a upozorňuje na to, že odhad byl silně zkreslený výsledky opětovných účastníků zkoušek, kteří dosáhli výrazně nižšího skóre než je běžné. „Při zkoumání pouze těch, kteří zkoušku složili – tj. advokátů s licencí nebo advokátů, kteří na licenci čekají – se odhaduje, že výsledky GPT-4 klesnou na 48. percentil celkově a 15. percentil v oblasti esejů.“

Komise rovněž uvedla, že GPT-4 ze své podstaty podvádí. „Ačkoliv zkoušení při UBE nemohou používat jiné zdroje, obrovský tréninkový korpus GPT-4, který je do značné míry jeho podstatou, znamená, že může efektivně absolvovat UBE s přístupem k dalším zdrojům, což naznačuje, že UBE může být nejen přesným ukazatelem právnických schopností, ale také ve výsledcích pravděpodobně zvýhodňuje tyto schopnosti ve prospěch GPT-4 ve srovnání s lidmi.“

Rozeznáte fotografii od obrázku vytvořeného umělou inteligencí? Přečtěte si také:

Rozeznáte fotografii od obrázku vytvořeného umělou inteligencí?

Komise došla také k závěru, že GPT-4 si v písemných esejových částech zkoušky vedl poměrně špatně, což by nemělo překvapit toho, kdo už si s GPT-4 nějakou tu větu vyměnil. 

„Polovina jednotné advokátní zkoušky se skládá z psaní esejí a zdá se, že GPT-4 dosáhl mnohem nižších výsledků i v jiných zkouškách zahrnujících psaní, jako je AP English Language and Composition (14.-44. percentil), AP English Literature and Composition (8.-22. percentil) a GRE Writing (54. percentil). V každé z těchto tří zkoušek nedosáhl GPT-4 vyššího percentilového výkonu než GPT-3.5 a nedosáhl skóre blízkého 90. percentilu,“ uvádí publikace.

Dále je tu problém s pověstí generálního ředitele společnosti OpenAI Sama Altmana, který byl v loňském roce krátce bývalým generálním ředitelem společnosti. Jedna z členek správní rady, která Altmana vyhodila, nakonec zveřejnila a vysvětlila své důvody: Altman představenstvu lhal – a to hodně.

„Správní rada je nezisková rada, která byla zřízena výslovně za účelem zajištění toho, aby veřejně prospěšné poslání společnosti bylo na prvním místě – nad zisky, zájmy investorů a dalšími věcmi,“ řekla bývalá členka správní rady OpenAI Helen Tonerová v podcastu The TED AI Show. „Ale Sam po léta představenstvu skutečně ztěžoval plnění této úlohy tím, že zatajoval informace, zkresloval věci, které se ve společnosti děly, a v některých případech představenstvu přímo lhal.“

Zakažte Facebooku, aby si na vašich příspěvcích vytrénoval svou AI Přečtěte si také:

Zakažte Facebooku, aby si na vašich příspěvcích vytrénoval svou AI

Tonerová uvedla, že Altman několikrát poskytl správní radě „nepřesné informace o malém počtu formálních bezpečnostních procesů, které společnost zavedla“. „U každého jednotlivého případu dokázal Sam vždy přijít s nějakým nevinně znějícím vysvětlením, proč o nic nejde, proč je to špatně interpretováno nebo cokoli jiného. Ale konečný efekt byl takový, že po letech podobných věcí jsme všichni čtyři, kteří jsme ho vyhodili, došli k závěru, že věcem, které nám Sam říkal, prostě nemůžeme věřit, a tak jako představenstvo nemůžeme fungovat – zejména jako představenstvo, které má zajišťovat nezávislý dohled nad společností, a ne jen pomáhat generálnímu řediteli získat další peníze.“

Podívejme se na to v souvislostech. Od chvíle, kdy první firma zřídila a najala do funkce CIO, se vedoucí pracovníci a IT manažeři snažili důvěřovat dodavatelům. Je to v jejich povaze. Nedostatek důvěry v souvislosti s technologiemi tedy není nic nového. Ale umělá inteligence – a konkrétně genAI a všechny její podoby – dostává možnosti a přístup k datům řádově rozsáhlejší než jakýkoli software před ní…

Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.

A žádá se po nás, abychom tomuto zcela neomezenému softwaru, který byl vyškolen na rozsáhlém a tajném seznamu zdrojů, poskytli přístup – a to, co se získanými daty dělá, je rovněž nejasné a/nebo tajné.

Co před tím vším chrání firmy? Ochranné bariéry poskytnuté dodavatelem nebo někdy ochranné bariéry vytvořené v rámci IT oddělení dané firmy. Co je ale nejméně překvapivé, společnosti nyní vytvářejí aplikace, které jsou výslovně navrženy tak, aby tyto bariéry obcházely. (A daří se jim to docela efektivně.)

Vezměme si přístup „abliterace“, který je nyní k dispozici na Google Colab a v kurzu LLM na GitHubu. Abliterace je technika, „která dokáže odclonit jakýkoli LLM bez přeškolování. Tato technika účinně odstraňuje vestavěný odmítací mechanismus modelu, což mu umožňuje reagovat na všechny typy podnětů. Toto odmítavé chování je zprostředkováno specifickým směrem v reziduálním proudu modelu. 

CS24

Pokud modelu znemožníme reprezentovat tento směr, ztratí schopnost odmítat požadavky. Naopak umělé přidání tohoto směru může způsobit, že model bude odmítat i neškodné požadavky.“ To znamená, že bariéry coby ochranné mechanismy lze poměrně snadno zrušit nebo obejít. A to nás přivádí zpět k otázce důvěry v tyto společnosti a jejich vedoucí pracovníky.

S dalšími a dalšími novinkami je stále těžší tuto důvěru zajistit.

 

Computerworld si můžete objednat i jako klasický časopis. Je jediným odborným měsíčníkem na českém a slovenském trhu zaměreným na profesionály v oblasti informačních a komunikačních technologií (ICT). Díky silnému zázemí přináší aktuální zpravodajství, analýzy, komentáře a přehledy nejnovejších technologií dříve a na vyšší odborné úrovni, než ostatní periodika na tuzemském trhu.

Obsah Computerworldu je určen odborníkům a manažerům z firem a institucí, kteří se podílejí na rozhodovacím procesu při nákupu ICT technologií. Jednotlivá čísla si můžete objednat i v digitální podobě.

Byl pro vás článek přínosný?