Hlavní navigace

Meta představila nástroje, které zvýší bezpečnost generativní AI

15. 12. 2023

Sdílet

 Autor: Fotolia @Tatiana Shepeleva
Projekt Purple Llama, jehož cílem je vytvořit pro vývojáře open source nástroje, které umožní vyhodnotit důvěryhodnost a bezpečnost generativních modelů umělé inteligence ještě před jejich veřejným nasazením, představila Meta.

Firma tak podle svých slov chce vytvořit společný základ pro vývoj bezpečnější generativní AI, protože obavy z velkých jazykových modelů a dalších technologií AI narůstají a svět se začíná stále více přesouvat k regulaci, která obvykle představuje zbrzdění vývoje v dané oblasti.

Je podle vás regulace AI vhodnou metodou, jak zabezpečit AI?

Projekt zahrnuje partnerství s vývojáři umělé inteligence, cloudovými službami, jako jsou AWS nebo Google Cloud, dále s výrobci polovodičových součástek, jako jsou Intel, AMD a Nvidia, či se softwarovými firmami včetně Microsoftu. Vzniklé nástroje budou schopné testovat schopnosti modelů AI a identifikovat případná bezpečnostní rizika.

Mezi první sadu nástrojů v rámci projektu Purple Llama patří produkt CyberSecEval. Ten vyhodnocuje rizika kybernetické bezpečnosti v softwaru vytvářeném umělou inteligencí. Obsahuje jazykový model, který identifikuje nevhodný nebo škodlivý text, včetně diskusí o násilí nebo nezákonných činnostech.

Vývojáři mohou pomocí řešení CyberSecEval otestovat, zda jimi vytvářené modely umělé inteligence nejsou náchylné k vytváření nezabezpečeného kódu nebo k napomáhání kybernetickým útokům. 

Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.

Podle výzkumníků Mety totiž modely LLM často navrhují zranitelný kód, což zdůrazňuje důležitost neustálého testování a zlepšování bezpečnosti AI.

CS24

Dalším nástrojem v této sadě je pak Llama Guard, velký jazykový model vyškolený k identifikaci potenciálně škodlivé nebo útočné mluvy. 

Vývojáři tak mohou otestovat, zda jejich modely dokážou vytvářet nebo přijímat nebezpečný obsah, což omezí možnosti toho, že jejich LLM povedou k nevhodným výstupům AI.

 

Security World si můžete koupit i jako klasický časopis, buď v klasické tištěné formě nebo v elektronické verzi. Věnujeme se bezpečnosti počítačových systémů, ochraně dat, informací a soukromí.  Jsme jediný titul na českém a slovenském trhu, který oslovuje širokou čtenářskou obec – od ředitelů firem, přes odborníky na bezpečnost po koncové uživatele. Naším cílem je poskytnout ucelený přehled o bezpečnostních hrozbách a zejména o tom, proč a jak se jim bránit, případně proč respektovat a dodržovat nařízení IT manažerů ve firmách.

Byl pro vás článek přínosný?