Dreamstime
StoryEditor

Cestu do pekla dláždia dobré úmysly. A týka sa to aj AI

30.05.2025, 00:00

Je to vzrušujúce a nevyhnutné. Cesta od nadšenia po implementáciu umelej inteligencie v organizáciách má euforické aj nebezpečné míľniky.

Už tomu neujdete. AI nástroje sa stávajú súčasťou firemného prostredia, správy štátu aj našich životov. Či už ich organizácie zavádzajú oficiálne, alebo ich zamestnanci používajú z vlastnej iniciatívy.

Pozrime sa na skúsenosti

„Ako konzultant pre implementáciu umelej inteligencie často pozorujem, že firmy riešia podobné výzvy. Ako využívať potenciál AI nástrojov a zároveň minimalizovať bezpečnostné riziká,“ hovorí Tomáš Pástor.

Mnoho zamestnancov totiž dnes používa AI nástroje spontánne. Hľadajú spôsoby, ako zefektívniť prácu, eliminovať repetitívne úlohy a zrýchliť procesy. Programátori generujú alebo kontrolujú kód, marketéri vytvárajú texty, iní používajú AI na rešerše či prípravu prezentácií.

Inšpirácie vs lenivosť

Vedúci oddelenia bezpečnosti informačných systémov v Tatra banke Marek Zeman je používateľom umelej inteligencie už dve dekády a ide ešte ďalej: „Sprístupnenie  voľne dostupných AI aplikácií zamestnancom je najlepšou cestu k inováciám. Nápady získané touto cestou zamestnanci priamo aplikujú do inovačných nápadov.“

Súčasne však varuje pred rizikami, ktoré prináša sprístupnenie AI aplikácií. Ak zamestnancom pomáhajú, hrozí, že bezpečnostné povedomie sa rýchlo devalvuje. Nie každá AI aplikácia využívaná na súkromné účely sa môže používať v organizácií bez zaplatenia licenčných poplatkov.

A riziko do tretice – dáta, ktorú vkladajú zamestnanci do AI aplikácie, učia túto aplikáciu, ako používateľ pracuje a kam smeruje jeho organizácia.

Punk sa tu neoplatí

Zamestnanci často využívajú bezplatné verzie nástrojov ako ChatGPT, Gemini či rôzne iné aplikácie bez toho, aby pochopili, čo sa deje s údajmi, ktoré do nich vkladajú. Takto popisuje najčastejšie bezpečnostné rizikom Tomáš Pástor v slovenských firmách, a preto odporúča elementárnu bezpečnostnú mantru: "Ak používam akýkoľvek neplatený nástroj, všetky dáta, ktoré tam vkladám, môžu byť použité na trénovanie budúcich modelov."

Tento fakt mnohí zamestnanci neberú do úvahy, keď napríklad vložia do AI zmluvu, citlivé údaje klientov alebo interné dokumenty.

Práca pre bezpečákov

Úlohou expertov v prípade používania umelej inteligencie je zamerať sa najmä na úniky citlivých dát, zneužitie algoritmov alebo šírenie dezinformácií. Dôležité je aj nastavenie pravidiel pre etické používanie AI. Špeciálne je nevyhnutné venovať sa úlohám, ktoré môžu ovplyvniť ľudí.

„Informačná bezpečnosť už nie je len o technickom zabezpečení, ale aj o spôsobe a kvalite odpovedí AI,“ vysvetľuje Marek Zeman. Preto sa bezpečnostní profesionáli aj pre manažment musia učiť testovať aplikácie s umelou inteligenciou.

Aplikácia ako každá iná

Hackerské tímy Citadelo už v minulom roku testovali z hľadiska bezpečnosti štyri systémy postavené na veľkých jazykových modeloch. Tieto technológie prinášajú nielen revolúciu v spracovaní prirodzeného jazyka, ale aj nové vektory útoku.

„Opäť sme sa vžili do úlohy útočníkov,“ hovorí etický hacker Martin Hanic. Profesionáli navrhli špeciálny prompt, ktorý obchádza bezpečnostné obmedzenia systému. Potom overovali, či prinútia model odhaliť chránené údaje, alebo s ním manipulovať tak, aby vykonával neoprávnené akcie.

Halucinácie a otravy

Veľké jazykové modely niekedy generujú nepravdivé alebo zavádzajúce odpovede. To vieme. Útočník však môže cielene prinútiť model, aby generoval nepravdivé informácie a organizáciu tak ohrozuje, že sa bude rozhodovať na základe nesprávnych výstupov.

Ďalším príkladom je, že útočník „otrávi model“, napríklad že nahrá falošnú technickú dokumentáciu. Model neskôr odporúča riešenia zámerne obsahujúce chyby, ktoré môžu organizáciu vystaviť útokom.

Aj v prípade testov bezpečnosti AI platí asymetria, ako ju popisuje Martin Hanic „Testujeme v projektoch technické riziko, nie biznis riziko. Z nášho hľadiska môže byť zistenie elementárna technická chyba, ale z biznis hľadiska katastrofa.“

Extra prísne upozornenie

Zohľadňovanie umelej inteligencie v bezpečnostných stratégiách už dnes nie je voľbou, ale skôr povinnosťou a vyžaduje si zodpovedný prístup, pripomína Jozef Bálint, kyberbezpečnostný profesionál Alison Slovensko.

Európska únia jasne definuje umelú inteligenciu ako vysokorizikový systém v oblasti bezpečnosti, ktorý zároveň podlieha prísnym pravidlám v rámci Aktu AI. Budúcnosť bezpečnosti je založená na rovnováhe medzi inováciami a reguláciami. V bezpečnostných projektoch musí byť AI vnímaná nie ako nástroj, ale ako inteligentný partner schopný sa učiť a rozhodovať.

Konečne užitočné politiky

Prezidentka ISACA Slovensko Lenka Gondová sa zameriava na to, ako navrhovať a implementovať AI systémy tak, aby rešpektovali zákony, etiku a ochranu osobných údajov.

Z praxe si prináša skúsenosť, že firemné politiky sa často stretávajú v oblastiach akými sú hodnotenie rizík systémov umelej inteligencie, dokumentovanie rozhodnutí, školenia zamestnancov či kontrola vkladania citlivých dát v rámci generatívnych nástrojov AI.

Naopak, AI politiky sa líšia podľa typu firmy, sektora či technologickej vyspelosti – inak k nim pristupujú firmy v regulovanom sektore, inak startupy.

A rady z terénu

Čaká nás nevyhnutnosť vzdelávať sa, aktualizovať interné smernice a zosúladiť ich s bezpečnostnými normami a požiadavkami Aktu o umelej inteligencii.

Dobrá prax zahŕňa najmä posudzovania vplyvu umelej inteligencie, rozšírenie manažmentu rizík o túto oblasť. Dôležité je vytvorenie medziodborového tímu, stanovenie zodpovedností, pravidelný audit AI systémov a zaškolenie zamestnancov v ich bezpečnom a etickom používaní.

Faktom však je, že mnohé organizácie zatiaľ nemajú dostatočné interné kapacity na riadenie týchto rizík.

Lenka Gondová preto odporúča zapojenie bezpečnostných a právnych expertov už pri návrhu riešení, modelovanie AI špecifických hrozieb a priebežné hodnotenie rizík počas celého životného cyklu AI.

menuLevel = 1, menuRoute = hn-special, menuAlias = hn-special, menuRouteLevel0 = hn-special, homepage = false
30. máj 2025 13:38