Umělá inteligence (AI – Artificial intelligence) dokáže vytvořit i smyšlenou judikaturu. O případu z USA informoval účastníky sympozia České justice a Zdravotnického deníku „Právo a digitalizace – umělá inteligence ve zdravotnictví“ prorektor Masarykovy univerzity Radim Polčák. S podobnými situacemi se podle něj bude v budoucnu potýkat i tuzemská justice.
Prorektor Radim Polčák byl před několika dny uveden do Síně slávy Cybersecurity. Prestižní ocenění pro osobnosti působící v oboru kybernetické bezpečnosti získal v rámci mezinárodní konference IS2 v Praze. Je předním odborníkem v akademické sféře na oblast kyberbezpečnosti a IT. Vede také Ústav práva a technologií Právnické fakulty MU.
Ve své úvodní přednášce na sympoziu České justice a Zdravotnického deníku referoval o případu z USA, kdy advokát odeslal podání na soud. Následně ale soudce zjistil, že v něm cituje judikaturu, kterou stvořila AI. „Část těch rozhodnutí vůbec neexistovala, část existovala, ale byla ve skutečnosti o něčem jiném,“ uvedl s tím, že podání bylo vytvořeno přes chat GPT. Taková věc týkající se umělé inteligence je podle právníka nebezpečná. „Zejména je ale nebezpečné si vzít generativní systém a předpokládat, že mi vytvoří nějaký sofistikovaný obsah. Systém je udělaný na to, aby generoval texty. Ale jen jejich formu, obsah je potřeba dodat,“ vysvětlil. S tím se podle Polčáka bude potýkat nejenom justice, ale celá právnická obec.
Právo klopýtá za technologickým vývojem
V další části své přednášky se věnoval umělé inteligenci a její možné regulaci. „Regulace zřejmě dopadne primárně na systémy, které jsou založené na strojovém učení. Takže to odliší AI od ostatního. Ta definice bude zřejmě velmi široká a téměř všechno, co má nějakou svojí vnitřní logiku, do ní postupem času spadne. Protože jakýkoliv mechanismus strojového učení, cokoliv je trochu chytřejší, se asi objeví,“ míní Polčák. V té souvislosti připomněl poučku, že právo klopýtá za technologickým vývojem. Podle něj je to tak správné, protože není možné předvídat jakým směrem se bude pokrok ubírat. Problematiku si můžeme představit například u vývoje autonomních aut. „Ono to vypadá, že tu už 15 let jezdí autonomní auta, ale dokonce i velké automobilky přiznávají, že auta na stupni 5 asi pravděpodobně nikdy mít nebudeme. A to z různých důvodů,“ zmínil.
Čtěte také: Náměstek ministra Stanislav: Umělá inteligence musí reflektovat nezávislost justice
Nejnižším stupněm automatizace aut je stupeň 1, ve kterém automobil využívá některé automatické funkce jako je tempomat nebo asistent pro udržení jízdního pruhu. Řidič je ale stále zodpovědný za řízení. Naopak u stupně 5 je automobil plně autonomní a řidič nemusí být vůbec přítomen. „Například u D1 je potřeba taková míra kreativity pro to, aby člověk dálnicí projel, že to nikdy žádná AI nezvládne,“ glosoval prorektor Masarykovy univerzity.
Odlišná je situace ve zdravotnictví, kde přístroje založené na strojovém učení reálně existují a a také generují právní problémy, zejména co se týče odpovědnosti. „Někteří kolegové by řekli, že se nesmí říkat odpovědnost, musí se říkat povinnost nahradit škodu,“ uvedl s tím, že rostou náklady na vývoj a na nasazení přístrojů. Týká se to především oblasti diagnostiky. U amerických nemocnic je běžné, že na noční službě není radiolog, ale pouze obsluha scannerů. radiolog pak může bát klidně na druhém konci světa, třeba v Indii. Právě to je oblast, kterou by AI mohla ve velké míře zastat.
AI pomůže s výběrem léků?
Vzpomněl na situaci, kdy společnost IBM před několika lety představila nabídku Watson Health. Chtěla v ní využít svou základní platformu umělé inteligence k tomu, aby pomohla poskytovatelům zdravotní péče analyzovat velké objemy dat dat a revolučně změnit léčbu rakoviny. Ambice se však příliš nenaplnily. „Je otázka, čím to je. Já jsem se po tom pídil a údajně jedním z důvodů byly reálné případy odpovědnosti,“ řekl Polčák.
Další velkou oblastí, kde se systémy AI začínají testovat, tak jsou indikace toho, co má člověk dostat za léky. Systém je schopen zpracovat velké množství informací ohledně různých kontraindikací, alergií a dalších zdravotních problémů.
Politický boj o regulaci AI bude podle Polčáka zajímavý. „Myslím si, že základním kamenem bude certifikace. Tedy schéma co a za jakých podmínek se bude certifikovat,“ míní. Sám se jednání o zákonné úpravě v Evropě dříve účastnil. „Bude to výsledek nějakého politického procesu, ale co jsem měl možnost se toho účastnit, tak lidé, kteří to připravovali měli extrémně vysokou úroveň chápání problematiky,“ dodal. Pokud jde o zdravotnické prostředky, tak by se podle Polčáka mělo jít dále cestami certifikace, které v současné době existují, protože dobře fungují. Problematiku by podle něj mohl mít na starosti Český telekomunikační úřad. „Každopádně by určitě nemělo dojít k tomu, že bude dvojkolejná certifikace. Jeden certifikát z jedné oblasti bude uznatelný jako certifikát podle jiné úpravy. Nemyslím si, že se zdravotnické prostředky v dohledné době budou certifikovat novým systémem, který vznikne na základě Aktu o AI,“ řekl Polčák s tím, že je možné se inspirovat u certifikace v oblasti kyberbezpečnosti.
AI Akt bude klíčovým dokumentem
Návrh nařízení, kterým se stanoví harmonizovaná pravidla pro AI (tzv. AI Akt) je od svého vydání nejdiskutovanějším dokumentem k AI na celoevropské úrovni. Jedná se o návrh prvního právního rámce pro AI, jehož cílem je poskytnout vývojářům, poskytovatelům a uživatelům systémů AI jasné a jednotné požadavky a povinnosti v rámci celého vnitřního trhu, za jakých je možné tyto systémy uvádět na trh či do provozu anebo je užívat, aby tyto systémy byly důvěryhodné, transparentní a fungovaly v souladu s hodnotami, základními právy a principy Evropské unie.
Čtěte také: Umělá inteligence změní lidstvo jako vynález knihtisku. Jde o mimořádnou naději i hrozbu
V Německu v souvislosti s AI vznikl návrh, aby se regulace udělala podobně, jako je řešena odpovědnost za domácí zvíře. Pokud pes někoho pokouše, je to odpovědnost majitele, který ho měl uvázat. „Další diskutovaný model byl model letadlo. Když spadne letadlo, tak to je vždy odpovědnost provozovatele letadla. Může se pak prokázat pochybení výrobce atd. ale letecká společnost, která to letadlo provozuje, tak když spadne, je to její odpovědnost. Další model, který se nabízel, byl model výtah. Tam je to zase naopak. Výtah musí být udělaný tak, že ať se tam pomačkáte, co chcete, tak nikdy nesmí spadnout. Pokud spadne, je to vždycky problém výrobce.
Na sympoziu dále vystoupili bývalý místopředseda Nejvyššího soudu Roman Fiala, náměstek ministra spravedlnosti Antonín Stanislav, egyptolog Miroslav Bárta, Chief Information Officer AK Císař, Češka, Smutný Martin Vlasta, ředitel divize Medical Solutions OR-CZ Michal Mačát, ředitel Asociace pro aplikovaný výzkum v IT Jaromír Hanzal, spoluzakladatel Carebot s.r.o. Matěj Misař a manažer Aireen a.s Matěj Adam. Jejich vystoupení zpracujeme v dalších článcích na České justici a Zdravotnickém deníku.
Text: Eva Paseková
Foto: Radek Čepelák
Konference se uskutečnila za laskavé podpory společností OR-CZ a Carebot.