Date post: | 26-Mar-2015 |
Category: |
Documents |
Upload: | lukas-matejka |
View: | 101 times |
Download: | 1 times |
PRÁVNICKÁ FAKULTA MASARYKOVY UNIVERZITY
Právo a právní věda
ÚSTAV PRÁVA A TECHNOLOGIÍ
Diplomová práce
Právní aspekty automatizace
rozhodovacích procesů
Lukáš Matějka
Brno 2011
Prohlášení
Prohlašuji, že jsem diplomovou práci na téma: Právní aspekty
automatizace rozhodovacích procesů zpracoval sám. Veškeré
prameny a zdroje informací, které jsem použil k sepsání této práce,
byly citovány v poznámkách pod čarou a jsou uvedeny v seznamu
použitých pramenů a literatury
Poděkování
Rád bych poděkoval vedoucímu práce Mgr. Jaromíru Šavelkovi za jeho připomínky a cenné podněty při vedení diplomové práce a rodině za podporu v průběhu celého studia.
Anotace
Tato práce se z právní perspektivy zabývá automatickým
rozhodováním. Po teoretickém uvedení do problematiky rozhodování
následuje analýza nejvýznamnějších systémů umělé inteligence
použitelných pro automatické rozhodování. Z této analýzy vyplývá
hodnocení právních následků akcí konaných automatem, zejména
pak odpovědnosti za ně. Následuje úvaha nad možným budoucím
vývojem automatických systémů do podoby umělých bytostí. Nakonec
jsou analyzovány možnosti automatizace rozhodování v justici
a státní správě.
Klíčová slova
automatické rozhodování, automatizace, odpovědnost, právo,
rozhodovací proces, umělá inteligence
Annotation
This thesis deals with automated decision making from the legal
perspective. Theoretical introduction to the area of decision making is
followed by an analysis of the most significant artificial intelligence
systems that are applicable for automated decision making. Based on
this analysis, legal effects of automatically conducted actions are
evaluated; especially liability for these actions. Further the possible
development of automatic machines into artificial beings is
contemplated. Finally the possibilities of automation in justice and
public administration are analysed.
Keywords
automated decision making, automation, liability, law, legal, decision
making process, artificial intelligence
zadání 1. strana
zadání 2. strana
7
1 Obsah
2 Úvod ........................................................................................... 9
2.1 Cíle práce .......................................................................... 10
2.2 Stručná historie a terminologie .......................................... 11
3 Rozhodovací procesy ................................................................. 13
3.1 Co je rozhodovací proces? .................................................. 13
3.2 Význam rozhodovacích procesů ......................................... 13
3.3 Automatizované rozhodovací procesy ................................. 14
3.4 Typy rozhodování .............................................................. 17
3.4.1 Programová a neprogramová rozhodnutí ................... 18
3.4.2 Strategická a operativní rozhodování ........................ 18
4 Způsoby automatizace rozhodovacích procesů .......................... 20
4.1 Oblasti automatizace rozhodování ..................................... 20
4.2 Historie umělé inteligence .................................................. 23
4.3 Současný stav poznání a oblasti aplikace UI ...................... 24
4.4 Umělé neuronové sítě ........................................................ 25
4.5 Expertní systémy ............................................................... 28
4.5.1 Tvorba ES ................................................................ 30
4.5.2 Použití expertních systémů ...................................... 31
5 Odpovědnost za aktivity automatických a autonomních
systémů .................................................................................... 33
5.1 Soukromoprávní odpovědnost za škodu ............................. 33
5.2 Trestní odpovědnost .......................................................... 40
5.3 K možnosti aplikace zákonů robotiky ................................. 43
8
6 Umělé bytosti ............................................................................ 45
6.1 Definice a povaha umělých bytostí ..................................... 46
6.1.1 Povaha umělých bytostí ............................................ 48
6.2 Možné přístupy k umělým bytostem de lege ferenda .......... 49
7 Automatizace rozhodovacích procesů v justici a státní správě ... 53
7.1 Asistenční činnosti ve státní správě a justici ...................... 54
7.1.1 Současný stav .......................................................... 54
7.1.2 Možnosti automatizace pomocných činností ............. 56
7.1.3 Předpověď rozhodnutí .............................................. 58
7.2 Automatické systémy ve vlastním rozhodování .................. 59
7.2.1 Očekávatelné přínosy automatizovaných rozhodnutí . 59
7.2.2 Meze, rizika a nevýhody: .......................................... 60
7.2.3 Zavádění automatizovaných rozhodnutí do státní
správy a justice ........................................................ 61
8 Závěr ........................................................................................ 64
9 Resumé .................................................................................... 67
10 Definice .................................................................................... 70
11 Zkratky .................................................................................... 72
12 Použité zdroje ........................................................................... 73
9
2 Úvod
Stále více jsou naše životy ovlivňovány technikou. Technikou, jejíž
možnosti a schopnosti jsou stále rozsáhlejší. Čím dál tím častěji jsou
strojům svěřovány i různě komplikované činnosti, které vykonávají
bez lidských zásahů a s pouze omezenou kontrolou. Začínají se
objevovat i stroje schopné autonomního provozu a lze se domnívat, že
jich bude jen přibývat. Autonomně jezdící automobily a letadla,
vojenské nebo záchranné roboty nasazované na nejnebezpečnější
úkoly jsou těmi nejviditelnějšími. Přesto je lze považovat pouze za
špičku ledovce. Většina počítačových programů1 totiž neovládá žádné
auto ani žádného robota. Většina nemá přímý fyzický vliv na okolí.
Proto však nejsou méně významné. Rozhodují o obchodních
transakcích, pomáhají hledat naleziště surovin2 nebo diagnostikovat
nemoci3
A přesto neexistuje právní regulace autonomních systémů.
Zatímco dnes to možná není zásadním problémem, v budoucnu by
být mohlo. Zásadním rozdílem je, že v případě autonomních systémů
jde o kvalitativní změnu. Zatímco například s příchodem internetu se
zásadním způsobem zrychlilo a usnadnilo předávání informací,
možnost dálkové komunikace zde byla dlouhodobě – změna byla
kvantitativní. Autonomní systémy představují entitu, se kterou právo
v zásadě nepočítá – mohou být schopny relativně samostatného
rozhodování, ale nejsou člověkem. Zároveň nejsou natolik
samostatné, aby mohly být nadány plnou právní subjektivitou.
V současnosti zná právo pouze dvě entity s podobnými vlastnostmi:
děti a zvířata, přičemž děti jsou nadány částečnou právní
.
1 Což je v současnosti a minimálně v blízké budoucnosti ta část, která rozhoduje a řídí. 2 Například expertní systém Prospector. 3 Například expertní systém Mycin.
10
subjektivitou a zvířata jsou považována za zvláštní druh věci4
Stav, kdy neexistuje zvláštní právní regulace na problematiku,
která je zatím pouze okrajová a kterou bude třeba ve zvýšené míře
řešit především v budoucnosti, netřeba považovat za kritický. Je zde
však důvod přicházející realitu zohledňovat u nově přijímaných
zákonů i jiných regulací. Rovněž nelze pominout potřebu široké
diskuse o tom, jak by taková úprava měla vypadat.
. To činí
autonomní systémy velice specifickou skupinou.
2.1 Cíle práce
Tato diplomová práce se bude zabývat problematikou
automatizovaného rozhodování z pohledu práva. Za tím účelem bude
analyzována teorie rozhodování a jeho hlavní aspekty. Na teorii
rozhodovacího procesu naváže přehled a zhodnocení prostředků
automatizace.
Budou představeny prostředky automatizace rozhodování, které
jsou dnes nejčastěji využívány s vyzdvižením těch vlastností, které
jsou relevantní pro právní posouzení rozhodnutí vykonaných
takovými prostředky. Jde zejména o systémy umělé inteligence
a jejich specifické vlastnosti.
Hlavním cílem bude právní rozbor následků rozhodnutí
automatických a autonomních programů za současné právní úpravy
a v omezené míře návrh východisek pro případnou úpravu budoucí.
Tato práce si neklade za cíl zodpovědět všechny možné otázky a lze
očekávat, že některé zůstanou otevřené pro další diskusi.
4 Zvláštnost ale spočívá především v ochraně před týráním, zvířatům totiž nebývají svěřována žádná rozhodnutí.
11
2.2 Stručná historie a terminologie
První zmínky o umělých bytostech se vyskytují v hebrejské mytologii
v podobě golemů. „Golem provádí jednoduché, opakující se úkony, je
však těžké ho zastavit.“5
Ve většině publikací, které se, byť vzdáleně, dotýkají robotiky,
(a v českých obzvláště) je zvykem uvést okolnosti vzniku slova Robot,
které odvodil Josef Čapek ze slova „robota“, a jeho první použití
Karlem Čapkem v divadelní hře Rossum‘s Universsal Robots (R. U. R.)
v roce 1920. Bylo jím nahrazeno do té doby používané slovo
automaton.
Touto definicí se golem velmi blíží našemu
chápání slova robot pro kombinaci svého určení a mechanické
povahy. Další umělé bytosti se objevují v mytologii i v umění od této
doby až do současnosti.
6
Český pravopis připouští použití slova robot v životné i neživotné
formě. Obecně akceptovaná pravidla pro rozlišení, který robot má být
životný, a který ne, neexistují. Autor této práce zastává názor, že
vhodným dělícím kritériem je mobilita a autonomie robota. Zatímco
stacionární roboty mají obvykle povahu naprogramovaných
jednoúčelových automatů, autonomní mobilní roboti se vyznačují
množstvím vlastností společných s živočichy, které se často více či
méně úspěšně snaží napodobit a proto je na místě použití životné
formy.
Bez zajímavosti není ani fakt, že Robot popsaný Karlem
Čapkem se příliš nepodobá robotu tak, jak ho chápeme dnes.
Čapkovi Roboti byli vyráběni na biologicko-chemické bázi, a co do
vzhledu, se nelišili od lidí. V dnešní době bychom tyto bytosti označili
spíše jako androidy.
5 STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0–8493–s "STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0-8493-1804-1." \c 16 6 STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0-8493-1804-1.
12
Dalším autorem, který měl značný vliv na nazírání některých,
především etických, aspektů robotiky a existence umělých bytostí byl
Isaac Asimov. Ve své povídce Runaround (1942), kde mimo toho také
poprvé použil slovo „robotika“ ve významu, v jakém je známo dnes,
formuloval Tři zákony robotiky. Až v roce 1985 doplnil své tři zákony
o nultý.
„0) Robot nesmí ublížit lidstvu nebo svou nečinností dopustit, aby mu
bylo ublíženo.
1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby mu
bylo ublíženo.
2) Robot musí poslechnout člověka, kromě případů, kdy je to v rozporu
s prvním zákonem.
3) Robot se musí chránit před poškozením, kromě případů, kdy je to
v rozporu s prvním nebo druhým zákonem.“7
Otázka, do jaké míry budou tyto zákony robotiky dodržovány,
značně závisí na tom, kdo bude financovat jejich výzkum a vývoj.
Pokud je autorovi známo, žádný stát tyto zákony nepřijal za vlastní
inkorporací do svého právního řádu. Jejich normativita tak spočívá
v mimoprávním působení na tvůrce robotů. Nutno však podotknout,
že adresáty těchto zákonů měli být plně autonomní roboti. Vůli
tvůrců robotů aplikovat tyto zákony extenzivně je i tak třeba hodnotit
pozitivně.
Se značnou jistotou lze snahu o dodržení těchto pravidel
předpokládat u robotů průmyslových a zábavních, kde půjde
především o maximální možnou eliminaci nehod. Jiná je situace
u robotů vojenských, které často už z povahy svého určení nebudou
mít možnost dodržovat první zákon robotiky.
7 ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding Science Fiction. New York : Street & Smith, 1942. s. 94-104. Citace rozšířena o nultý zákon.
13
3 Rozhodovací procesy
V této kapitole budou analyzovány pojmy rozhodování
a rozhodovacího procesu. Mimo jiné i na základě rozšířenosti
rozhodování bude demonstrován značný význam rozhodovacích
procesů. Pro úplnost bude uvedeno základní dělení (typy)
rozhodování s přihlédnutím k jejich automatizovatelnosti.
3.1 Co je rozhodovací proces?
Rozhodovacím procesem se rozumí postup, kdy nějaká entita (obvykle
člověk, ale stále častěji stroj) vybírají jednu nebo několik variant
řešení nebo postupu z více možných variant. Přitom všechny možné
varianty rozhodnutí nemusí být, a často nejsou, známy na začátku
rozhodování a někdy ani v jeho průběhu.
3.2 Význam rozhodovacích procesů
Důležitost rozhodování na všech úrovních naší společnosti od
vrcholných politických pozic až po drobná rozhodnutí je značná
a také se touto problematikou zabývá množství literatury. Oblastí, ve
které je v brzké době možno očekávat nejdynamičtější rozvoj
automatizovaných rozhodnutí, je management – právě zde není
výjimečným výskyt rozhodnutí s relativně omezenou množinou
vstupních faktorů, která jsou však natolik komplexní, že rozhodování
člověka se stává obtížným pro nemožnost postihnout všechny
varianty. A protože „komponenta rozhodování přímo ovlivňuje všechny
´interní´ manažerské komponenty“8
Vzhledem k tématu práce nebudou nadále probírána rozhodnutí,
která učinil člověk, ale pouze ta učiněná výhradně strojem nebo za
jeho výrazného přispění.
je správné rozhodování klíčové.
8 VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita, 2006. ISBN 80-210-3972-8.
14
3.3 Automatizované rozhodovací procesy
Předně je vhodné říci, co se rozumí automatizovaným rozhodnutím.
Je jím rozhodnutí, které učiní počítač sám na základě programu a je
třeba je zásadně odlišovat od vůle člověka projevené prostřednictvím
počítače v případech, kdy se počítač a jeho program na rozhodnutí
nijak nepodílí.
„Od vůle projevené prostřednictvím zařízení na zpracování dat
(nejčastěji počítač) je třeba odlišit tzv. počítačový projev, kdy počítač
sám automaticky vygeneruje reakci na akci – projev vůle druhé strany
projevené elektronickým způsobem, např. e-mail potvrzující
zaregistrování doménového jména. Zde evidentně chybí projev lidské
vůle v reálném čase. Protože však počítačová reakce byla
naprogramována člověkem, jedná se přece jen o projev lidské vůle:
provozovatel příslušného software sice neprojevil vůli v reálném čase,
ale z počítačového projevu lze odvodit všeobecnou vůli vždy za určitých
podmínek (např. správné vyplnění e-žádosti o registraci doménového
jména) právní následky založit.“9
Je vhodné se zabývat důvody, proč by automatizace rozhodování
mohla způsobovat potíže v právním posouzení následků takových
rozhodnutí. Tato otázka je spojena s historií vývoje právní úpravy,
jejíž základy a zásady, na nichž staví, vznikaly v minulosti. V době
jejich vzniku nebyla možnost existence samostatně rozhodující entity
jiné než člověka a později vzniklé abstrakce – právnické osoby –
představitelná, natož předvídatelná.
Pokud by zde taková možnost byla, lze se domnívat, že by právní
úprava vypadala mnohdy jinak. Jako příklad lze uvést úpravu
provozu na pozemních komunikacích. V době, kdy nebylo
9 SVOBODA, Pavel, et al. Právní a daňové aspekty e-obchodu. Praha : Linde Praha, 2001. 464 s. ISBN 80-7201-311-4.
15
představitelné, že by vozidlo bylo řízeno někým jiným než člověkem,
neexistoval žádný důvod vytvářet abstraktnější právní úpravu
a nevázat oprávnění k řízení vozidla na člověka. V současné situaci
(a především v blízké budoucnosti), kdy jsou autonomně řízená
vozidla realitou10
Zvláště významně se projeví v oblasti přičitatelnosti určitého
rozhodnutí například kvůli stanovení odpovědnosti, pokud rozhoduje
automat s určitou mírou autonomie. V takovém případě by mohlo
přestávat platit tvrzení, že „jedině rozhodovatel definitivně rozhoduje
o volbě varianty k realizaci a nese za své rozhodnutí a jeho realizaci
plnou odpovědnost“
, však takový důvod existuje.
11
V tomto kontextu si je nutné uvědomit i další velmi důležitou
skutečnost, kterou představují meze možností automatizace
rozhodování. Smyslem automatizace (jakékoliv) je, aby byl daný úkol
vykonáván rychleji, spolehlivěji a levněji. Je pravdou, že některé
úkoly by jinak než automatizovaně provádět nebylo možné, a to kvůli
jejich časové nebo jiné náročnosti.
. Skutečným rozhodovatelem je zde autonomní
systém, který nemůže být odpovědný, zatímco po odpovědné osobě,
která by odpovědnost nést mohla (a předpokládá se to) nelze toto
spravedlivě požadovat, protože nad rozhodnutím nemá plnou
kontrolu.
12
10 Viz MARKOFF, John. Google Cars Drive Themselves, in Traffic. The New York Times [online]. October 9, 2010, n/a, [cit. 2010-12-28]. Dostupný z WWW: <http://www.nytimes.com/2010/10/10/science/10google.html?_r=1>. nebo extrémně rychlý vývoj schopností vozidel účastnících se DARPA Grand Challenge a DARPA Urban Challenge viz DARPA Grand Challenge. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: <http://en.wikipedia.org/wiki/DARPA_Grand_Challenge>.
Většina automatizovaně
11 VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita, 2006. ISBN 80-210-3972-8. 12 Jako příklad může posloužit hromadná identifikace osob z obrazových dat na letištích, podrobné sledování dopravní situace nebo trvalý monitoring odlehlých míst.
16
řešených problémů je však, alespoň teoreticky, řešitelná i bez použití
automatizace.13
Tento fakt se stává maximálně důležitým v situaci, kdy přestává
být rozhodnutí jednoznačnou funkcí vstupních dat. Za současného
stavu poznání
14
Tato omezení často pramení přímo z technických způsobů
automatizace rozhodovacích procesů, které budou popsány dále.
Řada přímočarých úloh je řešitelná sestavením určitého algoritmu,
který je následně vykonáván. Problémy, u kterých takový algoritmus
není ani známý, ani snadno sestavitelný, se používá některého
z těchto prostředků umělé inteligence:
není možné naučit výpočetní prostředky vykonávat
činnost, kterou lidé vykonávat nejsou schopni. Tou hlavní výhodou
použití výpočetních prostředků, kterou je rychlost nelze
vykompenzovat nedostatek schopnosti inteligentního uvažování.
neuronové sítě,
expertní systémy,
fuzzy logika,
strojové učení nebo
genetické programování a evoluční algoritmy.
Společné jim je to, že po vytvoření technického řešení systému
(programového vybavení) je nutné ho naplnit daty – učením
u neuronové sítě, vytvořením báze znalostí u expertního systému.
Tato data poskytuje zpravidla určitým způsobem člověk, ať již
předložením vzorových dat (vstup → požadovaný výsledek) nebo
13 Minimálně je znám princip fungování a automatický systém poskytuje přesnější vstupní data a lepší možnost zpracování. 14 S příchodem systémů schopných samostatného učení a s možnostmi přesahujícími možnosti lidského mozku nebudou takové překážky relevantní.
17
přímo odpovídáním na dotazy.15 V takovéto situaci není možno
žádným způsobem naučit systém rozhodovat o otázkách jako je
spravedlnost, morálka, estetika nebo náboženská víra. Ne snad proto,
že tyto kategorie nejsou přesně vymezeny ani definovány – to je
překonatelný problém. 16 Tím hlavním problémem je neexistence
univerzálně platného pojetí těchto kategorií. Bylo by tak možné
vytvořit systém, který by s přijatelnou spolehlivostí aproximoval
názory svého učitele – člověka17
3.4 Typy rozhodování
, ale to není řešení daného problému.
Počítač těžko může poskytnout odpovědi na politické otázky,
o kterých se lidé nedokážou dohodnout. Nelze předpokládat, že
jakákoliv automatizace rozsoudí dlouho se vlekoucí filosofické spory.
Pro pochopení mezí vhodnosti automatizace rozhodování je nutné se
podrobněji zaměřit na jednotlivé druhy rozhodnutí.
Ne každé rozhodování je stejné. Jednotlivá rozhodování se mohou lišit
svojí důležitostí, obtížností, strukturou, četností, časovým horizontem
nebo množstvím významných faktorů, které je třeba zvažovat.
Všechny tyto prvky mají vliv na to, zda dané rozhodování je vhodné
automatizovat či nikoliv. Z pohledu automatizace rozhodování je
důležité, zda jde o rozhodnutí programová nebo neprogramová.
Dalším dělením, které je nutno zmínit jsou rozhodnutí strategická
a operativní.
15 Výjimkou jsou právě evoluční algoritmy, které se vyvíjejí do značné míry náhodně a strojové učení, kde není vždy nutný lidský vklad pro učení. 16 Což zdaleka neznamená, že je snadný. V uvedených případech by byl pravděpodobně největší problém s vhodnou reprezentací dat. 17 Není bezpodmínečně nutné, aby se takový člověk aktivně účastnil, jako vstupní data by bylo možno použít i jeho existující rozhodnutí. Je rovněž možné, aby učitelem byla skupina lidí, ta ale musí mít dostatečné koherentní názory – při odlišnosti učících vzorů bez zjevných důvodů by systém nebyl schopen se na základě daných dat naučit.
18
3.4.1 Programová a neprogramová rozhodnutí
Programová rozhodnutí jsou taková, která poskytují strukturovaná
řešení pro konkrétní problémy. Do programových rozhodnutí patří
často rozhodnutí, která jsou vykonávána opakovaně. Takové
rozhodnutí je sledem standardizovaných aktivit a postupů, které jsou
vyzkoušené a prověřené. Programové rozhodnutí nemusí být, a často
ani není, rozhodnutím jednoduchým.18
Neprogramová rozhodnutí jsou typická pro nestrukturované
problémy a jejich řešení. Pro problémy vyznačující se komplexností,
nejednoznačností a obvykle neexistující dokumentací. Neprogramová
rozhodnutí obvykle řeší unikátní problémy, které se vyskytují pouze
jednou nebo zřídka. Automatizace takových rozhodnutí je buď
nemožná, nebo neefektivní.
Množství možností
a ovlivňujících vlivů může být obrovské. Hlavním znakem je však
strukturovanost rozhodnutí, z níž vychází postup při tomto typu
rozhodování. Takováto rozhodování jsou pak obzvláště vhodná pro
automatizaci.
19
3.4.2 Strategická a operativní rozhodování
Dělení rozhodování, které by nemělo být opomenuto je dělení na
rozhodování strategické a operativní. Rozdělení závisí na tom, zda je
dané rozhodnutí spojeno s dlouhodobou perspektivou nebo
s každodenními všedními záležitostmi.
U strategických rozhodnutí je důležitější kvalita rozhodování nad
její rychlostí a to především kvůli dlouhodobosti jejich následků.
18 CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační chování. 2., aktualizované a rozšířené vydání. Praha : Grada Publishing, 2010. 334 s. ISBN 978-80-247-3348-7. 19 tamtéž
19
Naopak tomu je u rozhodnutí operativních. U nich je zásadním
faktorem rychlé vyhodnocení alternativ a stanovení cílů.20
Uvedenými vlastnostmi je dána i vhodnost automatizace obou
typů rozhodnutí. Zatímco operativní rozhodnutí, u kterých se důraz
na rychlost minimálně vyrovná důležitosti kvality, jsou
k automatizaci velmi vhodná, u strategických rozhodnutí je prostor
pro automatizaci (a zároveň i ochota svěřit takové rozhodnutí stroji)
omezen. U strategických rozhodnutí má tak automatizace funkci
především v pomocných a podpůrných činnostech.
Další dělení rozhodování používané v managementu jako např.
rozhodování shora a zdola nemají z hlediska zaměření této práce
podstatný význam.
20 CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační chování. 2., aktualizované a rozšířené vydání. Praha : Grada Publishing, 2010. 334 s. ISBN 978-80-247-3348-7.
20
4 Způsoby automatizace rozhodovacích
procesů
Automatizací rozhodnutí se rozumí proces přesunu rozhodovací
funkce z člověka na stroj, kdy ve výsledku vlastní rozhodnutí učiní
stroj místo člověka. Stroj tedy není pouhým pomocníkem, ale
subjektem rozhodování.
Systémy, kterým je svěřeno určité rozhodování je možné rozdělit
do dvou hlavních skupin:
automatické systémy a
autonomní/inteligentní systémy.
Automatické systémy, se používají především pro jasně definované
úlohy, snadno kvantifikovatelné. Existuje jednoznačný algoritmus,
který na základě vstupních dat deterministicky nalezne výsledek.
Tyto systémy se nachází v průmyslu, kde řídí technologické procesy,
v domácnostech, ale i v automobilech, kde ty pokročilejší zasahují
i do vlastního řízení.
Autonomní inteligentní systémy se odlišují především neexistencí
jednoznačného algoritmu vedoucího ke stanovení výsledku. Na rozdíl
od deterministických autonomních systémů nedávají kategorické
výsledky, často jsou to spíše váhy nebo pravděpodobnosti. Používají
se v současnosti především pro zpracování obrazových dat, hledání
korelací v datech a jiné komplexní problémy.
4.1 Oblasti automatizace rozhodování
Už dlouhou dobu je značná část průmyslových procesů řízena různě
komplexními automatickými systémy řízení. Z právního hlediska
nezpůsobují tyto provozy větších problémů. Za tím je možno vidět
několik důvodů. Předně je kladen velký důraz na jejich spolehlivost
21
a bezpečnost21
Situace v dopravě je o něco komplikovanější. Na rozdíl od
průmyslu a některých zvláštních případů
, následkem čehož vzniká minimum problémových
situací. Ještě důležitějším faktorem z právního hlediska, ale je
jednoznačná identifikovatelnost odpovědných subjektů. V případě
selhání je možno určit, zda systém byl vadně navržen, realizován
nebo provozován. Lze pak stanovit, zda za případnou škodu odpovídá
dodavatel systému nebo bude následky nést sám provozovatel.
22 je v dopravě velké
množství účastníků s různou úrovní řidičských schopností.
Následkem toho vznikají i bez ohledu na automatické systémy
v automobilech nehody, u kterých není zcela jasné zavinění. Pokud
by některý z řidičů tvrdil, že na vině je řídicí systém auta, situace by
se zkomplikovala ještě více. I zde se dá předpokládat, že dopravní
prostředky řízené autonomně budou bezpečnější. V současné době
však toto není, minimálně v českém prostředí, možné23. Obdobná je
situace i v jiných zemích a tak testování takových systémů probíhá
většinou v režimu, kdy je přítomna osoba s oprávněním řídit
a možností kdykoliv převzít řízení. V tomto případě je odpovědnost
jednoznačná24
V případě takové změny je třeba uvažovat i o způsobu certifikace
pro autonomní vozy, a to na úrovni výrobců. Rovněž otázka
, do budoucna je však třeba počítat s potřebou právní
úpravu změnit a umožnit aby se do provozu zapojovala i autonomně
řízená vozidla.
21 V průmyslových aplikacích se na spolehlivost a dlouhodobý bezchybný a bezzásahový provoz dává mnohem větší důraz než v ostatních oblastech lidské činnosti. 22 Jako je letecká doprava nebo železnice. 23 Zákon č. 361/2000 Sb., o provozu na pozemních komunikacích v § 3/3 uvádí, že motorové vozidlo může řídit jen osoba s příslušným řidičským oprávněním a žáci autoškol. 24 Odpovědnost je jednoznačná z pohledu problematiky autonomně rozhodujícího stroje, jinak stejně jednoznačná jako v případě vozidla řízeného jen člověkem.
22
odpovědnosti by musela být upravena odlišně od současné s tím, že
by větší část odpovědnosti nesl výrobce. Bylo by žádoucí, aby v rámci
takové změny proběhla širší diskuse, jejímž výsledkem by byly
obecnější závěry o postavení autonomních systémů, aby bylo možné
zachovat principiální jednotnost právní úpravy napříč různými
oblastmi.
Zejména v oblasti obchodu mají význam automaticky uzavírané
kontrakty, jejichž dojednávání probíhá obvykle přes internet. Ten je
ovšem pouze médiem a podstatné je postavení automatického
systému – subjektu rozhodování.
„Automatizované systémy pro uzavírání smluv se používají už delší
dobu. Přesto elektronické smlouvy uzavřené za použití inteligentních
softwarových činitelů mají jedinečné kvality a vlastnosti, které je činí
dostatečně odlišnými od smluv uzavřených elektronickými nebo
automatickými systémy.“ 25
Už dnes se v justiční a správní praxi používají různé systémy,
které, zatím ve velmi omezené míře, pomáhají automatizovat vedlejší
a servisní činnosti soudů a státní správy. Jednotlivé nepropojené
systémy zjevně nevyžadují zvláštní právní úpravu, to by ovšem
neplatilo o systému natolik komplexím, že by samostatně prováděl
i více kroků.
V kontextu autonomních a inteligentních
systémů je třeba uvažovat možnost kontroly provozovatele systému
nad jeho činností a předvídatelnost jeho akcí.
Míra použití prvků umělé inteligence se liší podle odvětví – zatímco
průmysl a státní orgány se k adopci nových technologií staví
zdrženlivě, spotřební elektronika výzkum, nebo obchod využívají nové
25 DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a doctrinal problem or merely a problem of explanation?. Artifical Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný také z WWW: <http://www.springerlink.com/index/10.1007/s10506-010-9086-8>.
23
technologie co nejdříve. Nepřekročitelným faktorem je v každém
okamžiku míra poznání a technické možnosti, které historicky rostly
postupně jako odpovědi na aktuální otázky.
4.2 Historie umělé inteligence
Historie umělé inteligence jako samostatného vědního oboru se datují
od roku 1956, ve kterém proběhla konference „The Dartmouth
summer research project on artificial intelligence“26, ačkoliv první
pokusy o tvorbu inteligentních strojů se objevovaly už dříve.27
„Umělá inteligence je věda o vytváření strojů nebo systémů, které
budou při řešení určitého úkolu užívat takového postupu, který – kdyby
ho dělal člověk – bychom považovali za projev jeho inteligence.“
Mezi
počáteční cíle vývoje umělé inteligence patřilo například odvozování
matematických vzorců a řešení matematických a technických
problémů. Obor umělé inteligence byl vymezen následovně:
28
První pokusy směřovaly do oblastí prohledávání stavového
prostoru a hlavně do výzkumu umělých neuronových sítí. Po slibných
začátcích a především velmi neskromných očekáváních následovalo
zklamání a na léta byl výzkum UNS významným způsobem utlumen.
Není bez zajímavosti, že na tom měl paradoxně výrazný podíl Marvin
Lee Minsky
29, když chybně30 zobecnil negativa31 specifické podoby32
26 HABIBALLA, Hashim. Umělá inteligence [online]. Ostrava : Ostravská Univerzita, 2004 [cit. 2011-02-19]. Dostupné z WWW: <http://www.volny.cz/habiballa/publ/umint.pdf>.
27 Například jednoduchý model neuronu ze 40. let od W. S. McCullocha a W. Pittse. 28 Definice z MINSKY, Marvin Lee. Computation: Finite and Infinite Machines. New Jersey : Prentice Hall, Inc., 1967. ISBN 0-13-165563-9. 29 Marvin Lee Minsky je jeden ze zakladatelů oboru umělé inteligence a významný odborník na umělé neuronové sítě. 30 Existuje názor, že tuto chybu učinil záměrně, aby byly kapacity přesměrovány do jiných oblastí výzkumu, které považoval za perspektivnější.
24
neuronové sítě na všechny konfigurace. Od té doby byla značná
pozornost věnována zejména expertním systémům. Přibližně od 80.
let minulého století nastala určitá renesance UNS a na poli umělé
inteligence je dosahováno pravidelně dílčích, ale ne nevýznamných
praktických úspěchů.
4.3 Současný stav poznání a oblasti aplikace UI
Naděje vkládané do aplikací umělé inteligence v prvopočátcích byly
zčásti naplněny. Systémy umělé inteligence sice neučinily významné
vědecké objevy33
rozpoznání obrazu a zpracování obrazových dat,
, zato nacházejí uplatnění ve velkém množství
aplikací denního použití, které by bez nich nebyly řešitelné. Mezi
hlavní oblasti použití systémů umělé inteligence patří zejména:
optické rozpoznání znaků (OCR) – převod naskenovaného
textu na zpracovatelná data,
převod řeči na text34
předpovědi v časových řadách – počasí, ceny akcií na
burze,
,
hledání optimálních řešení při navrhování plošných
spojů,
prohledávání možných tras v navigačních systémech,
nebo
klasifikace – rozdělení objektů do skupin podle vlastností.
31 Tímto negativem byla neschopnost aproximovat logickou funkci XOR (výlučné nebo). 32 Toto omezení platí pro topologii sestávající z jednoho perceptronu, např. třívrstvá perceptronová síť tuto funkci realizovat umožňuje. 33 Alespoň autorovi nejsou žádné objevy učiněné samostatně počítačovým systémem známy. Lze se jen dohadovat, zda by případný autor takový objev přiznal počítači, nebo by jej prezentoval jako vlastní. 34 Převod mluveného slova do textové podoby má spolu s OCR význam mj. i pro soudní praxi.
25
Jak je patrno, jde o velmi separované úlohy, jejichž uplatnění je
především v pomoci člověku při rozhodování nebo usnadnit časově
náročnou rutinní činnost. Skutečně samostatné rozhodování je spíše
výjimečné.
Jak už bylo naznačeno výše, systémy využívající prvky umělé
inteligence jsou schopny řešení problémů, které není výhodné nebo
možné řešit klasickým způsobem. Cenou za to je částečná ztráta
kontroly nad výsledkem a z toho plynoucí nárůst nejistoty. Je tedy
potřeba vždy pečlivě zvážit, zda má být dána přednost tradičnímu
algoritmu nebo prvkům umělé inteligence. V následujících
podkapitolách budou představeny nejběžnější inteligentní systémy,
konkrétně umělé neuronové sítě a expertní systémy.
4.4 Umělé neuronové sítě
Umělé neuronové sítě jsou paralelní systémy prvků modelujících
činnost biologických neuronů, které jsou uspořádány a vzájemně
provázány tak, aby celý systém byl schopen zpracovat data
požadovaným způsobem.
Již první pokusy s umělými neuronovými sítěmi byly prováděny
na optickém rozpoznávání znaků a zpracování obrazu je dodnes
významnou oblastí použití umělých neuronových sítí. Dalšími,
neméně významnými oblastmi použití, jsou předpovědi na základě
historických dat nebo rozpoznání (přepis) mluveného slova. Obecně
jde zejména o těžko algoritmizovatelné problémy.
Drtivá většina, pokud ne všechny, neuronové sítě mají společné
to, že mají přesně definovaný formát vstupních a výstupních dat,
kterým je uspořádaná množina čísel, obvykle jako vektor nebo
matice. Tato čísla reprezentují zpracovávaná data (jasové úrovně
u obrázku, jednotlivé body časové řady, příznaky objektů, které je
26
třeba klasifikovat…). Výstupem je rovněž jedno nebo více čísel, která
je třeba interpretovat.
I z tohoto velmi stručného popisu je patrné, že umělé neuronové
sítě nejsou schopny samostatné funkce bez dalších součástí, které
zajistí vhodnou přípravu vstupních dat a interpretaci výsledků. Pro
pochopení fungování a omezení umělých neuronových sítí je vhodné
se podívat podrobněji na princip jejich funkce. Základem umělých
neuronových sítí je matematický model neuronu, obvykle
perceptron35
.
Obr. 1 Schéma perceptronu36
V průběhu procesu učení jsou učícím algoritmem
37
35 Zobecnění více matematických modelů z roku 1957, jehož autorem je Frank Rosenblatt.
nastaveny
váhy vstupů neuronu takovým způsobem, aby danému vstupu
odpovídal požadovaný výstup. Výstup se získá tzv. aktivací neuronu,
36 PRANANTHA, Danu. Lifelong Learning Journal [online]. October 15, 2009 [cit. 2011-02-21]. Neural Network in Business Intelligence . Dostupné z WWW: <http://danupranantha.wordpress.com/2009/10/15/neural-network-in-business-intelligence-part-1/>. 37 Nejčastěji používaným algoritmem pro učení je backpropagation – zpětné šíření chyby výstupu.
27
která spočívá v přivedení signálů na patřičné vstupy a jejich váženém
součtu.
Tento jednoduchý princip vede k překvapivě dobrým výsledkům.
I jediný perceptron je při správném naučení schopen reagovat na
naučený znak38
Velkou výhodou výpočtů založených na neuronových sítích je
jejich schopnost zobecňovat. Kromě toho, že neuronová síť reaguje
správně na vzory předložené při učení, což se předpokládá, měla by
být schopna správně reagovat i na jiné podobné vzory, které
nemusely při učení být dostupné.
. Pro složitější případy a lepší výsledky jsou neurony
uspořádány a vzájemně propojeny do sítí tak, že výstup některých
neuronů je vstupem další vrstvy.
Byť umělé neuronové sítě mohou jen stěží být samostatně
rozhodující entitou, často budou tvořit podstatné součásti
autonomních systémů, řídicích programů robotů nebo expertních
systémů, které budou zmíněny dále. Už proto má smysl se ptát, jak
probíhá jejich tvorba a učení, což jsou podstatné informace pro
případné stanovení odpovědnosti.
Umělé neuronové sítě jsou obvykle realizovány jako softwarová
simulace neuronů spuštěná na běžném počítači, případně na
hardwaru specializovaném na neurální výpočty. Každopádně základní
topologie a příslušné druhy učících algoritmů jsou známy a teoreticky
důkladně popsány.39
Jiná situace je s volbou dat pro učení a nastavením parametrů
učení. Není totiž znám přesný způsob jaká data vybrat a jak zvolit
Správnost jejich konkrétní realizace je tedy
dobře ověřitelná a lze předpokládat plnou kontrolu tvůrce nad ní.
38 Na rozpoznání 26 znaků abecedy by tedy v ideálním případě postačilo 26 perceptronů. 39 Což nevylučuje vznik jiných v budoucnosti.
28
parametry. Nelze předem zjistit, zda určitá volba byla dobrá, nebo ne.
A už vůbec není možno určit, jak mají vypadat jednotlivé nastavené
váhy na konci učení. Navíc počáteční váhy jednotlivých vstupů bývají
nastavovány náhodně, takže i při stejné volbě vstupních dat
a parametrů mohou být výsledky mírně odlišné. A to ještě nebyla
zmíněna možnost průběžného učení neuronové sítě i ze vstupních
dat. V tomto případě se výsledky dynamicky mění a není v moci
tvůrce ovlivnit, jak bude vypadat výstup po určité době provozu.
Další aspekt plyne ze schopnosti generalizace40, která, pokud má
být využita41
Ze své povahy neposkytují neuronové sítě 100% jednoznačné
odpovědi – výsledky. Nicméně podle toho zda se výsledná
pravděpodobnost této hodnotě velmi blíží (což odpovídá velmi přesné
shodě s naučeným vzorem) nebo zda se pohybuje v nízkých
hodnotách odpovídajících aktivaci náhodnými hodnotami lze poměrně
dobře usuzovat na spolehlivost obdrženého výsledku.
, už ze své podstaty vylučuje možnost ověření správnosti
funkce na celém rozsahu budoucích vstupních dat. To vnáší do
provozování systémů založených na umělých neuronových sítích jistý
prvek nejistoty.
4.5 Expertní systémy
Expertní systém je „inteligentní počítačový program, který užívá
znalosti a inferenční procedury k řešení problémů, které jsou natolik
obtížné, že pro své řešení vyžadují významnou lidskou expertízu.“42
40 Jde o schopnost neuronové sítě správně zpracovat data pouze podobná datům použitým při učení.
Snahou expertních systémů je simulovat rozhodovací činnost
lidského experta takovým způsobem, že kvalita rozhodovacího
41 A dlužno konstatovat, že téměř vždy má. 42 Definice podle E. Feigenbauma z BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN 80-7079-873-4.
29
procesu bude lepší nebo alespoň srovnatelná s lidským
rozhodováním.
V počátcích expertních systémů panovala velmi optimistická
představa univerzálního experta, který by byl schopen okamžitě řešit
všechny úlohy v dané oblasti. Překážky, na které narazily tyto
představy, byly jak technického charakteru (expertní systémy řešily
úspěšně pouze obvyklé problémy), tak přijetím od uživatelů (neochota
poslouchat stroj). Z těchto problémů tak vyplynulo omezení
požadavku na samostatné rozhodování a vytvořily se role, ve kterých
může expertní systém fungovat:
expert – systém ví víc než uživatel a obvykle i sám rozhoduje,
kolega – systém ví přibližně stejně jako uživatel a funguje jako
poradní hlas nebo nabízí a posuzuje řešení,
asistent – systém nedosahuje schopností uživatele, ale řeší
opakující se úlohy, aby se uživatel mohl věnovat
komplikovaným případům.
Hlavní charakteristikou expertního systému je existence
inferenčního (řídicího, vyvozovacího) mechanismu a oddělené báze
znalostí. Vlastní program obsahuje jen inferenční mechanismus,
uživatelské rozhraní a případně vysvětlovací modul. Expertní znalosti
jsou uchovány v bázi znalostí, která je relativně nezávislá na
inferenčním mechanismu. Znamená to možnost vytváření prázdných
expertních systémů, které je před použitím nutno naplnit znalostmi –
vytvořit bázi znalostí.
Další významnou odlišností expertních systémů je přítomnost
vysvětlovacího modulu. Ten umožní, že expertní systém nejen dospěje
k nějakému závěru, ale umí tento závěr i odůvodnit. Dostatečné
vysvětlení postupu, který vedl k danému závěru, je zásadní pro
důvěryhodnost vytvářených rozhodnutí a jejich přezkoumatelnost.
Vysvětlovací modul chybí v obecných znalostních systémech.
30
Poslední, a z uživatelského pohledu nejdůležitější, odlišností
expertního systému od „normálního“ počítačového programu je
možnost práce s neurčitostí. Tato neurčitost může být jak v bázi
znalostí (pravidlo platí většinou nebo často), tak v bázi dat (vstupní
informace jsou neurčité).
Obr. 2 Architektura expertního systému43
Na schematickém znázornění architektury expertního systému na
obr. 2 je dobře patrno oddělení báze znalostí od zbytku systému.
4.5.1 Tvorba ES
Jak vyplývá z výše uvedeného, sestává tvorba expertního systému ze
dvou zásadních fází a to:
naprogramování inferenčního mechanismu a
naplnění báze znalostí.
43 DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s.
31
Právě plnění báze znalostí je tou nejnáročnější fází tvorby
expertního systému. Předně vyžaduje množství času a spolupráci
znalostního inženýra s expertem v dané oblasti, která nemusí být
vždy bezproblémová. Nelze pominout, že v tomto procesu mohou být
do báze znalostí uloženy chyby (nepravdivé nebo nedokonalé
znalosti), které bude expertní systém spolehlivě reprodukovat ve
všech svých rozhodnutích. I proto je velmi důležité ladění báze
znalostí, které představuje nejdelší a nejpracnější část tvorby báze
znalostí.44
neochota expertů sdělit svoje znalosti (obava z konkurence),
Mezi hlavní problémy při tvorbě báze znalostí patří:
neschopnost expertů zdůvodnit přesně svoje odpovědi,
uplatňování i znalostí z běžného života,
neschopnost znalostních inženýrů porozumět expertovi (např.
problémy s terminologií).
Uplatňuje se zde i tzv. paradox znalostního inženýrství: „Čím více
se experti stávají kompetentními, tím méně jsou schopni popsat
znalost, kterou používají při řešení problémů.“ 45
4.5.2 Použití expertních systémů
Ač použití expertních systémů přináší mnoho výhod, je třeba mít na
vědomí i jejich omezení. Použití expertních systémů je vhodné tam,
kde problémy jsou příliš neurčité nebo komplikované pro nasazení
tradičních algoritmů. Na druhé straně, problémy příliš vágní nejsou
v současnosti expertní systémy schopny uspokojivě řešit. Podle
statistiky z roku 1992 vévodí oblastem nasazení expertních systémů
obchod, výroba a medicína.46
44 JIRSÍK, Václav. Expertní systémy : prezentace k přednáškám. Brno : VUT, 2010.
Je třeba upozornit i na vlastnost
expertních systémů, která má významný dopad na případné
45 DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s. 46 BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN 80-7079-873-4.
32
posuzování odpovědnosti za rozhodnutí učiněná expertním
systémem: expertní systém si není vědom mezí svých schopností.
Z hlediska právních následků akcí konaných expertními systémy,
zejména pak odpovědnosti za ně, je třeba uvažovat se skutečností, že
na tvorbě expertního systému se podílí mnoho různých tvůrců
a každý může svou chybou zapříčinit, že expertní systém se zachová
nežádoucím způsobem. Lze však konstatovat, že pro jednoznačně
oddělené části expertního systému lze stanovit i odpovědný subjekt.
Plně odpovědného za správnou funkci inferenčního mechanismu lze
považovat programátora – tvůrce inferenčního mechanismu.
Poněkud obtížnější je situace u odpovědnosti za bezvadnost báze
znalostí. Prvním důvodem, a pravděpodobně tím významnějším, je
fakt, že chyba může vzniknout nejen chybou experta nebo
znalostního inženýra, ale i chybou komunikace mezi nimi. V tomto
kontextu nelze vyloučit situace, kdy předvídat takovou chybu
v komunikaci nebylo v možnostech ani jednoho ze zúčastněných.
Druhým možným zdrojem problémů jsou omezené znalosti experta,
které mohou být i vnitřně rozporné. Ač by se s určitým množstvím
vnitřních rozporů a nejistot měl dobrý inferenční mechanismus
vypořádat, nelze to požadovat bezmezně.
33
5 Odpovědnost za aktivity automatických
a autonomních systémů
Po analýze vlastností dvou hlavních systémů považovaných za
umělou inteligenci lze přistoupit k rozboru odpovědnosti za jejich
rozhodnutí. Pro odpovědnost za libovolné aktivity autonomního
systému, včetně správných nebo chybných rozhodnutí, která učiní,
budou důležité hlavně dva typy odpovědnosti:
soukromoprávní odpovědnost a
trestněprávní odpovědnost.
Toto rozlišení je důležité, protože u každého z uvedených typů
mohou být závěry různé. Existuje jistě více typů odpovědnosti, které
však nemají pro diskutovanou problematiku tak zásadní význam.
Obecným (společným) znakem odpovědnosti je povinnost snést
zákonem stanovanou sankci. Sporným pak je názor na právní důvod
sankce, kterým může být porušení povinnosti nebo muže nastat i bez
zavinění.47
5.1 Soukromoprávní odpovědnost za škodu
Z pohledu občanského práva je základním východiskem odpovědnosti
§ 420 odst. 1 OZ48
47 KNAPP, Viktor. Teorie práva. 1. vydání. Praha : C. H. Beck, 1995. 247 s. ISBN 80-7179-028-1.
, který jako prvotní předpoklad vzniku
odpovědnosti uvádí porušení právní povinnosti. Takovým porušením
může být i nedostatečné předcházení škodám, což je povinnost
stanovená v § 415 OZ. Pro provoz automatických a autonomních
systémů jsou důležitá ustanovení § 420 odst. 2 a § 420a. Použití
autonomních systémů k provozní činnosti lze subsumovat pod
48 Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších předpisů
34
ustanovení § 420a, zejména pak pod ustanovení uvedené v odst. 2 a).
Zde je jednoznačně uvedeno, že za škody způsobené věcí použitou při
provozní činnosti odpovídá provozovatel. Jde tedy o objektivní
odpovědnost, které se lze podle § 420a odst. 3 zprostit pouze
v případě, že škoda byla způsobena neodvratitelnou událostí nemající
původ v provozu, anebo vlastním jednáním poškozeného. Jak patrno
je možnost liberace velmi omezená.
Zvláštní odpovědnost za škodu způsobenou okolnostmi, které mají
původ v povaze přístroje nebo jiné věci, jichž bylo při plnění závazku
použito, je stanovena v § 421a. Odpovědnosti podle tohoto paragrafu
se nelze zprostit žádným způsobem. Vztah mezi § 420a a § 421a je
vztah obecnosti a zvláštnosti, jak ostatně vyplývá i ze systematického
zařazení dotčených ustanovení. To znamená, že pokud je
aplikovatelný § 421a je vyloučena aplikace § 420a a s tím i možnost
zproštění se odpovědnosti. Navíc § 420a lze aplikovat pouze na
případy, kdy škoda vznikla vlastní provozní činností. Jak vyplývá
i z judikatury NS49
Poněkud mírnější je odpovědnost podle § 420. Zde je totiž
koncipována subjektivně a ke zproštění postačí subjektu prokázat, že
škodu nezavinil. Tato odpovědnost je ovšem k oběma výše zmíněným
nejobecnější a uplatní se tedy až na případy, na které nelze aplikovat
žádnou z dříve uvedených.
, nelze § 420a aplikovat na následky pochybení při
výkonu určité činnosti, kam by spadalo i pochybení způsobené
chybným automatickým rozhodnutím.
Zůstává však otázka, jak by bylo v tomto případě posuzováno
zavinění v případě nežádoucího jednání techniky způsobeného jejím
selháním, nebo nevhodným nastavením. Zejména v případech, kdy
49 Usnesení NS ČR ze dne 22. 10. 2008, sp. zn. 25 Cdo 2805/2006 a
Rozsudek NS ČR ze dne 25. 11. 2009, sp. zn. 25 Cdo 2429/2007
35
provozovatel věnoval značnou pozornost omezení možných rizik
a opatřením k předcházení škodám a jediná souvislost vzniku škody
s jednáním provozovatele spočívá v samotném použití určitých
technických prostředků, je obtížné tvrdit, že jde o zavinění. Na
druhou stranu, smyslem ustanovení o odpovědnosti za škodu je
ochrana poškozeného a ten by neměl být nucen nést následky
jednání provozovatele autonomního systému.
Specifickým případem pak je provoz dopravního prostředku.
V současnosti podléhá odpovědnost za škodu způsobenou provozem
dopravních prostředků § 427 OZ. Ten stanoví, že „(1) Fyzické
a právnické osoby provozující dopravu odpovídají za škodu vyvolanou
zvláštní povahou tohoto provozu. (2) Stejně odpovídá i jiný provozovatel
motorového vozidla, motorového plavidla, jakož i provozovatel
letadla.“50
Je vhodné, a to především s ohledem na zaměření této práce do
budoucnosti, srovnat stávající účinnou úpravu s úpravou podle
návrhu občanského zákoníku
Jde tedy opět o odpovědnost objektivní. Odlišná od shora
uvedených případů je zde i možnost zproštění, která je v obecném
případě vyloučena. Jedinou možností zproštění se, je prokázání, že
škodě nemohlo být zabráněno ani při vynaložení veškerého úsilí,
které lze požadovat. Podmínky pro zproštění jsou tedy velmi přísné.
51
Podle důvodové zprávy k návrhu občanského zákoníku
, který se pravděpodobně stane
klíčovou normou v této oblasti na dlouhou dobu.
52
50 Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších předpisů
se
současná úprava odpovědnosti za škodu způsobenou provozní
51 Návrh občanského zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: <http://obcanskyzakonik.justice.cz/tinymce-storage/files/Navrh%20obcanskeho%20zakoniku_ver_2010.pdf>. 52 Důvodová zpráva k návrhu občanského zákoníku zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: <http://obcanskyzakonik.justice.cz/tinymce-storage/files/Duvodova%20zprava%20OZ_ver_2010.pdf>.
36
činností jeví jako zmatečná, s čímž lze jen souhlasit. Tento zmatek je
spatřován ve vztahu mezi § 420a a § 432. Nicméně i u ustanovení
ostatních paragrafů je patrná jistá nesouvislost a nejasnost v jejich
vymezení.
Úprava škody z provozní činnosti, která je v návrhu řešena
v § 2866 NOZ53
Co je ovšem nové, je ustanovení § 2878 až § 2880 o škodě
způsobené věcí. Částečně se tato úprava překrývá se stávajícím
§ 421a. Zásadní změna – z pohledu provozu autonomních strojů – je
navrhované ustanovení § 2879 odst. 1. Předpokládá možnost, že věc
způsobí škodu sama od sebe, což může být právě případ
autonomních strojů:
se zásadně neliší od stávající úpravy. To platí
i o škodě způsobené provozem dopravního prostředku upravené
v § 2869 an. NOZ. U těchto dvou typů odpovědnosti je tedy jediným
rozdílem odlišná formulace (odpovědnost za škodu ve stávající úpravě
oproti povinnosti k náhradě škody v navrhované).
„(1) Způsobí-li škodu věc sama od sebe, nahradí škodu ten, kdo nad
věcí měl mít dohled; nelze-li takovou osobu jinak určit, platí, že jí je
vlastník věci. Kdo prokáže, že náležitý dohled nezanedbal, zprostí se
povinnosti k náhradě.“54
Bohužel ani z důvodové zprávy nelze jednoznačně potvrdit, že
právě autonomní stroje jsou přímým důvodem existence této úpravy –
důvodová zpráva se k § 2879 vyjadřuje dosti neurčitě: „Dále se
navrhuje zařadit úpravu povinnosti k náhradě škody způsobené věcí
v některých speciálních případech. Tato ustanovení dosud
53 Návrh občanského zákoníku 54 § 2879 návrhu občanského zákoníku
37
chyběla…“55. To by však nemělo být na překážku aplikovatelnosti
tohoto ustanovení na případ způsobení škody autonomním strojem.
Navrhovaná úprava, na rozdíl od účinné56
Pro úplnost je třeba zmínit i ustanovení, která se strojů, jakkoliv
autonomních, na první pohled netýkají. Tím jsou ustanovení o škodě
způsobené zvířetem. Paralela s autonomním mobilním robotem je
zřejmá – v obou případech jde o entity s vlastním rozhodováním,
přímo nenavázaným na jejich okolí, ale přesto okolím ovlivňovaným.
Navíc ani zvířata ani roboti nejsou nadáni způsobilostí k právům
a povinnostem, natož způsobilostí k právním úkonům. Ač tato úprava
pravděpodobně nebude na problematiku autonomních strojů
aplikovatelná, srovnání je zajímavé. Navrhovaná úprava náhrady
škody způsobené zvířetem předpokládá dvě situace:
, navíc počítá s možností
liberace pro toho, kdo prokáže, že náležitý dohled nezanedbal.
škodu způsobí užitkové nebo asistenční zvíře (je specificky
užitečné a vykonává nějakou činnost; § 2876 NOZ) nebo
obecné zvíře (do této kategorie budou pravděpodobně spadat
zejména domácí mazlíčci; § 2875).
Zatímco v generálním případě se nejeví žádná možnost liberace,
v případě zvířat užitkových nebo asistenčních se povinnosti
k náhradě škody zprostí ten, kdo prokáže, že při dozoru nad zvířetem
nezanedbal potřebnou pečlivost, anebo že by škoda vznikla i při
vynaložení potřebné pečlivosti. I v tomto případě lze vidět analogii
s roboty – využití sahá od čistě komerčně využívaných průmyslových
robotů, přes případné asistenční až po hračky.
55 Důvodová zpráva k návrhu občanského zákoníku zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: <http://obcanskyzakonik.justice.cz/tinymce-storage/files/Duvodova%20zprava%20OZ_ver_2010.pdf>. 56 srovnání s nejbližším § 421a
38
Srovnáním ustanovení o škodě způsobené zvířetem a škodě
způsobené věcí se ukáže, že zatímco u užitných aplikací je úprava
prakticky stejná57
V současnosti je tedy jednoznačné, že odpovědnost za jakoukoliv
činnost, kterou vykoná automatický nebo autonomní systém nese
v plné míře provozovatel či vlastník daného systému. V určitých
situacích je možné, aby se mohl domáhat náhrady po svém
dodavateli. Zatímco u jednoduchých (deterministických) systémů lze
takový stav považovat za uspokojivý, u autonomních systémů je
situace složitější
, liší se u obecného případu, kdy pro věci není
žádné rozlišení podle použití, zatímco u zvířat je. Návrh je tak
k věcem mírně benevolentnější.
58
Lze přijmout bez námitek, že za provoz autonomního nebo
automatického stroje nebo obecně systému by měl odpovídat jeho
provozovatel. Problém je, jak ostatně uvádí ve svém výše citovaném
článku E. A. R. Dahiyat, že provozovatel často není a narůstající
měrou nebude schopen možná rizika provozu daného systému
zhodnotit a vyhnout se jim a to zejména z důvodu nedostatečných
odborných znalostí. A požadovat po široké veřejnosti – všech
potencionálních uživatelích autonomních systémů – aby měla
odborné znalosti z oblasti robotiky a umělé inteligence na úrovni,
která by jim umožnila plně porozumět všem omezením a rizikům
.
57 U zvířat zákon vyžaduje dozor a pečlivost při něm, zatímco u věcí je vyžadován náležitý dohled. Není jasné, zda je tento rozdíl cílený a míra pozornosti při kontrole má být různá jak je tomu např. u dělení věznic podle trestního zákoníku, nebo jde o neodůvodněné rozlišení, jak by vyplývalo i z článku RŮŽIČKA, Miroslav. Kontrola a dohled v soustavě státního zastupitelství I. Právní rádce [online]. 22. 1. 2008, 1/2008, [cit. 2011-02-17]. Dostupný z WWW: <http://pravniradce.ihned.cz/c1-22809820-kontrola-a-dohled-v-soustave-statniho-zastupitelstvi-i>. ISSN 1213-7693. 58 DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a doctrinal problem or merely a problem of explanation?. Artifical Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný také z WWW: <http://www.springerlink.com/index/10.1007/s10506-010-9086-8>.
39
plynoucím z použití takových systémů je zcela zjevně naprosto
nepřiměřené.
Je tedy třeba požadovat tuto odbornou úroveň po výrobci
systému, který by ji stejně měl mít. Po uživatelích – provozovatelích –
je pak vhodné požadovat, aby systém provozovali a používali
v souladu s pokyny od dodavatele. Takové chování by mělo být
považováno za náležitý dohled a v tomto případě by uživatel neměl
být povinen k náhradě škody, resp. by měl mít možnost se domoci,
aby tuto odpovědnost převzal výrobce.
Při odchýlení se od pokynů od výrobce nebo dodavatele je situace
zcela jiná. Kdo takové doporučení nerespektuje, měl by počítat s tím,
že tím na sebe bere zvýšenou odpovědnost. Takový uživatel by měl
nést následky všech akcí konaných autonomním systémem. Pouze
pokud by prokázal, že ke konkrétnímu nežádoucímu následku
nedošlo vlivem jeho odchýlení se od pokynů výrobce a došlo by k nim
i při jejich dodržení, měl by mít možnost liberace. Šlo by tedy
o vyvratitelnou domněnku způsobení nežádoucích následků
nestandardním použitím.
Je totiž třeba brát v úvahu i oprávněné zájmy poškozeného, který
by neměl být negativně ovlivněn svobodnou volbou jiného použít
určitý systém ve svůj prospěch. Je tím myšleno, že odpovědnost by se
neměla ztratit a vždy by měl být někdo, kdo ji nese a případnou
škodu nahradí. Bohužel nelze vyloučit situace, kdy zavinění
objektivně nelze přiřknout nikomu59
59 Především v případech majících souvislost s přírodními jevy.
, nebo viník zjevně existuje, ale
není známý. V případě, kdy škoda vznikne v důsledku specifických
vlastností autonomního stroje, by, dle názoru autora, měl
odpovědnost nést provozovatel zařízení i v případech, kdy škodu
přímo nezavinil. Vždyť ten, kdo bere pozitivní výsledky z používání
40
něčeho, by měl i nahradit škodu, která je tím způsobena, byť
neúmyslně a třeba i bez zavinění. V případech živelních událostí
a neznámých viníků nelze najít jiné východisko, než strpění
škodlivých následků poškozeným. Takové řešení jistě není ideální, ale
těžko hledat lepší. Popisovaný stav je navíc řešitelný i v současném
právním rámci, neboť neznámý pachatel není novým fenoménem.
Pro úplnost je třeba zmínit, že do soukromoprávní odpovědnosti
patří kromě odpovědnosti za způsobenou škodu například
i odpovědnost pracovněprávní. Nelze vyloučit, že autonomní stroj
způsobí zaměstnavateli škodu nebo zraní zaměstnance. Každopádně
umělý systém nemůže být zaměstnavatelem ani zaměstnancem
s právní subjektivitou a proto budou případy, kdy zvláštní povaha
autonomních systémů bude v příčinné souvislosti s důvodem vzniku
pracovněprávní odpovědnosti, velmi ojedinělé.
5.2 Trestní odpovědnost
Zatímco v případě odpovědnosti soukromoprávní je množství různých
právních hodnocení odpovědnosti poměrně omezené60
Předně je třeba konstatovat, že stroj nebo umělý systém obecně
nemůže v působnosti českého práva spáchat trestný čin a už vůbec
nemůže být trestně odpovědný. Trestní zákoník
, v právu
trestním je značné množství skutkových podstat a pro každou by
hodnocení mohlo být různé. Proto bude v následující části rozebrána
pouze obecná trestněprávní odpovědnost bez snahy o konkrétní
rozbor jednotlivých skutkových podstat trestných činů.
61 předpokládá jako
možného pachatele pouze fyzickou osobu.62
60 Tato informace ovšem nevypovídá o celkovém počtu řešených případů.
61 Zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších předpisů 62 § 22 TZ; o jiném možném pohledu bude pojednáno později
41
Přesto nelze vyloučit, že autonomní stroj63 nebo systém64
Základním rozhraničením budiž rozdělení trestných činů na:
se
zachová tak, že kdyby se takovým způsobem zachoval člověk, bylo by
dotčené jednání trestným činem. To se může stát i v případě divokého
zvířete. Podstatný rozdíl je však v tom, že, na rozdíl od zvířete, umělý
systém někdo vytvořil a uvedl do chodu. Je proto namístě otázka, zda
a do jaké míry mohou lidé nést trestněprávní odpovědnost za činy
autonomních systémů.
trestné činy úmyslné (§ 15 TZ) a
trestné činy nedbalostní (§ 16 TZ).
V případě úmyslných trestných činů netřeba pochybovat o trestní
odpovědnosti pachatele. Pokud někdo autonomní systém vytvoří,
naprogramuje nebo jinak navede, aby spáchal trestný čin, lze případ
posuzovat tak, že ho použil jako pouhý nástroj. S případem použití
nástroje trestní právo počítá a nemělo by způsobovat žádné problémy.
Odlišná je situace v případě neúmyslných trestných činů. Pro
potřeby trestního zákoníku je nedbalost stanovena následovně:
„a) věděl, že může způsobem uvedeným v trestním zákoně porušit
nebo ohrozit zájem chráněný takovým zákonem, ale bez přiměřených
důvodů spoléhal, že takové porušení nebo ohrožení nezpůsobí, nebo
b) nevěděl, že svým jednáním může takové porušení nebo ohrožení
způsobit, ač o tom vzhledem k okolnostem a k svým osobním poměrům
vědět měl a mohl.“65
63 Například autonomní mobilní robot by se mohl dopustit usmrcení z nedbalosti (§ 143 TZ) nebo nějaké formy ublížení na zdraví (§§ 145–148 TZ).
64 Například počítačový softwarový systém v prostředí internetu by se mohl zachovat způsobem odpovídajícím § 182 TZ – porušení tajemství dopravovaných zpráv. 65 § 16 TZ
42
Uvedená citace se však vztahuje na postoj člověka k případnému
trestnému činu. Nijak nepostihuje situaci, kdy určitý autonomní
systém si naplánuje akci, která by odpovídala některé ze skutkových
podstat trestných činů.66
Z výše uvedeného vyplývá, že posuzování akcí autonomních
systémů, které by u lidí byly trestné, bude mít pro jejich majitele
velmi podobné následky jako činy zvířat: v případě úmyslu ze strany
majitele bude stroj posuzován jako pouhý nástroj a majitel ponese
plnou odpovědnost; v případě selhání stroje bude majitel odpovídat za
svou nedbalost spočívající v tom, že ho řádně nezabezpečil.
Z pohledu stroje pak půjde o úmysl,
zatímco z pohledu jeho majitele zde jakýkoliv úmysl bude chybět.
Protože, jak už bylo zmíněno, má smysl mluvit pouze o trestní
odpovědnosti majitele, šlo by i v tomto případě o trestný čin
nedbalostní.
Ve srovnání s úpravou odpovědnosti v soukromém právu se
trestněprávní úprava zdá být na možnost jiných autonomních aktérů
než fyzických osob, kteří navíc nemají právní subjektivitu, připravena
o poznání hůře. Tento stav je ještě umocněn nemožností analogie
v trestním právu.
Zbývá si tedy položit otázku, jak by vypadala ideální úprava
trestního práva s ohledem na možnou existenci autonomních aktérů
odlišných od lidí. Pravděpodobně není sporu o tom, že trestní
odpovědnost za autonomní systém záměrně navržený nebo naučený
způsobem, který ho nutí jednat v rozporu se zákonem, by měl nést
66 I současné systémy mohou mít, a často mají, plánovací moduly, které na základě stavu okolí a zadaného úkolu rozhodují o následujících činnostech. A i v případě, že zadaný úkol zákonu neodporuje, nelze vyloučit možnost, že konkrétní strojem zvolený postup v pořádku nebude. Důvodem takového selhání může být nemožnost jiného řešení vedoucího ke splnění úkolu ve spojení s nedostatečným ošetřením takové situace v programu systému.
43
plnou odpovědnost jeho provozovatel67
Z pohledu tvůrců a provozovatelů autonomních systémů se
odpovědnost za následky, které nebyly úmyslné ani předvídatelné,
mohla zdát přehnanou. Nelze zpochybnit, že prokazování viny by
v takových situacích bylo obtížné
, jak to ostatně odpovídá
i účinné úpravě.
68
5.3 K možnosti aplikace zákonů robotiky
, nicméně je žádoucí zamyslet se
nad smyslem trestněprávních odpovědnosti, kterým má být zejména
ochrana třetích osob a motivace pachatele k nápravě. V tomto
případě však nelze říct, že ze strany provozovatele nebo výrobce trvale
hrozí společnosti nějaké nebezpečí. A tento fakt by měl být zohledněn.
Při úvahách o zákonné úpravě autonomních bytostí nelze nezmínit
zákony robotiky formulované Isaacem Asimovem.69
Z hlediska právní teorie jde o normy imperfektní podmíněné
a v případě nultého a prvního imperfektní nepodmíněné. Jejich obsah
jednoznačně staví hodnotu lidského života na vrchol, zajímavým je
upřednostnění poslušnosti před sebezachováním, což je výraz
chápání robotů jako věci spíše než jako umělé bytosti ve smyslu
použitém dále. Co se týká obsahu, jde o velmi obecné formulace na
úrovni principů a to i přes na první pohled formálně přesnou
Tato pravidla jsou
poměrně široce přijímaná a většinou tvůrců autonomních umělých
systémů respektována. Přestože zamýšleným adresátem jsou sami
roboti na velmi vysokém stupni vývoje, je v dnešní době aktuální
spíše naplňování jejich smyslu ze strany tvůrců.
67 Odpovědnost se může vztahovat i na majitele nebo výrobce a to podle míry zavinění. 68 Zejména prokázání, že potenciální pachatel „vědět měl a mohl“ podle § 16 odst. 1 TZ. 69 Jejich text je citován v úvodu.
44
formulaci. Lze konstatovat, že pro právní praxi nejsou v současném
znění vhodné.70
De lege ferenda se v současnosti nezdá být nutné legislativně
učinit tato nebo podobná pravidla závaznými, zejména z důvodu
jejich dobrovolného dodržování. To ovšem neznamená, že taková
situace v budoucnu nenastane. Zejména s rozvojem plně
autonomních strojů, případně umělých bytostí, bude nutné řešit, jak
se mají chovat. O konceptu umělých bytostí pojednává následující
kapitola.
70 POLČÁK, Radim. Právo a evropská informační společnost. Brno : Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.
45
6 Umělé bytosti
Se stálým zvyšováním úrovně automatických a autonomních systémů
provázeným růstem jejich schopnosti a především rostoucím
množstvím a důležitosti úkolů jim svěřovaných, má smysl se zabývat
umělými bytostmi jako specifickou skupinou.
Koncept umělé bytosti není zdaleka nový a objevuje se prakticky
od počátku existence inteligentní lidské společnosti71. Až do
současnosti, resp. nedávné minulosti, byly umělé bytosti především
doménou vědeckofantastické umělecké tvorby a představ. Už delší
dobu existují snahy o stvoření umělých inteligentních bytostí a jejich
posuzování. Alan Turing pravděpodobně nenavrhoval svůj test72
v rámci prostého slohového cvičení. Cílem bylo zodpovědět otázku73
Je pravdou, že od té doby se postoj k umělým bytostem měnil
a přednost získávaly praktičtější problémy. A zatímco v počátcích byl
Turingův článek jistě inspirací pro rozvoj umělé inteligence,
postupem času se stal spíše rozptylujícím faktorem. Odlehčená
historie Turingova testu by mohla vypadat asi takto:
,
zda stroje mohou myslet.
„1950 – 1966: Zdroj inspirace pro všechny zabývající se UI.
1966 – 1973: Odvedení od slibnějších směrů výzkumu UI.
71 Viz zmínky o golemech a začátcích robotiky v Úvodu. 72 Turingův test popisuje metodiku ověření úrovně umělé inteligence. Spočívá v dálkové komunikace člověka s počítačem nebo jiným člověkem. Pokud člověk není schopen spolehlivě určit, zda komunikuje s počítačem nebo s jiným člověkem, počítač v testu uspěl (je inteligentní).
TURING, Alan M. Computing Machinery and Intelligence. Mind : a quarterly review of psychology and philosophy. October, 1950, Vol. LIX, No. 236, s. 433-460. Dostupný také z WWW: <http://dx.doi.org/10.1093/mind/LIX.236.433>. ISSN 0026-4423. 73 Byť v té době šlo spíše teoretickou otázku, jsou představitelné počítače, které v testu uspějí.
46
1973 – 1990: Nyní zdroj rozptýlení spíše pro filosofy než pracovníky
s UI.
1990 – Odložen do historie.“74
Vznikaly další testy k ověření inteligence strojů. Tyto výzvy se
plnit zčásti dařilo a z části nedařilo. Mezi ty úspěšné lze bezesporu
zařadit hraní šachu
75, robotický fotbal76, automatickou tvorbu textů
a aktuálně schopnost odpovídat na soutěžní otázky pokládané
v přirozeném jazyce77. Takových výzev existuje samozřejmě mnohem
více78
6.1 Definice a povaha umělých bytostí
. Počítače od IBM jako Deep Blue nebo Watson zjevně umělými
bytostmi nejsou, je tedy třeba nalézt hranici umělých bytostí.
Co vlastně je umělá bytost? Všechny výše uvedené systémy vykazují
určitou míru inteligence a samostatného rozhodování. Přesto je těžko
lze označit za bytost, byť s nimi mohou mít společné vlastnosti.
Existuje mnoho definic umělých bytostí, což efektivně znamená,
že neexistuje žádná.
„Silná UI je umělá inteligence, která dosahuje nebo přesahuje
lidskou inteligenci – inteligence stroje, který je schopen úspěšně
74 WHITBY, Blay. Why The Turing Test is AI's Biggest Blind Alley. [online]. 1997, [cit. 2011-02-17]. Dostupný z WWW: <http://www.informatics.sussex.ac.uk/users/blayw/tt.html>. 75 Human-computer chess matches. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-19]. Dostupné z WWW: <http://en.wikipedia.org/wiki/Human-computer_chess_matches>. 76 Robotic Football League [online]. 2011 [cit. 2011-02-27]. Dostupné z WWW: <http://www.roboticfootballleague.com/>. 77 VÁCLAVÍK, Lukáš. IBM Watson: superpočítač, který dokáže porazit člověka. Cnews.cz [online]. 21. 1. 2011, [cit. 2011-02-18]. Dostupný z WWW: <http://www.cnews.cz/ibm-watson-superpocitac-ktery-dokaze-porazit-cloveka>. 78 např. COHEN, Paul. If not Turing’s test, then what?. [online]. September 20, 2005, [cit. 2011-02-19]. Dostupný z WWW: <http://www.cs.arizona.edu/~cohen/Publications/papers/IfNotWhat.pdf>.
47
vykonávat jakoukoliv duševní činnost, kterou může vykonávat
člověk“79
„Umělá bytost je pojem užívaný pro popsání strojové inteligence,
která se vyvine v existující infrastruktuře na rozdíl od toho, když je
vědomě navržena a postavena takovým způsobem.“
80
„Umělá bytost je systém uměle vytvořený člověkem. Tento systém
má schopnosti reagovat na prostředí, ve kterém existuje, měnit toto
prostředí a dosahovat svých cílů v tomto prostředí.“
81
Tyto tři vybrané definice se liší a to zásadně. Zatímco první
považuje za charakteristickou míru schopností, kterou musí systém
dosáhnout, aby byl umělou bytostí. Druhá požaduje proces
samovolného vzniknutí, čímž je v přímém rozporu s třetí uvedenou
definicí, která předpokládá vytvoření člověkem.
Co se vlastní podoby umělé bytosti týká, žádná z uvedených
definic, a to mají společné, neklade specifické nároky na fyzickou
formu. Všechny definice tak připouštějí jak bytosti čistě virtuální, tak
bytosti s fyzickým tělem82
79 Tato definice odpovídá obecné umělé inteligenci. Definice pojmu „Artificial Being“ podle Googlu
. Připuštěním, že umělá bytost nemusí
disponovat fyzickým tělem a může tak existovat výlučně
Vyhledávání Google [online]. 2011-02-20 [cit. 2011-02-20]. Define:Artificial Being. Dostupné z WWW: <http://www.google.cz/search?defl=en&q=define:Artificial+Being>.
Převzato z: Strong AI. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: <http://en.wikipedia.org/wiki/Artificial_Being>. 80 Knowledgerush [online]. 2009 [cit. 2011-02-20]. Artificial being. Dostupné z WWW: <http://www.knowledgerush.com/kr/encyclopedia/Artificial_being/>.
Tato definice je zaměřená na proces vzniku spíše než na úroveň inteligence. 81 KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: <http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>. 82 Typicky mobilní roboty.
48
v kyberprostoru jako „technologicky zprostředkovaném prostoru pro
společenské interakce“83
V případě strojů není až tak obtížné oddělit umělou bytost
vyvstává otázka, jaká je povaha bytostí, které
fyzickým tělem disponují.
84 od
hardwaru, na kterém se funguje. Podle A. Krausové je „umělá bytost
chápána jako systém, počítačový program, ne médium, na kterém
existuje“.85 Lze ale toto tvrzení vztáhnout na lidské bytosti? Pokud
v budoucnu bude možné86 přenést lidskou mysl do počítačového
hardwaru, bude tato virtuální mysl nadána stejnými práv jako před
přenosem? Je třeba si uvědomit, že tím by vznikla možnost
nesmrtelnosti a nekonečné existence, která by nemusel být přijímána
pozitivně87
6.1.1 Povaha umělých bytostí
. Každopádně v případě umělých bytostí se jeví vhodným
netrvat na existenci fyzického těla.
Je jasné, že umělá bytost by měla mít jiný než biologický základ88
83 POLČÁK, Radim; ŠKOP, Martin; MACEK, Jakub. Normativní systémy v kyberprostoru : úvod do studia. Brno : Masarykova univerzita, 2005. 102 s. ISBN 80-210-3779-2.
,
cílené vytvoření nebo naopak samovolný vznik v umělém prostředí
84 V tomto pojetí pouze softwarová část. 85 KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: <http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>. 86 Podle názoru autora je v zásadě pouze otázkou času, kdy se tak stane. 87 Ve vědeckofantastické literatuře se často objevují zmínky o bytostech, které přejdou na vyšší (nemateriální) úroveň existence.
Na druhou stranu v povídce Isaaca Asimova „The Bicentennial Man“ robot ve snaze stát se člověkem vede řadu soudních sporů s výsledkem, že jakékoliv procento umělých částí neovlivní negativně lidský status člověka. Přesto podmínkou pro uznání robota člověkem je vzdání se nesmrtelnosti. 88 V současnosti se zdaleka nejpravděpodobnější zdá software digitálního počítače fungující na elektronickém hardwaru; genovou manipulací nově vytvořený živočich by tedy umělou bytostí nebyl. Naopak pokud by šlo o vypěstování biologického mozku, jak provedl Kevin Warwick a jeho tým, bylo by vhodné výsledek za umělou bytost považovat i přes biologickou povahu. O uměle vypěstovaném mozku
49
není třeba bezpodmínečně vyžadovat. Podle názoru autora práce je
však v definici umělé bytosti klíčový aspekt, který uvedené definice
postihují jen částečně. Umělá bytost by měla být schopna
přirozeného učení ze zkušeností a okolních informací. Měla by tedy
být schopna se vyvíjet bez vnějšího zásahu a to nikoliv pouze ve
smyslu rozšiřování nějaké databáze, ale hlavně „postupování“ na
vyšší, kvalitnější úrovně inteligence. V konečném důsledku by pak
taková bytost měla být schopna dosáhnout sebeuvědomění a vlastní
vůle.
De lege lata by taková umělá bytost byla stále považována za
nehmotnou věc a z právního pohledu by obsahovala určitou formu
databáze podle autorského zákona89 a zároveň by, alespoň částečně
byla autorským dílem a zároveň fakticky i autorem svých částí. Tato
skutečnost by ale právem nebyla uznána, protože by takové umělé
bytosti chyběla právní subjektivita. Rovněž původní autor by těžko
mohl prokazovat, že části programu vzniklé v rámci samostatného
vývoje umělé bytosti jsou jeho dílem, i když vyloučit to nelze90
6.2 Možné přístupy k umělým bytostem de lege ferenda
.
Zbývá se tedy zamyslet nad otázkou, jak by právo k umělým
bytostem91
pojednává: University of Reading [online]. 14 August 2008 [cit. 2011-02-21]. Robot with a Biological Brain: new research provides insights into how the brain works . Dostupné z WWW: <http://www.reading.ac.uk/about/newsandevents/releases/PR16530.aspx>.
přistoupit mělo a proč. Z praktických důvodů, jakými je
například možnost alespoň analogického použití existující judikatury
a dlouhodobé zkušenosti s fungováním určité úpravy, by měla být
89 Zákon č. 121/2000 Sb., o právu autorském, o právech souvisejících s právem autorským a o změně některých zákonů (autorský zákon), ve znění pozdějších předpisů 90 Počítačem generované obrazy nebo audiovizuální díla jsou běžně jako autorská chráněna. 91 Pro potřeby této podkapitoly se předpokládá, že umělé bytosti vymezeny v předcházející podkapitole mohou existovat.
50
dána přednost použití existujících právních konceptů a jejich
kombinacím případě úpravám před úplně novým způsobem regulace.
Jako výchozí bod pro právní úpravu postavení umělých bytostí se
hodí zejména:
fikce právnické osoby,
postavení zvířat,
postavení dětí,
historické regulace postavení otroků nebo
postavení lidských bytostí.
Pro pojímání umělých bytostí jako právnických osob svědčí
mnohé. Jak bylo diskutováno výše, umělá bytost nemusí nutně mít
pod kontrolou fyzické tělo a je tedy ze své podstaty nehmotná, stejně
jako právnická osoba. Stejně jako právnická osoba bude i umělá
bytost schopna rozhodování a projevů vůle. Ale hlavně je právnická
osoba entitou bez fyzické podoby, která je vybavena právní
subjektivitou.
Proti této možnosti stojí ale dosti podstatný fakt a tím je, že
právnická osoba je závislou na fyzických osobách, které ji ovládají
a kterými vykonává svoji existenci. Bez lidí se vztahem k právnické
osobě ztrácí koncept právnické osoby smysl.92 Stále by však bylo
možno uvažovat o regulaci na pomezí fyzické a právnické osoby, která
by stála na stejné úrovni. Pro takovouto formu regulace se vyslovila
i A. Krausová93
92 V této souvislosti je zajímavá otázka, zda by při účinné právní úpravě bylo možné založit společnost a společenskou smlouvou svěřit její řízení počítačovému programu se jmenováním formálních statutárních orgánů složených z lidí.
.
93 V příspěvku KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: <http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>.
51
Další překážkou je, že způsobilost k právním úkonům
právnických osob je fakticky vázána na fyzické osoby, které úkony za
PO činí. Deliktní způsobilost, která by u umělých bytostí byla
nanejvýš vhodná, u právnických osob sice v českém právu přítomna
není; na druhou stranu ve světovém pohledu existuje, a proto nelze
tuto odlišnost považovat za zásadní překážku.
Celkově rozdíly mezi právnickou osobou a umělou bytostí spíše
převažují nad společnými prvky a proto by dle názoru autora nebylo
založení úpravy statutu umělých bytostí na existující úpravě
právnických osob moudré.
Lze předpokládat, že první umělé bytosti splňující dříve
nabídnutou definici budou někým vlastněny, typicky svým tvůrcem
a budou spíše objektem práva než jeho subjektem. Potřeba nějaké
právní reakce na realitu existence umělých bytostí pravděpodobně
vyvstane dříve, než umělé bytosti budou na takové úrovni, aby bylo
možné je vybavit plnou subjektivitou.
Faktická pozice umělých bytostí pak nebude nesrovnatelná
s postavením zvířat. Stejně jako zvířata budou pravděpodobně
využívány k práci a k zábavě. Svým postavením ani svými
schopnostmi se nebudou moci rovnat s lidmi, přesto však budou
dalece přesahovat „obyčejné“ věci, včetně elektroniky.
V této fázi vývoje není vyloučen vznik práv pro umělé bytosti
analogický k dnešní ochraně zvířat proti týrání.
S rostoucími schopnostmi umělých bytostí nastane nutnost je
vybavit právní subjektivitou, protože už nebude možné požadovat po
jejich majitelích plnou odpovědnost za všechny jejich činy. S možností
být nositelem práv a povinností přijde i nutnost tato práva nabývat.
Bude proto nutné vybavit umělé bytosti i způsobilostí k právním
52
úkonům. Zpočátku pouze částečnou, závislou na stupni vyspělosti
konkrétního systému.
V této situaci by mohly nastat problémy s konfliktem částečné
právní subjektivity a faktického stavu. Pokud v této době budou
jménem svých vlastníků a na jejich účet provádět významné úkony
včetně velmi komplexních, je možné, že udělená částečná subjektivita
nebude pro některé systémy dostatečnou. Navíc by se do konfliktu
dostala případná subjektivita a vlastnické právo, jehož objektem by
byl subjekt práva.
V další fázi vývoje dosáhnou některé systémy takové úrovně, že se
vyrovnají lidem nejen ve schopnostech, ale i ve vnímání a uvědomění
sebe sama. Pokud, a takový scénář zdaleka nelze považovat za
nepravděpodobný, nebudou umělé bytosti vybavovány postupně
subjektivitou a právy, dosáhnou vývojového stupně srovnatelného
s lidským v postavení objektu práva spíš než jeho subjektu. Tato
situace by paradoxně mohla způsobit nejmenší množství komplikací
ze všech možných, neboť taková situace zde historicky již byla.
Postavení otroků nebylo odlišné od postavení zvířat a věcí, zároveň co
do intelektu a míry uvědomění není srovnání snad ani možné. Jak
k existenci institutu srovnatelného s otroctvím nebo nevolnictvím,
které byly v minulosti zejména z morálních důvodů zrušeny, přistoupí
společnost, zůstane pravděpodobně otevřenou otázkou až do doby,
kdy tato situace nastane.
53
7 Automatizace rozhodovacích procesů
v justici a státní správě
Státní správa, justici nevyjímaje, je nepochybně významnou součástí
existence současné společnosti. Nadto je, více než jiné obory,
provázána s právem. Jako reprezentant státní moci s možností
autoritativního rozhodování musí (nebo by alespoň měla) státní
správa a zvláště justice vytvářet velmi kvalitní rozhodnutí, podložená
pevnými argumenty a důkladně zdůvodněná. Nadto by měla fungovat
efektivně, protože je financována z veřejných rozpočtů. Zde vzniká
určitý střet, protože požadavky na zvyšování kvality sebou často
nesou i požadavek na štědřejší financování.
Bylo by jistě neuvážené automatizaci a priori vyřazovat z oblasti
justice a státní správy. Navzdory tomu se lze setkat i s názory, že
„s rozvojem moderních technologií vyvstává riziko automatizace
soudnictví“94. S názorem, který automatizaci soudnictví bez dalších
argumentů zavrhuje, nelze souhlasit. Jako argument proti je uváděno
odchýlení od základního účelu soudního řízení, kterým je spravedlivá
ochrana základních práv a zájmů. Především argument, že „Počítač
žádné spravedlivé ochrany schopen není – program pouze porovná
předem zadaná kriteria“95
94 PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno, 2010. 229 s. Dizertační práce. Masarykova univerzita.
je přinejmenším sporný. Tradičně bývá
spravedlnost vykládána způsobem, který zaručuje všem stejný
přístup a posouzení předem zadaných kriterií toto beze zbytku
naplňuje. Vždyť posuzovat zákonem předem zadaná kriteria by měl
i soudce.
95 PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno, 2010. 229 s. Dizertační práce. Masarykova univerzita.
54
Nutně zde tedy vyvstává otázka pojetí spravedlnosti. Měřit všem
stejným metrem je zjevně spravedlivé a na první pohled správné. Ale
neexistuje zde riziko přílišné spravedlnosti? Není jedním z hlavních
zdrojů obav z exaktního matematicky přesného rozhodování možnost
vymizení části shovívavosti?
7.1 Asistenční činnosti ve státní správě a justici
Oblastí vhodnou k automatizaci, která je z aktuálního pohledu
významnější, je tvorba instrumentů, které mohou být právníky
použity ke zvýšení kvality nebo efektivity jejich rozhodování.
Důvodem je, kromě objektivních technických omezení, i tradice
založená Knappovým přechodem od ideologického pojetí právní
informatiky k pragmatičtější tvorbě instrumentaria.96
7.1.1 Současný stav
Další
skutečností, kterou nelze zanedbat je, že plná elektronizace justice (ve
smyslu spisu, podání, záznamů apod.) je nezbytným předpokladem
pro automatizaci vlastního rozhodování.
V současnosti probíhají v České republice i ve zbytku Evropy rozsáhlé
snahy o elektronizaci justice. Tyto se takřka výhradně zaměřují na
pomocné funkce, jako vyhledávání předpisů nebo předchozích
rozhodnutí. V širším pohledu na celou státní správu je snaha
o propojování databází a urychlení přístupu k jejich datům ze strany
státních orgánů nebo vytvoření elektronického spisu. Kromě toho
jsou využívány technické prostředky urychlení přepisu soudních
jednání z hlasového záznamu a další izolované nástroje, jako např.
elektronický platební rozkaz. Ve výsledku tak „představují samostatné
jednotky, které byly zaváděny bez koncepce a bez návaznosti na
okolní související systémy. Tato nekoncepčnost se ve značné míře
96 POLČÁK, Radim. Právo a evropská informační společnost. Brno : Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.
55
promítá i v podstatné nekompatibilitě a diverzifikaci jednotlivých
systémů.“97
Mezi hlavní prvky elektronizace justice v České republice patří:
Lze jen souhlasit s autorem, když zmíněné nedostatky
považuje za podstatné a tvrdí, že moderní eJustice by se s těmito
problémy měla vypořádat a dosáhnout co největší míry stability,
univerzálnosti a jednotnosti.
elektronický platební rozkaz98
datové schránky
, 99
vnitřní informační systémy v justici
a 100
Jak je patrno, používané systémy mají se skutečnou elektronizací
justice pramálo společného. V případě elektronického platebního
rozkazu jde pouze o akceptaci elektronického podání soudem – po
příchodu na soud je podání vytištěno a nadále se nikterak neliší od
podání papírového. Rovněž datové schránky jsou pouze zabezpečenou
verzí elektronické pošty a jejich funkce je toliko komunikační.
.
101
Těžko lze tedy očekávat, že by urychlily nebo usnadnily soudci vlastní
rozhodování. A dokonce ani podoba elektronických podání není
uspokojivá. Současný stav, kdy elektronické podání probíhá třemi
různými způsoby102
97 STUPKA, Václav. eJustice. Brno, 2010. 69 s. Diplomová práce. Masarykova univerzita. Vedoucí práce Radim Polčák.
rozhodně nelze považovat za vyhovující.
98 Zákon č. 99/1963 Sb., občanský soudní řád, ve znění pozdějších předpisů - §174a 99 Zákon č. 300/2008 Sb., o elektronických úkonech a autorizované konverzi dokumentů, ve znění pozdějších předpisů 100 Zejména ISAS, ISVKAS aj. 101 To rozhodně neznamená, že není významná. Podle vyjádření několika soudců tvoří značnou část náplně jejich práce doručování různých dokumentů účastníkům a dalším osobám, což není činnost, kterou by soudce měl ztrácet čas. 102 Na serveru http://epodatelna.justice.cz je k 15. 3. 2011 elektronický platební rozkaz podáván ve formátu PDF, který vyžaduje software společnosti Adobe; návrhy v rejstříkových věcech se vyplňují do formuláře ve formátu ZFO, který k vyplnění
56
7.1.2 Možnosti automatizace pomocných činností
Jak zaručit koncepční rozvoj eJustice, kdy jednotlivé systémy budou
vzájemně provázané a budou mít pozitivní vliv na kvalitu a rychlost
rozhodování? Dle názoru autora by základem jakéhokoliv projektu
elektronizace justice měl být elektronický spis103
Některé úkoly vykonávané v rámci státní správy a justice, které
přímo nesouvisí s rozhodováním, by bylo vhodné provádět
. Důvodem
důležitosti spisu je, že spis je prvkem, který spojuje všechny ostatní
prvky jakéhokoliv řízení a tím tvoří centrální bod, na který lze
všechny další agendy navázat, ač ve výsledku je tím nejdůležitějším
vlastní rozhodnutí. A nelze se spokojit s oddělenými spisy pro
jednotlivé oblasti státní správy nebo dokonce pro jednotlivé soudní
instance. Je třeba trvat na tom, aby od prvního podání, správního
řízení nebo policejního šetření až po řízení před Ústavním soudem byl
spis jednotný a datově kompatibilní – aby v případě odvolání mohl být
celý spis zpřístupněn patřičnému orgánu bez nutnosti ho odesílat.
Takový požadavek rozhodně není přemrštěný po technické stránce,
ani nemožný z pohledu právního. Zavedení elektronického spisu by
kromě přímých výhod (dostupnost odkudkoliv, snadný přístup všech
oprávněných k jeho obsahu, možnost vyhledávání ve spisech…)
přinesl i synergické výhody spočívající v zásadním usnadnění
zavádění dalších elektronických agend. Přehlednost a organizovanost
elektronického indexovaného spisu by byla rovněž vyšší. Optikou této
práce je však nejdůležitější výhodo elektronického spisu možnost jeho
automatického zpracování.
vyžaduje Form Filler od společnosti Software602 a ostatní podání se odesílají přes formulář na webové stránce, který vyžaduje Java plugin od společnosti Oracle.
Není cílem této práce rozebírat výhody a nevýhody jednotlivých způsobů vyplnění a odeslání, je však nutno konstatovat, že všechny způsoby jsou funkčně srovnatelné a pouze kvůli nekoncepčnosti není způsob jednotný. 103 Tím je myšlen spis, který existuje primárně v elektronické podobě a jeho případná papírová podoba je kopií, nikoliv naopak.
57
elektronicky a pokud možno automaticky již nyní. Do jisté míry se to
již děje v případě dokumentace průběhu řízení (protokolování). Lze
však uvažovat o změně formy protokolu na pouze zvukovou podobu
s připojeným strojovým přepisem kvůli automatickému vyhledávání.
Doslovný textový přepis totiž není u všech řízení nutný. Navíc
s rostoucí kvalitou strojového přepisu lze zvukové záznamy
zpracovávat opakovaně a není se tedy třeba obávat o ztrátu informace
– prvotní záznam by zůstal zachován. Zde se nabízí prostor pro
využití umělých neuronových sítí. Bez zajímavosti není ani možnost
použití existujících zvukových záznamů a jejich ručně vytvořených
přepisů jako dat pro učení specifického právního odborného jazyka.
Lze si snadno představit software, který by na základě obsahu
podání stran, obsahu protokolu jakož i zbytku spisu a zároveň
srovnáním s obsahy ostatních spisů hledáním podobností
automaticky vyhledával související zákony a judikaturu. V této
souvislosti se jeví vhodné, aby soudní rozhodnutí a v ideálním
případě i legislativa obsahovaly metadata104
Platí sice zásada iura novit curia, ovšem při současném rozsahu
účinných předpisů nelze vyloučit možnost opomenutí některého
z nich ani ze strany kvalifikovaného soudce. Přínos lze kromě
prvotního cíle (kvalitnějších rozhodnutí) spatřovat i v rychlejší
konvergenci judikatury k její ustálené podobě. Samo o sobě takové
doporučení nemá potenciál negativně ovlivnit kvalitu rozhodovacího
procesu. Otázkou zůstává, zda by takové zjednodušení nevedlo
v delším časovém horizontu soudce k pohodlnosti a pouze pasivnímu
použitelná pro
automatické zpracování rozsudků. Je úkolem technického řešení, aby
tato metadata i sama o sobě pomáhala soudcům a nepředstavovala
novou administrativní zátěž.
104 Data o datech. Například formalizované označení procesních stran a jednotlivých částí dokumentu, provázané odkazy na paragrafy zákonů a jiná rozhodnutí.
58
přijímání a aplikaci systémem navržených předpisů a judikatury.
Zjistit předem, jaký vliv mohou mít tyto prostředky na rozhodování, je
však nemožné.
7.1.3 Předpověď rozhodnutí
Systémy k předpovídání soudních rozhodnutí zatím v českém
prostředí využívány nejsou, alespoň ne ve větším měřítku. Byť by
taková předpověď neměla právní relevanci a nemohla by být použita
jako argument u soudu, mohla by být užitečnou při rozhodování, zda
jít k soudu a jak tam vystupovat.
Pokus o předpověď hlasování jednotlivých porotců amerického
Nejvyššího soudu již proběhla. Překvapivě Počítač překonal
v úspěšnosti nejen generátor náhodného výsledku105, ale i právní
experty, kteří se naopak svou úspěšností od generátoru náhodných
čísel příliš nevzdálili.106 Úspěšnost právních expertů byla mírně přes
59 %, počítač vykázal 70% úspěšnost a z existence pouze dvou
možných odpovědí (pro a proti zrušení) lze dovodit úspěšnost
náhodného hádání – 50 %.107 Přitom odhady počítače byly založeny
na velmi omezených datech108
105 Běžným testem, zda předpověď funguje je srovnání s generátorem náhodného výsledku – pokud je pravděpodobnost lepší, má se za to, že předpověď minimálně do určité míry funguje.
. Není bez zajímavosti ani to, že
úspěšnost se významně lišila u jednotlivých soudců. To vznáší
otázku, zda jsou soudci, jejichž hlasování lze s vysokou
106 MARTIN, Andrew D., et al. Competing Approaches to Predicting Supreme Court Decision Making. Perspectives on Politics. 2004, Volume 2, Issue 04, s. 761-767. DOI: 10.1017/S1537592704040502. 107 AYERS, Ian. How computers routed the experts. Financial Times [online]. August 31 2007, -, [cit. 2011-03-13]. Dostupný z WWW: <http://www.ft.com/cms/s/2/f68ba784-56b8-11dc-9a3a-0000779fd2ac.html?nclick_check=1#axzz1HMtz9dSp>. 108 pouze 6 ukazatelů, některé zdánlivě nedůležité (vnímání veřejností); metodika rozhodování expertů není autorovi známa
59
pravděpodobností odhadnout před proběhnutím řízení, skutečně
nezávislí.
7.2 Automatické systémy ve vlastním rozhodování
Nutně se nabízí otázka, do jaké míry lze a do jaké míry je vhodné
svěřit rozhodování v justici a státní správě strojům. Při takových
úvahách je třeba mít na paměti jak současná omezení techniky, tak
její budoucí možnosti.
Předně je třeba zodpovědět otázku, proč vůbec by mělo být vhodné
vlastní rozhodování automatizovat, případně proč nikoliv. Ať už by
odpověď byla jakákoliv, měla by automatizace být prostředkem k
řešení problému, nikoliv samoúčelným procesem. Jinými slovy:
míra automatizace by měla vyplývat z předem známých cílů daného
rozhodování, neměla by být stanovena nezávisle na cílích a to
v žádném směru.
7.2.1 Očekávatelné přínosy automatizovaných rozhodnutí
Co tedy lze od automatizovaných rozhodnutí očekávat?
Jednotu rozhodování a předvídatelnost – je jistě legitimním
požadavkem, aby právo bylo předvídatelné. Lze očekávat, že mimo
fázi pilotních projektů byly oblasti rozhodování automatizovány
globálně a rozhodování by zajišťoval jeden systém na celém území
(např. státu). Takový stav vede k větší předvídatelnosti a tím i k vyšší
důvěryhodnosti rozhodování.
Nezávislost – automatizovaný systém by ze své podstaty nebyl
schopen zvýhodňování kterékoliv ze stran z osobních, zištných nebo
jiných důvodů. Rovněž by nebyl ovlivnitelný podvědomými vlivy nebo
předsudky, jejichž omezení je pro člověka náročné, ne-li nemožné.
Rychlost – rychlost (nebo spíše její nedostatek) je nesporně
problémem současné justice. Především v opakujících se rutinních
60
záležitostech by automatizace rozhodování ušetřila množství času
a umožnila by soudcům věnovat se právně a společensky
problematickým případům (hard cases).
Spolehlivost – především v otázkách procesních by použití
výpočetní techniky mělo řadu pozitiv. Nehrozilo by opomenutí a opět
by mohlo dojít od odbřemenění soudce od podružných činností.
Výčet možných přínosů automatizovaného rozhodování v justici
a státní správně uvedený v tomto oddíle není úplný a ani si to
neklade za cíl. Zásadním bylo ukázat, že potenciální výhody existují
a jsou reálné.
7.2.2 Meze, rizika a nevýhody:
Vlastností strojů, ze které do jisté míry vyplývá většina jejich výhod,
je vysoký stupeň jistoty v rozhodování – na stejnou otázku lze
očekávat vždy stejnou odpověď. To je zároveň do určité míry rizikem.
Chybné rozhodování bude stroj opakovat trvale, dokud nebude
nějakým způsobem109
Jednoznačnou mezí rozhodování (přinejmenším v dohledné
budoucnosti) jsou otázky bez jednoznačně určitelné odpovědi, které
v současnosti typicky rozhodují ústavní soudy a jim podobné
hraniční orgány.
provedena korekce.
Určitým rizikem je vznik ekvivalentu SEO v případě rozsáhlé (plné)
automatizace určitého rozhodování, kde rozhodující subjekt nemá
kontrolu nad vstupními informacemi110
109 Například manuálním zásahem ze strany kontrolujícího soudce. Na druhou stranu systém rozhodující samostatně by měl mít schopnost reflektovat výsledky odvolání ve svých dalších rozhodnutích a to je funkce, na které je v zájmu spravedlnosti bezvýhradně trvat.
. V takovém případě lze
očekávat snahu účastníků rozhodování (pravděpodobně s pomocí
110 Což je typická situace pro rozhodování státní správy a soudů. Rozhodující subjekt nemá možnost ovlivnit, co účastníci tvrdí.
61
specialistů) cíleně zkreslovat svoje tvrzení tak, aby bylo rozhodnuto
v jejich prospěch na základě známého algoritmu rozhodování. Jedním
z prostředků, které vyhledávače proti praktikám SEO používají je
přísné utajení přesného algoritmu hodnocení. Byť by toto řešení
pravděpodobně bylo účinné i pro rozhodování správní a soudní,
vnucuje se otázka, zda je v takové situaci legitimní skrývat
rozhodovací algoritmus, pokud je znám111. V tom by šlo spatřovat
určitou analogii s utajením určitých částí soudních nebo správních
řádů, které by bylo shledáno jako protiústavní112
Dalším a velmi podstatnou hrozbou je nedůvěra – minimálně
v počátečních fázích by nezanedbatelné skupiny adresátů
rozhodování trpěly nedůvěrou k rozhodnutím vydaným strojem.
A důvěra je klíčovým elementem ve správném fungování justičního
systému.
. Další analogie,
kterou v tomto kontextu autor spatřuje, jsou interní normativní akty,
které rovněž nejsou veřejné, a přesto mají podstatný vliv na výsledky
správních řízení.
7.2.3 Zavádění automatizovaných rozhodnutí do státní správy
a justice
Zatímco zavádění automatizace do pomocných funkcí může být velmi
postupné a ze strany rozhodujících subjektů v zásadě dobrovolné,
u vlastního rozhodování je situace komplikovanější.
Nelze očekávat skokové zavedení plné automatizace rozhodování
na žádné úrovni. Nadto by to nebylo ani žádoucí. Pro změny v tak
citlivé oblasti jako je státní rozhodování a zejména soudní je důležité,
aby bylo přijato všemi nebo alespoň výraznou většinou dotčených.
111 U člověka obecně znám není, takže taková otázka postrádá soudce – člověka – postrádá smysl. 112 Ústavní zákon č. 1/1993 Sb., Ústava České republiky, ve znění pozdějších předpisů Čl. 52
62
Obecně přijímaným popisem přístupu uživatelů k zavádění
nových technologií je tzv. Technology Acceptance Model. Zásadním je
definování pojmů:
Vnímaná užitečnost113 – „míra jakou osoba věří, že používání
určitého systému zvýší její pracovní výkon“114
Vnímaná snadnost použití
. 115 – „míra jakou osoba věří, že
používání určitého systému nebude provázeno námahou“116
Tento model vyjadřuje, jak moc bude, případně nebude, nová
technologie využívána, a to v závislosti na její užitečnosti a snadnosti
použití. Přestože byl model dále rozšiřován do své druhé a třetí verze
a také do podoby unifikované teorie přijetí a používání technologie
.
117
,
bude pro potřeby této práce postačovat jeho první verze.
Obr. 3 Technology acceptance model118
113 Perceived usefulness (PU)
114 DAVIS, Fred D. . Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly. 1989, Volume 13, Number 3, s. 319–340. 115 Perceived ease-of-use (PEOU) 116 DAVIS, Fred D. Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly. 1989, Volume 13, Number 3, s. 319–340. 117 VENKATESH, Viswanath , et al. User acceptance of information technology: Toward a unified view. MIS Quarterly. 2003, Volume 27, Number 3, s. 425–478. 118 DAVIS, Fred D.; BAGOZZI, Richard P.; WARSHAW, Paul R. . User Acceptance of Computer Technology : a comparison of two theoretical models. Management Science. August 1989, Vol. 35, No. 8, s. 982-1003.
63
Empiricky bylo zjištěno, že existuje silná vazba mezi užitečností
a jak skutečným používáním systému, tak zamýšleným užíváním
systému v budoucnosti, přičemž zamýšlené budoucí použití bylo
ovlivněno silněji. Snadnost použití měla rovněž silný (i když poněkud
slabší) vliv, opět silnější na zamýšlené budoucí použití. Velmi
důležitým zjištěním je že snadnost použití měla kromě přímého vlivu
na postoj k používání dané technologie vliv i na vnímání užitečnosti.
To znamená, že uživatelé vnímají snáze použitelné technologie jako
užitečnější. To je důležitá skutečnost, kterou je nutno při
automatizaci rozhodování a snad ještě více při zavádění asistenčních
systémů brát v úvahu.
Při zavádění automatického rozhodování do justice lze
předpokládat zkušební dobu, kdy budou automatická rozhodnutí
prováděna vedle těch neautomatických a podle jejich shody bude
posuzována jejich kvalita. Následně lze očekávat, že kvalita
rozhodnutí vzroste do té míry, že se soudci budou moci zaměřit spíše
na kontrolní činnost a náročné případy. Tato změna bude
pravděpodobně postupná tak, jak porostou technické možnosti,
schopnost soudců prostředky automatizace používat a ochota
veřejnosti automaticky učiněná rozhodnutí přijímat.
Závěrem lze konstatovat, že současné snahy o elektronizaci
justice, ač nemají s automatizací mnoho společného, staví základy
systému, na kterých možná v budoucnu bude stát justice
automatická. Proto ani z pohledu automatizace justice nemohou být
podceňovány. Až po plné elektronizaci justice totiž lze uvažovat
o praktickém zavádění prvků automatizace do justiční praxe.
64
8 Závěr
Rozhodovací procesy se vyskytují ve všech oblastech lidské činnosti
a mají značný dopad do sféry zájmů širokého spektra osob, tím více
pokud jde o rozhodování autoritativní. Zároveň je stále větší množství
rozhodování prováděno automaticky, aniž by se tato skutečnost
výrazně odrazila v legislativě nebo alespoň v právní doktríně.
Autor si stanovil za cíl analyzovat povahu automaticky konaných
rozhodnutí a nejčastěji používaných prostředků pro automatizované
rozhodování. A tím přispět do nastávající diskuze ohledně
automatických rozhodnutí v různých oborech lidské činnosti. Tato
práce si nekladla za cíl najít definitivní odpovědi na všechny otázky
týkající se automatizace rozhodovacích procesů, což by snad ani
nebylo možné.
Rozhodnutí prováděná automatizovaně jsou pro laickou veřejnost
obtížně uchopitelná a dvojnásob to platí o prostředcích a metodách,
na které spoléhají. To vede často k obavám a nedůvěře a tak
především ve sféře vlivu státu není využíván celý potenciál
automatizace rozhodování. Z analýzy rozhodovacích procesů
a jednotlivých typů rozhodnutí vyplynulo, že zejména opakující se
rozhodnutí a rozhodnutí jasně strukturovaná je vhodné
automatizovat.
Následně byly představeny nejčastější prostředky využitelné pro
částečnou nebo plnou automatizaci rozhodnutí. Z jejich vlastností
vyplývají jak jejich výhody, kterými jsou zejména rychlost
a spolehlivost tak omezení, mezi které patří zejména neschopnost
posoudit meze vlastních schopností nebo nedostatečná
předvídatelnost chování systémů s prvky umělé inteligence se
vstupními daty zásadně odlišnými od těch předpokládaných.
65
Co se týká odpovědnosti za rozhodnutí učiněná automatickým
systémem, nelze konstatovat, že by šlo o mezeru v právu, která by
znemožnila rozhodnutí v takové věci a to zejména díky pojetí
jakéhokoliv výtvoru člověka jako věci bez právní subjektivity
a související plnou odpovědností provozovatele takového systému.
Problematickou je v tomto kontextu spíše skutečnost, že ne vždy
odpovídají takové závěry rozumnému uspořádání, což je ovšem do
značné míry politická otázka a jako taková bez možnosti objektivního
posouzení.
S rostoucí úrovní techniky a zejména té výpočetní vzrůstá
i množství a samostatnost umělých bytostí, která v dohledné
budoucnosti pravděpodobně dosáhne úrovně, která vyvolá zásadní
otázky o postavení umělých bytostí. Předjímat výsledky velmi obtížné,
pakliže ne nemožné, přesto byly analyzovány některé možné směry
vývoje postavení uměle vytvořených bytostí a jejich předpokládatelné
následky.
Pro obor práva je specificky významné rozhodování ve státní
správě a zejména v justici. Zde je využití automatizace v plenkách,
což do značné míry souvisí s nedostatečným a nekoordinovaným
zaváděním i jen základních prostředků výpočetní techniky do těchto
činností a se značnou konzervativností prostřední státních úřadů
a soudů. Výhody plynoucí z automatizace jednotlivých úkonů
konaných státní správou a soudy by bylo škoda nevyužít, toto využití
by však nemělo být bezhlavé a samoúčelné – vždy je nutno pečlivě
vážit všechny přínosy i nevýhody a hrozby. Jak už bylo konstatováno
výše, automatizace (čehokoliv) by měla být řešením existujícího
problému, nikoliv důvodem tvorby a řešení úkolů, které by bez ní
vůbec nemusely existovat.
Ač je autor práce ve vztahu k automatizaci optimistou, nelze
ignorovat úskalí a rizika, která by automatizace mohla přinést.
66
V současnosti se jako hlavní překážka rozsáhlejší automatizace mimo
uzavřené průmyslové komplexy, kde už do značné míry proběhla, jeví
nechuť uživatelů učit se novým věcem a postupům spolu
s nedostatečnou znalostí možností automatizace.
Tomuto stavu odpovídá i neexistence zejména aktuální české
literatury na dané téma. Velmi zajímavé je, že cíle směřování
elektronizace a automatizace v soudnictví se pramálo změnily od dob
Viktora Knappa119
. Sice už neprahneme po socialistickém modelu
práva, kde ideologicky neomylné stroje kontrolují nespolehlivé
soudce, v praktických otázkách však stále jde o zjednodušení
komunikace a zpracování text. Zde lze konstatovat, že vzhledem
k technickému vývoji učiněnému za posledních dvacet let, je míra
použití automatických systémů k usnadnění justiční a správní
činnosti překvapivě malá.
119 KNAPP, Viktor, et al. Právo a informace. Praha : Academia, 1988. 292 s.
67
9 Resumé
Historically, there have been numerous attempts to automate difficult
and dull tasks. Today, however, the technology has advanced to a
stage where this aim became possible. The top of the automation
pyramid are automated decisions, because decision making is the
most complex activity to be carried out.
The decision making process is a highly important part of
everyday life, and at the same time it directly influences the actions
taken at all levels. Specific types of decisions were identified as being
particularly suitable for automation, to name the most important
ones: operative decisions (as opposed to strategic) and program
decisions (well structured).
Further the nature of automated decision making systems has
been revealed. The example of artificial neural networks has shown
that even unstructured data with no easily specifiable inner bounds
can be successfully processed. This, however, is at the cost of losing
the ability to predict possible behaviour of such system – a property
immanent to deterministic systems. Simultaneously, the limitations
concerning data representation impair, for now, artificial neural
networks as independent decision makers. Still they can, and should,
be treated as a valuable help and assistance with decision making.
Contrary to neural networks, expert systems are much more
suitable to play the role of an actual decision maker, because both
their input and output are far more variable. Unfortunately not even
expert systems are flawless. For some tasks they need neural
networks to work within them. Yet, the greatest drawback of expert
systems stays elsewhere, in their very specific element – the
knowledge base. Or, more precisely, in the process of its creation.
Being as complicated process as it is, it makes mistakes practically
68
inevitable and extremely difficult to find, thus very costly. This is not
to say that expert systems are not perspective or useful, only their
nature has to be carefully considered when dealing with them.
This, in some sense peculiar, nature of artificial intelligence
systems has to be taken into account when assessing legal
consequences of actions or decisions of such automatic machines.
And it is vital when creating legislature. By comparing the actual
version of Czech Civil Code and the proposal of the new one, it has
been found that under most circumstances it is the user who is likely
to be held liable. Both laws are similar in this matter, the new one is
only structured better and has a few added provisions. With quite
strict conditions for liberation, it might be sometimes close to
impossible to fulfil all his duties. On the other hand, interests of the
other party cannot be neglected. It would be highly unjust to make
user of automated system pick the fruits from it and make the
damaged party bear the costs.
The situation is not so straightforward with criminal liability.
Generally civil law seems to be able to accept independently acting
things easier than criminal law. In criminal law the basic distinction
for unlawful actions committed by automatic machines will the
intention of their creator – whether it happen by his order or
independently of his will. Some basic ideas for future regulation have
been expressed.
Novelisation of criminal code will become necessary when the
machines will reach a level of intelligence comparable to one of
a human. In this case artificial being is more appropriate term.
Despite the numerous definitions of artificial being one more is
offered. In contrast to the others it does not concentrate on the
process of its creation or absolute level of intelligence. The key factor
69
is the ability to gradually learn from experience without external
interventions.
It is not an easy question to answer, what level of development is
needed to form high quality court decisions. In any case the vital
condition for automated court decisions is that the judicial agenda is
fully computerized. In the process of computerizing and later
automating justice, one should always be kept in mind. The level of
automation ought to be set by actual needs, not imposed
independently as the main target.
70
10 Definice
automatizace rozhodování – proces přesunu rozhodovací funkce
z člověka na počítač, výsledkem je automatizované rozhodnutí
automatizované rozhodnutí – rozhodnutí, které učiní počítač sám
na základě programu
evoluční algoritmy – výsledek genetického programování nebo
prostředek realizující evoluci řešení
expert, kolega asistent – možné role expertního systému podle míry
jakou se podílí na vlastním rozhodnutí
expertní systém – inteligentní počítačový program, který pomocí
inferenční procedury řeší obtížné problémy na základě vhodně
zakódovaných znalostí
fuzzy logika – (mlhavá, neurčitá logika) forma vícehodnotové logiky
určená k práci s nejednoznačnými hodnotami
genetické programování – přístup k programování vycházející
z biologické evoluce založený na náhodném generování řešení
následovaném výběrem a rozvíjením těch nejúspěšnějších spíše
než cíleným uspořádáváním instrukcí
rozhodovací proces – výběr jedné nebo několika variant z více
možných subjektem rozhodování (rozhodovatelem)
silná UI – umělá inteligence se všeobecnými schopnostmi přesahující
schopnosti člověka
slabá UI – umělá inteligence řešící pouze konkrétní úkoly
strojové učení – obor umělé inteligence zabývající se schopností
počítačových systémů se učit
71
umělá bytost – entita s umělým základem schopná inteligentní
interakce se svým okolím
umělá inteligence1 – vědní obor zabývající se tvorbou inteligentních
systémů
umělá inteligence2 – entita umělého původu vybavená inteligencí
umělá neuronová síť – paralelní systém založený na modelování
činnosti biologických neuronů
vnímaná snadnost použití – míra jakou osoba věří, že používání
určitého systému nebude provázeno námahou (součást TAM)
vnímaná užitečnost – míra jakou osoba věří, že používání určitého
systému zvýší její pracovní výkon (součást TAM)
72
11 Zkratky
OZ zákon č. 40/1964 Sb., občanský zákoník, ve znění pozdějších
předpisů
NOZ návrh občanského zákoníku
TZ zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších
předpisů
ES expertní systém
UNS umělá neuronová síť
NS Nejvyšší soud
UI umělá inteligence
PO právnická osoba
FO fyzická osoba
ZPÚ způsobilost k právním úkonům
TAM technology acceptance model – model přijímání technologií
73
12 Použité zdroje
Monografie
BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN
80-7079-873-4.
CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační
chování. 2., aktualizované a rozšířené vydání. Praha : Grada
Publishing, 2010. 334 s. ISBN 978-80-247-3348-7.
DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s.
KNAPP, Viktor, et al. Právo a informace. Praha : Academia, 1988. 292
s.
KNAPP, Viktor. Teorie práva. 1. vydání. Praha : C. H. Beck, 1995. 247
s. ISBN 80-7179-028-1.
POLČÁK, Radim. Právo a evropská informační společnost. Brno :
Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.
POLČÁK, Radim; ŠKOP, Martin; MACEK, Jakub. Normativní systémy
v kyberprostoru : úvod do studia. Brno : Masarykova univerzita,
2005. 102 s. ISBN 80-210-3779-2.
PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno,
2010. 229 s. Dizertační práce. Masarykova univerzita.
STUPKA, Václav. eJustice. Brno, 2010. 69 s. Diplomová práce.
Masarykova univerzita. Vedoucí práce Radim Polčák.
SVOBODA, Pavel, et al. Právní a daňové aspekty e-obchodu. Praha :
Linde Praha, 2001. 464 s. ISBN 80-7201-311-4.
VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita,
2006. ISBN 80-210-3972-8.
74
Články
COHEN, Paul. If not Turing’s test, then what?. [online]. September
20, 2005, [cit. 2011-02-19]. Dostupný z WWW:
<http://www.cs.arizona.edu/~cohen/Publications/papers/IfNotWh
at.pdf>.
DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a
doctrinal problem or merely a problem of explanation?. Artifical
Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný
také z WWW:
<http://www.springerlink.com/index/10.1007/s10506-010-9086-
8>.
DAVIS, Fred D. . Perceived usefulness, perceived ease of use, and
user acceptance of information technology. MIS Quarterly. 1989,
Volume 13, Number 3, s. 319–340.
DAVIS, Fred D.; BAGOZZI, Richard P.; WARSHAW, Paul R. . User
Acceptance of Computer Technology : a comparison of two
theoretical models. Management Science. August 1989, Vol. 35, No.
8, s. 982-1003.
KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk
University Journal of Law and Technology. Summer 2007, volume
1, number 1, s. 187-197. Dostupný také z WWW:
<http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>.
MARTIN, Andrew D., et al. Competing Approaches to Predicting
Supreme Court Decision Making. Perspectives on Politics. 2004,
Volume 2, Issue 04, s. 761-767. DOI:
10.1017/S1537592704040502.
RŮŽIČKA, Miroslav. Kontrola a dohled v soustavě státního
zastupitelství I. Právní rádce [online]. 22. 1. 2008, 1/2008, [cit.
2011-02-17]. Dostupný z WWW: <http://pravniradce.ihned.cz/c1-
75
22809820-kontrola-a-dohled-v-soustave-statniho-zastupitelstvi-i>.
ISSN 1213-7693.
TURING, Alan M. Computing Machinery and Intelligence. Mind : a
quarterly review of psychology and philosophy. October, 1950, Vol.
LIX, No. 236, s. 433-460. Dostupný také z WWW:
<http://dx.doi.org/10.1093/mind/LIX.236.433>. ISSN 0026-4423.
VENKATESH, Viswanath , et al. User acceptance of information
technology: Toward a unified view. MIS Quarterly. 2003, Volume
27, Number 3, s. 425–478.
WHITBY, Blay. Why The Turing Test is AI's Biggest Blind
Alley. [online]. 1997, [cit. 2011-02-17]. Dostupný z WWW:
<http://www.informatics.sussex.ac.uk/users/blayw/tt.html>.
Předpisy a judikatura
Důvodová zpráva k návrhu občanského zákoníku zákoníku [online].
[cit. 2011-02-16]. Dostupné z WWW:
<http://obcanskyzakonik.justice.cz/tinymce-
storage/files/Duvodova%20zprava%20OZ_ver_2010.pdf>.
Návrh občanského zákoníku [online]. [cit. 2011-02-16]. Dostupné z
WWW: <http://obcanskyzakonik.justice.cz/tinymce-
storage/files/Navrh%20obcanskeho%20zakoniku_ver_2010.pdf>.
Rozsudek NS ČR ze dne 25. 11. 2009, sp. zn. 25 Cdo 2429/2007
Usnesení NS ČR ze dne 22. 10. 2008, sp. zn. 25 Cdo 2805/2006
Ústavní zákon č. 1/1993 Sb., Ústava České republiky, ve znění
pozdějších předpisů
Zákon č. 121/2000 Sb., o právu autorském, o právech souvisejících
s právem autorským a o změně některých zákonů (autorský zákon),
ve znění pozdějších předpisů
76
Zákon č. 300/2008 Sb., o elektronických úkonech a autorizované
konverzi dokumentů, ve znění pozdějších předpisů
Zákon č. 361/2000 Sb., o provozu na pozemních komunikacích
Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších
předpisů
Zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších předpisů
Zákon č. 99/1963 Sb., občanský soudní řád, ve znění pozdějších
předpisů
Ostatní zdroje
ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding
Science Fiction. New York : Street & Smith, 1942. s. 94-104.
AYERS, Ian. How computers routed the experts. Financial
Times [online]. August 31 2007, -, [cit. 2011-03-13]. Dostupný z
WWW: <http://www.ft.com/cms/s/2/f68ba784-56b8-11dc-9a3a-
0000779fd2ac.html?nclick_check=1#axzz1HMtz9dSp>.
DARPA Grand Challenge. In Wikipedia : the free encyclopedia [online].
St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27].
Dostupné z WWW:
<http://en.wikipedia.org/wiki/DARPA_Grand_Challenge>.
Human-computer chess matches. In Wikipedia : the free
encyclopedia [online]. St. Petersburg (Florida) : Wikipedia
Foundation, [cit. 2011-02-19]. Dostupné z WWW:
<http://en.wikipedia.org/wiki/Human-computer_chess_matches>.
JIRSÍK, Václav. Expertní systémy : prezentace k přednáškám. Brno :
VUT, 2010.
Knowledgerush [online]. 2009 [cit. 2011-02-20]. Artificial being.
Dostupné z WWW:
77
<http://www.knowledgerush.com/kr/encyclopedia/Artificial_being
/>.
MARKOFF, John. Google Cars Drive Themselves, in Traffic. The New
York Times [online]. October 9, 2010, n/a, [cit. 2010-12-28].
Dostupný z WWW:
<http://www.nytimes.com/2010/10/10/science/10google.html?_r
=1>.
PRANANTHA, Danu. Lifelong Learning Journal [online]. October 15,
2009 [cit. 2011-02-21]. Neural Network in Business Intelligence .
Dostupné z WWW:
<http://danupranantha.wordpress.com/2009/10/15/neural-
network-in-business-intelligence-part-1/>.
Robotic Football League [online]. 2011 [cit. 2011-02-27]. Dostupné z
WWW: <http://www.roboticfootballleague.com/>.
Strong AI. In Wikipedia : the free encyclopedia [online]. St. Petersburg
(Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z
WWW: <http://en.wikipedia.org/wiki/Artificial_Being>.
University of Reading [online]. 14 August 2008 [cit. 2011-02-21].
Robot with a Biological Brain: new research provides insights into
how the brain works . Dostupné z WWW:
<http://www.reading.ac.uk/about/newsandevents/releases/PR165
30.aspx>.
VÁCLAVÍK, Lukáš. IBM Watson: superpočítač, který dokáže porazit
člověka. Cnews.cz [online]. 21. 1. 2011, [cit. 2011-02-18]. Dostupný
z WWW: <http://www.cnews.cz/ibm-watson-superpocitac-ktery-
dokaze-porazit-cloveka>.
Vyhledávání Google [online]. 2011-02-20 [cit. 2011-02-20].
Define:Artificial Being. Dostupné z WWW:
<http://www.google.cz/search?defl=en&q=define:Artificial+Being>.