+ All Categories
Home > Documents > Právní aspekty automatizace rozhodovacích procesů

Právní aspekty automatizace rozhodovacích procesů

Date post: 26-Mar-2015
Category:
Upload: lukas-matejka
View: 101 times
Download: 1 times
Share this document with a friend
Description:
Moje diplomka. Kritické připomínky včetně případných nenávistných komentářů vítány :)
77
PRÁVNICKÁ FAKULTA MASARYKOVY UNIVERZITY Právo a právní věda ÚSTAV PRÁVA A TECHNOLOGIÍ Diplomová práce Právní aspekty automatizace rozhodovacích procesů Lukáš Matějka Brno 2011
Transcript
Page 1: Právní aspekty automatizace rozhodovacích procesů

PRÁVNICKÁ FAKULTA MASARYKOVY UNIVERZITY

Právo a právní věda

ÚSTAV PRÁVA A TECHNOLOGIÍ

Diplomová práce

Právní aspekty automatizace

rozhodovacích procesů

Lukáš Matějka

Brno 2011

Page 2: Právní aspekty automatizace rozhodovacích procesů

Prohlášení

Prohlašuji, že jsem diplomovou práci na téma: Právní aspekty

automatizace rozhodovacích procesů zpracoval sám. Veškeré

prameny a zdroje informací, které jsem použil k sepsání této práce,

byly citovány v poznámkách pod čarou a jsou uvedeny v seznamu

použitých pramenů a literatury

Page 3: Právní aspekty automatizace rozhodovacích procesů

Poděkování

Rád bych poděkoval vedoucímu práce Mgr. Jaromíru Šavelkovi za jeho připomínky a cenné podněty při vedení diplomové práce a rodině za podporu v průběhu celého studia.

Page 4: Právní aspekty automatizace rozhodovacích procesů

Anotace

Tato práce se z právní perspektivy zabývá automatickým

rozhodováním. Po teoretickém uvedení do problematiky rozhodování

následuje analýza nejvýznamnějších systémů umělé inteligence

použitelných pro automatické rozhodování. Z této analýzy vyplývá

hodnocení právních následků akcí konaných automatem, zejména

pak odpovědnosti za ně. Následuje úvaha nad možným budoucím

vývojem automatických systémů do podoby umělých bytostí. Nakonec

jsou analyzovány možnosti automatizace rozhodování v justici

a státní správě.

Klíčová slova

automatické rozhodování, automatizace, odpovědnost, právo,

rozhodovací proces, umělá inteligence

Annotation

This thesis deals with automated decision making from the legal

perspective. Theoretical introduction to the area of decision making is

followed by an analysis of the most significant artificial intelligence

systems that are applicable for automated decision making. Based on

this analysis, legal effects of automatically conducted actions are

evaluated; especially liability for these actions. Further the possible

development of automatic machines into artificial beings is

contemplated. Finally the possibilities of automation in justice and

public administration are analysed.

Keywords

automated decision making, automation, liability, law, legal, decision

making process, artificial intelligence

Page 5: Právní aspekty automatizace rozhodovacích procesů

zadání 1. strana

Page 6: Právní aspekty automatizace rozhodovacích procesů

zadání 2. strana

Page 7: Právní aspekty automatizace rozhodovacích procesů

7

1 Obsah

2 Úvod ........................................................................................... 9

2.1 Cíle práce .......................................................................... 10

2.2 Stručná historie a terminologie .......................................... 11

3 Rozhodovací procesy ................................................................. 13

3.1 Co je rozhodovací proces? .................................................. 13

3.2 Význam rozhodovacích procesů ......................................... 13

3.3 Automatizované rozhodovací procesy ................................. 14

3.4 Typy rozhodování .............................................................. 17

3.4.1 Programová a neprogramová rozhodnutí ................... 18

3.4.2 Strategická a operativní rozhodování ........................ 18

4 Způsoby automatizace rozhodovacích procesů .......................... 20

4.1 Oblasti automatizace rozhodování ..................................... 20

4.2 Historie umělé inteligence .................................................. 23

4.3 Současný stav poznání a oblasti aplikace UI ...................... 24

4.4 Umělé neuronové sítě ........................................................ 25

4.5 Expertní systémy ............................................................... 28

4.5.1 Tvorba ES ................................................................ 30

4.5.2 Použití expertních systémů ...................................... 31

5 Odpovědnost za aktivity automatických a autonomních

systémů .................................................................................... 33

5.1 Soukromoprávní odpovědnost za škodu ............................. 33

5.2 Trestní odpovědnost .......................................................... 40

5.3 K možnosti aplikace zákonů robotiky ................................. 43

Page 8: Právní aspekty automatizace rozhodovacích procesů

8

6 Umělé bytosti ............................................................................ 45

6.1 Definice a povaha umělých bytostí ..................................... 46

6.1.1 Povaha umělých bytostí ............................................ 48

6.2 Možné přístupy k umělým bytostem de lege ferenda .......... 49

7 Automatizace rozhodovacích procesů v justici a státní správě ... 53

7.1 Asistenční činnosti ve státní správě a justici ...................... 54

7.1.1 Současný stav .......................................................... 54

7.1.2 Možnosti automatizace pomocných činností ............. 56

7.1.3 Předpověď rozhodnutí .............................................. 58

7.2 Automatické systémy ve vlastním rozhodování .................. 59

7.2.1 Očekávatelné přínosy automatizovaných rozhodnutí . 59

7.2.2 Meze, rizika a nevýhody: .......................................... 60

7.2.3 Zavádění automatizovaných rozhodnutí do státní

správy a justice ........................................................ 61

8 Závěr ........................................................................................ 64

9 Resumé .................................................................................... 67

10 Definice .................................................................................... 70

11 Zkratky .................................................................................... 72

12 Použité zdroje ........................................................................... 73

Page 9: Právní aspekty automatizace rozhodovacích procesů

9

2 Úvod

Stále více jsou naše životy ovlivňovány technikou. Technikou, jejíž

možnosti a schopnosti jsou stále rozsáhlejší. Čím dál tím častěji jsou

strojům svěřovány i různě komplikované činnosti, které vykonávají

bez lidských zásahů a s pouze omezenou kontrolou. Začínají se

objevovat i stroje schopné autonomního provozu a lze se domnívat, že

jich bude jen přibývat. Autonomně jezdící automobily a letadla,

vojenské nebo záchranné roboty nasazované na nejnebezpečnější

úkoly jsou těmi nejviditelnějšími. Přesto je lze považovat pouze za

špičku ledovce. Většina počítačových programů1 totiž neovládá žádné

auto ani žádného robota. Většina nemá přímý fyzický vliv na okolí.

Proto však nejsou méně významné. Rozhodují o obchodních

transakcích, pomáhají hledat naleziště surovin2 nebo diagnostikovat

nemoci3

A přesto neexistuje právní regulace autonomních systémů.

Zatímco dnes to možná není zásadním problémem, v budoucnu by

být mohlo. Zásadním rozdílem je, že v případě autonomních systémů

jde o kvalitativní změnu. Zatímco například s příchodem internetu se

zásadním způsobem zrychlilo a usnadnilo předávání informací,

možnost dálkové komunikace zde byla dlouhodobě – změna byla

kvantitativní. Autonomní systémy představují entitu, se kterou právo

v zásadě nepočítá – mohou být schopny relativně samostatného

rozhodování, ale nejsou člověkem. Zároveň nejsou natolik

samostatné, aby mohly být nadány plnou právní subjektivitou.

V současnosti zná právo pouze dvě entity s podobnými vlastnostmi:

děti a zvířata, přičemž děti jsou nadány částečnou právní

.

1 Což je v současnosti a minimálně v blízké budoucnosti ta část, která rozhoduje a řídí. 2 Například expertní systém Prospector. 3 Například expertní systém Mycin.

Page 10: Právní aspekty automatizace rozhodovacích procesů

10

subjektivitou a zvířata jsou považována za zvláštní druh věci4

Stav, kdy neexistuje zvláštní právní regulace na problematiku,

která je zatím pouze okrajová a kterou bude třeba ve zvýšené míře

řešit především v budoucnosti, netřeba považovat za kritický. Je zde

však důvod přicházející realitu zohledňovat u nově přijímaných

zákonů i jiných regulací. Rovněž nelze pominout potřebu široké

diskuse o tom, jak by taková úprava měla vypadat.

. To činí

autonomní systémy velice specifickou skupinou.

2.1 Cíle práce

Tato diplomová práce se bude zabývat problematikou

automatizovaného rozhodování z pohledu práva. Za tím účelem bude

analyzována teorie rozhodování a jeho hlavní aspekty. Na teorii

rozhodovacího procesu naváže přehled a zhodnocení prostředků

automatizace.

Budou představeny prostředky automatizace rozhodování, které

jsou dnes nejčastěji využívány s vyzdvižením těch vlastností, které

jsou relevantní pro právní posouzení rozhodnutí vykonaných

takovými prostředky. Jde zejména o systémy umělé inteligence

a jejich specifické vlastnosti.

Hlavním cílem bude právní rozbor následků rozhodnutí

automatických a autonomních programů za současné právní úpravy

a v omezené míře návrh východisek pro případnou úpravu budoucí.

Tato práce si neklade za cíl zodpovědět všechny možné otázky a lze

očekávat, že některé zůstanou otevřené pro další diskusi.

4 Zvláštnost ale spočívá především v ochraně před týráním, zvířatům totiž nebývají svěřována žádná rozhodnutí.

Page 11: Právní aspekty automatizace rozhodovacích procesů

11

2.2 Stručná historie a terminologie

První zmínky o umělých bytostech se vyskytují v hebrejské mytologii

v podobě golemů. „Golem provádí jednoduché, opakující se úkony, je

však těžké ho zastavit.“5

Ve většině publikací, které se, byť vzdáleně, dotýkají robotiky,

(a v českých obzvláště) je zvykem uvést okolnosti vzniku slova Robot,

které odvodil Josef Čapek ze slova „robota“, a jeho první použití

Karlem Čapkem v divadelní hře Rossum‘s Universsal Robots (R. U. R.)

v roce 1920. Bylo jím nahrazeno do té doby používané slovo

automaton.

Touto definicí se golem velmi blíží našemu

chápání slova robot pro kombinaci svého určení a mechanické

povahy. Další umělé bytosti se objevují v mytologii i v umění od této

doby až do současnosti.

6

Český pravopis připouští použití slova robot v životné i neživotné

formě. Obecně akceptovaná pravidla pro rozlišení, který robot má být

životný, a který ne, neexistují. Autor této práce zastává názor, že

vhodným dělícím kritériem je mobilita a autonomie robota. Zatímco

stacionární roboty mají obvykle povahu naprogramovaných

jednoúčelových automatů, autonomní mobilní roboti se vyznačují

množstvím vlastností společných s živočichy, které se často více či

méně úspěšně snaží napodobit a proto je na místě použití životné

formy.

Bez zajímavosti není ani fakt, že Robot popsaný Karlem

Čapkem se příliš nepodobá robotu tak, jak ho chápeme dnes.

Čapkovi Roboti byli vyráběni na biologicko-chemické bázi, a co do

vzhledu, se nelišili od lidí. V dnešní době bychom tyto bytosti označili

spíše jako androidy.

5 STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0–8493–s "STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0-8493-1804-1." \c 16 6 STONE, Wesley L. Robotics and Automation Handbook. Kurfess, Thomas R. : CRC Press, 2005. ISBN 0-8493-1804-1.

Page 12: Právní aspekty automatizace rozhodovacích procesů

12

Dalším autorem, který měl značný vliv na nazírání některých,

především etických, aspektů robotiky a existence umělých bytostí byl

Isaac Asimov. Ve své povídce Runaround (1942), kde mimo toho také

poprvé použil slovo „robotika“ ve významu, v jakém je známo dnes,

formuloval Tři zákony robotiky. Až v roce 1985 doplnil své tři zákony

o nultý.

„0) Robot nesmí ublížit lidstvu nebo svou nečinností dopustit, aby mu

bylo ublíženo.

1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby mu

bylo ublíženo.

2) Robot musí poslechnout člověka, kromě případů, kdy je to v rozporu

s prvním zákonem.

3) Robot se musí chránit před poškozením, kromě případů, kdy je to

v rozporu s prvním nebo druhým zákonem.“7

Otázka, do jaké míry budou tyto zákony robotiky dodržovány,

značně závisí na tom, kdo bude financovat jejich výzkum a vývoj.

Pokud je autorovi známo, žádný stát tyto zákony nepřijal za vlastní

inkorporací do svého právního řádu. Jejich normativita tak spočívá

v mimoprávním působení na tvůrce robotů. Nutno však podotknout,

že adresáty těchto zákonů měli být plně autonomní roboti. Vůli

tvůrců robotů aplikovat tyto zákony extenzivně je i tak třeba hodnotit

pozitivně.

Se značnou jistotou lze snahu o dodržení těchto pravidel

předpokládat u robotů průmyslových a zábavních, kde půjde

především o maximální možnou eliminaci nehod. Jiná je situace

u robotů vojenských, které často už z povahy svého určení nebudou

mít možnost dodržovat první zákon robotiky.

7 ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding Science Fiction. New York : Street & Smith, 1942. s. 94-104. Citace rozšířena o nultý zákon.

Page 13: Právní aspekty automatizace rozhodovacích procesů

13

3 Rozhodovací procesy

V této kapitole budou analyzovány pojmy rozhodování

a rozhodovacího procesu. Mimo jiné i na základě rozšířenosti

rozhodování bude demonstrován značný význam rozhodovacích

procesů. Pro úplnost bude uvedeno základní dělení (typy)

rozhodování s přihlédnutím k jejich automatizovatelnosti.

3.1 Co je rozhodovací proces?

Rozhodovacím procesem se rozumí postup, kdy nějaká entita (obvykle

člověk, ale stále častěji stroj) vybírají jednu nebo několik variant

řešení nebo postupu z více možných variant. Přitom všechny možné

varianty rozhodnutí nemusí být, a často nejsou, známy na začátku

rozhodování a někdy ani v jeho průběhu.

3.2 Význam rozhodovacích procesů

Důležitost rozhodování na všech úrovních naší společnosti od

vrcholných politických pozic až po drobná rozhodnutí je značná

a také se touto problematikou zabývá množství literatury. Oblastí, ve

které je v brzké době možno očekávat nejdynamičtější rozvoj

automatizovaných rozhodnutí, je management – právě zde není

výjimečným výskyt rozhodnutí s relativně omezenou množinou

vstupních faktorů, která jsou však natolik komplexní, že rozhodování

člověka se stává obtížným pro nemožnost postihnout všechny

varianty. A protože „komponenta rozhodování přímo ovlivňuje všechny

´interní´ manažerské komponenty“8

Vzhledem k tématu práce nebudou nadále probírána rozhodnutí,

která učinil člověk, ale pouze ta učiněná výhradně strojem nebo za

jeho výrazného přispění.

je správné rozhodování klíčové.

8 VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita, 2006. ISBN 80-210-3972-8.

Page 14: Právní aspekty automatizace rozhodovacích procesů

14

3.3 Automatizované rozhodovací procesy

Předně je vhodné říci, co se rozumí automatizovaným rozhodnutím.

Je jím rozhodnutí, které učiní počítač sám na základě programu a je

třeba je zásadně odlišovat od vůle člověka projevené prostřednictvím

počítače v případech, kdy se počítač a jeho program na rozhodnutí

nijak nepodílí.

„Od vůle projevené prostřednictvím zařízení na zpracování dat

(nejčastěji počítač) je třeba odlišit tzv. počítačový projev, kdy počítač

sám automaticky vygeneruje reakci na akci – projev vůle druhé strany

projevené elektronickým způsobem, např. e-mail potvrzující

zaregistrování doménového jména. Zde evidentně chybí projev lidské

vůle v reálném čase. Protože však počítačová reakce byla

naprogramována člověkem, jedná se přece jen o projev lidské vůle:

provozovatel příslušného software sice neprojevil vůli v reálném čase,

ale z počítačového projevu lze odvodit všeobecnou vůli vždy za určitých

podmínek (např. správné vyplnění e-žádosti o registraci doménového

jména) právní následky založit.“9

Je vhodné se zabývat důvody, proč by automatizace rozhodování

mohla způsobovat potíže v právním posouzení následků takových

rozhodnutí. Tato otázka je spojena s historií vývoje právní úpravy,

jejíž základy a zásady, na nichž staví, vznikaly v minulosti. V době

jejich vzniku nebyla možnost existence samostatně rozhodující entity

jiné než člověka a později vzniklé abstrakce – právnické osoby –

představitelná, natož předvídatelná.

Pokud by zde taková možnost byla, lze se domnívat, že by právní

úprava vypadala mnohdy jinak. Jako příklad lze uvést úpravu

provozu na pozemních komunikacích. V době, kdy nebylo

9 SVOBODA, Pavel, et al. Právní a daňové aspekty e-obchodu. Praha : Linde Praha, 2001. 464 s. ISBN 80-7201-311-4.

Page 15: Právní aspekty automatizace rozhodovacích procesů

15

představitelné, že by vozidlo bylo řízeno někým jiným než člověkem,

neexistoval žádný důvod vytvářet abstraktnější právní úpravu

a nevázat oprávnění k řízení vozidla na člověka. V současné situaci

(a především v blízké budoucnosti), kdy jsou autonomně řízená

vozidla realitou10

Zvláště významně se projeví v oblasti přičitatelnosti určitého

rozhodnutí například kvůli stanovení odpovědnosti, pokud rozhoduje

automat s určitou mírou autonomie. V takovém případě by mohlo

přestávat platit tvrzení, že „jedině rozhodovatel definitivně rozhoduje

o volbě varianty k realizaci a nese za své rozhodnutí a jeho realizaci

plnou odpovědnost“

, však takový důvod existuje.

11

V tomto kontextu si je nutné uvědomit i další velmi důležitou

skutečnost, kterou představují meze možností automatizace

rozhodování. Smyslem automatizace (jakékoliv) je, aby byl daný úkol

vykonáván rychleji, spolehlivěji a levněji. Je pravdou, že některé

úkoly by jinak než automatizovaně provádět nebylo možné, a to kvůli

jejich časové nebo jiné náročnosti.

. Skutečným rozhodovatelem je zde autonomní

systém, který nemůže být odpovědný, zatímco po odpovědné osobě,

která by odpovědnost nést mohla (a předpokládá se to) nelze toto

spravedlivě požadovat, protože nad rozhodnutím nemá plnou

kontrolu.

12

10 Viz MARKOFF, John. Google Cars Drive Themselves, in Traffic. The New York Times [online]. October 9, 2010, n/a, [cit. 2010-12-28]. Dostupný z WWW: <http://www.nytimes.com/2010/10/10/science/10google.html?_r=1>. nebo extrémně rychlý vývoj schopností vozidel účastnících se DARPA Grand Challenge a DARPA Urban Challenge viz DARPA Grand Challenge. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: <http://en.wikipedia.org/wiki/DARPA_Grand_Challenge>.

Většina automatizovaně

11 VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita, 2006. ISBN 80-210-3972-8. 12 Jako příklad může posloužit hromadná identifikace osob z obrazových dat na letištích, podrobné sledování dopravní situace nebo trvalý monitoring odlehlých míst.

Page 16: Právní aspekty automatizace rozhodovacích procesů

16

řešených problémů je však, alespoň teoreticky, řešitelná i bez použití

automatizace.13

Tento fakt se stává maximálně důležitým v situaci, kdy přestává

být rozhodnutí jednoznačnou funkcí vstupních dat. Za současného

stavu poznání

14

Tato omezení často pramení přímo z technických způsobů

automatizace rozhodovacích procesů, které budou popsány dále.

Řada přímočarých úloh je řešitelná sestavením určitého algoritmu,

který je následně vykonáván. Problémy, u kterých takový algoritmus

není ani známý, ani snadno sestavitelný, se používá některého

z těchto prostředků umělé inteligence:

není možné naučit výpočetní prostředky vykonávat

činnost, kterou lidé vykonávat nejsou schopni. Tou hlavní výhodou

použití výpočetních prostředků, kterou je rychlost nelze

vykompenzovat nedostatek schopnosti inteligentního uvažování.

neuronové sítě,

expertní systémy,

fuzzy logika,

strojové učení nebo

genetické programování a evoluční algoritmy.

Společné jim je to, že po vytvoření technického řešení systému

(programového vybavení) je nutné ho naplnit daty – učením

u neuronové sítě, vytvořením báze znalostí u expertního systému.

Tato data poskytuje zpravidla určitým způsobem člověk, ať již

předložením vzorových dat (vstup → požadovaný výsledek) nebo

13 Minimálně je znám princip fungování a automatický systém poskytuje přesnější vstupní data a lepší možnost zpracování. 14 S příchodem systémů schopných samostatného učení a s možnostmi přesahujícími možnosti lidského mozku nebudou takové překážky relevantní.

Page 17: Právní aspekty automatizace rozhodovacích procesů

17

přímo odpovídáním na dotazy.15 V takovéto situaci není možno

žádným způsobem naučit systém rozhodovat o otázkách jako je

spravedlnost, morálka, estetika nebo náboženská víra. Ne snad proto,

že tyto kategorie nejsou přesně vymezeny ani definovány – to je

překonatelný problém. 16 Tím hlavním problémem je neexistence

univerzálně platného pojetí těchto kategorií. Bylo by tak možné

vytvořit systém, který by s přijatelnou spolehlivostí aproximoval

názory svého učitele – člověka17

3.4 Typy rozhodování

, ale to není řešení daného problému.

Počítač těžko může poskytnout odpovědi na politické otázky,

o kterých se lidé nedokážou dohodnout. Nelze předpokládat, že

jakákoliv automatizace rozsoudí dlouho se vlekoucí filosofické spory.

Pro pochopení mezí vhodnosti automatizace rozhodování je nutné se

podrobněji zaměřit na jednotlivé druhy rozhodnutí.

Ne každé rozhodování je stejné. Jednotlivá rozhodování se mohou lišit

svojí důležitostí, obtížností, strukturou, četností, časovým horizontem

nebo množstvím významných faktorů, které je třeba zvažovat.

Všechny tyto prvky mají vliv na to, zda dané rozhodování je vhodné

automatizovat či nikoliv. Z pohledu automatizace rozhodování je

důležité, zda jde o rozhodnutí programová nebo neprogramová.

Dalším dělením, které je nutno zmínit jsou rozhodnutí strategická

a operativní.

15 Výjimkou jsou právě evoluční algoritmy, které se vyvíjejí do značné míry náhodně a strojové učení, kde není vždy nutný lidský vklad pro učení. 16 Což zdaleka neznamená, že je snadný. V uvedených případech by byl pravděpodobně největší problém s vhodnou reprezentací dat. 17 Není bezpodmínečně nutné, aby se takový člověk aktivně účastnil, jako vstupní data by bylo možno použít i jeho existující rozhodnutí. Je rovněž možné, aby učitelem byla skupina lidí, ta ale musí mít dostatečné koherentní názory – při odlišnosti učících vzorů bez zjevných důvodů by systém nebyl schopen se na základě daných dat naučit.

Page 18: Právní aspekty automatizace rozhodovacích procesů

18

3.4.1 Programová a neprogramová rozhodnutí

Programová rozhodnutí jsou taková, která poskytují strukturovaná

řešení pro konkrétní problémy. Do programových rozhodnutí patří

často rozhodnutí, která jsou vykonávána opakovaně. Takové

rozhodnutí je sledem standardizovaných aktivit a postupů, které jsou

vyzkoušené a prověřené. Programové rozhodnutí nemusí být, a často

ani není, rozhodnutím jednoduchým.18

Neprogramová rozhodnutí jsou typická pro nestrukturované

problémy a jejich řešení. Pro problémy vyznačující se komplexností,

nejednoznačností a obvykle neexistující dokumentací. Neprogramová

rozhodnutí obvykle řeší unikátní problémy, které se vyskytují pouze

jednou nebo zřídka. Automatizace takových rozhodnutí je buď

nemožná, nebo neefektivní.

Množství možností

a ovlivňujících vlivů může být obrovské. Hlavním znakem je však

strukturovanost rozhodnutí, z níž vychází postup při tomto typu

rozhodování. Takováto rozhodování jsou pak obzvláště vhodná pro

automatizaci.

19

3.4.2 Strategická a operativní rozhodování

Dělení rozhodování, které by nemělo být opomenuto je dělení na

rozhodování strategické a operativní. Rozdělení závisí na tom, zda je

dané rozhodnutí spojeno s dlouhodobou perspektivou nebo

s každodenními všedními záležitostmi.

U strategických rozhodnutí je důležitější kvalita rozhodování nad

její rychlostí a to především kvůli dlouhodobosti jejich následků.

18 CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační chování. 2., aktualizované a rozšířené vydání. Praha : Grada Publishing, 2010. 334 s. ISBN 978-80-247-3348-7. 19 tamtéž

Page 19: Právní aspekty automatizace rozhodovacích procesů

19

Naopak tomu je u rozhodnutí operativních. U nich je zásadním

faktorem rychlé vyhodnocení alternativ a stanovení cílů.20

Uvedenými vlastnostmi je dána i vhodnost automatizace obou

typů rozhodnutí. Zatímco operativní rozhodnutí, u kterých se důraz

na rychlost minimálně vyrovná důležitosti kvality, jsou

k automatizaci velmi vhodná, u strategických rozhodnutí je prostor

pro automatizaci (a zároveň i ochota svěřit takové rozhodnutí stroji)

omezen. U strategických rozhodnutí má tak automatizace funkci

především v pomocných a podpůrných činnostech.

Další dělení rozhodování používané v managementu jako např.

rozhodování shora a zdola nemají z hlediska zaměření této práce

podstatný význam.

20 CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační chování. 2., aktualizované a rozšířené vydání. Praha : Grada Publishing, 2010. 334 s. ISBN 978-80-247-3348-7.

Page 20: Právní aspekty automatizace rozhodovacích procesů

20

4 Způsoby automatizace rozhodovacích

procesů

Automatizací rozhodnutí se rozumí proces přesunu rozhodovací

funkce z člověka na stroj, kdy ve výsledku vlastní rozhodnutí učiní

stroj místo člověka. Stroj tedy není pouhým pomocníkem, ale

subjektem rozhodování.

Systémy, kterým je svěřeno určité rozhodování je možné rozdělit

do dvou hlavních skupin:

automatické systémy a

autonomní/inteligentní systémy.

Automatické systémy, se používají především pro jasně definované

úlohy, snadno kvantifikovatelné. Existuje jednoznačný algoritmus,

který na základě vstupních dat deterministicky nalezne výsledek.

Tyto systémy se nachází v průmyslu, kde řídí technologické procesy,

v domácnostech, ale i v automobilech, kde ty pokročilejší zasahují

i do vlastního řízení.

Autonomní inteligentní systémy se odlišují především neexistencí

jednoznačného algoritmu vedoucího ke stanovení výsledku. Na rozdíl

od deterministických autonomních systémů nedávají kategorické

výsledky, často jsou to spíše váhy nebo pravděpodobnosti. Používají

se v současnosti především pro zpracování obrazových dat, hledání

korelací v datech a jiné komplexní problémy.

4.1 Oblasti automatizace rozhodování

Už dlouhou dobu je značná část průmyslových procesů řízena různě

komplexními automatickými systémy řízení. Z právního hlediska

nezpůsobují tyto provozy větších problémů. Za tím je možno vidět

několik důvodů. Předně je kladen velký důraz na jejich spolehlivost

Page 21: Právní aspekty automatizace rozhodovacích procesů

21

a bezpečnost21

Situace v dopravě je o něco komplikovanější. Na rozdíl od

průmyslu a některých zvláštních případů

, následkem čehož vzniká minimum problémových

situací. Ještě důležitějším faktorem z právního hlediska, ale je

jednoznačná identifikovatelnost odpovědných subjektů. V případě

selhání je možno určit, zda systém byl vadně navržen, realizován

nebo provozován. Lze pak stanovit, zda za případnou škodu odpovídá

dodavatel systému nebo bude následky nést sám provozovatel.

22 je v dopravě velké

množství účastníků s různou úrovní řidičských schopností.

Následkem toho vznikají i bez ohledu na automatické systémy

v automobilech nehody, u kterých není zcela jasné zavinění. Pokud

by některý z řidičů tvrdil, že na vině je řídicí systém auta, situace by

se zkomplikovala ještě více. I zde se dá předpokládat, že dopravní

prostředky řízené autonomně budou bezpečnější. V současné době

však toto není, minimálně v českém prostředí, možné23. Obdobná je

situace i v jiných zemích a tak testování takových systémů probíhá

většinou v režimu, kdy je přítomna osoba s oprávněním řídit

a možností kdykoliv převzít řízení. V tomto případě je odpovědnost

jednoznačná24

V případě takové změny je třeba uvažovat i o způsobu certifikace

pro autonomní vozy, a to na úrovni výrobců. Rovněž otázka

, do budoucna je však třeba počítat s potřebou právní

úpravu změnit a umožnit aby se do provozu zapojovala i autonomně

řízená vozidla.

21 V průmyslových aplikacích se na spolehlivost a dlouhodobý bezchybný a bezzásahový provoz dává mnohem větší důraz než v ostatních oblastech lidské činnosti. 22 Jako je letecká doprava nebo železnice. 23 Zákon č. 361/2000 Sb., o provozu na pozemních komunikacích v § 3/3 uvádí, že motorové vozidlo může řídit jen osoba s příslušným řidičským oprávněním a žáci autoškol. 24 Odpovědnost je jednoznačná z pohledu problematiky autonomně rozhodujícího stroje, jinak stejně jednoznačná jako v případě vozidla řízeného jen člověkem.

Page 22: Právní aspekty automatizace rozhodovacích procesů

22

odpovědnosti by musela být upravena odlišně od současné s tím, že

by větší část odpovědnosti nesl výrobce. Bylo by žádoucí, aby v rámci

takové změny proběhla širší diskuse, jejímž výsledkem by byly

obecnější závěry o postavení autonomních systémů, aby bylo možné

zachovat principiální jednotnost právní úpravy napříč různými

oblastmi.

Zejména v oblasti obchodu mají význam automaticky uzavírané

kontrakty, jejichž dojednávání probíhá obvykle přes internet. Ten je

ovšem pouze médiem a podstatné je postavení automatického

systému – subjektu rozhodování.

„Automatizované systémy pro uzavírání smluv se používají už delší

dobu. Přesto elektronické smlouvy uzavřené za použití inteligentních

softwarových činitelů mají jedinečné kvality a vlastnosti, které je činí

dostatečně odlišnými od smluv uzavřených elektronickými nebo

automatickými systémy.“ 25

Už dnes se v justiční a správní praxi používají různé systémy,

které, zatím ve velmi omezené míře, pomáhají automatizovat vedlejší

a servisní činnosti soudů a státní správy. Jednotlivé nepropojené

systémy zjevně nevyžadují zvláštní právní úpravu, to by ovšem

neplatilo o systému natolik komplexím, že by samostatně prováděl

i více kroků.

V kontextu autonomních a inteligentních

systémů je třeba uvažovat možnost kontroly provozovatele systému

nad jeho činností a předvídatelnost jeho akcí.

Míra použití prvků umělé inteligence se liší podle odvětví – zatímco

průmysl a státní orgány se k adopci nových technologií staví

zdrženlivě, spotřební elektronika výzkum, nebo obchod využívají nové

25 DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a doctrinal problem or merely a problem of explanation?. Artifical Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný také z WWW: <http://www.springerlink.com/index/10.1007/s10506-010-9086-8>.

Page 23: Právní aspekty automatizace rozhodovacích procesů

23

technologie co nejdříve. Nepřekročitelným faktorem je v každém

okamžiku míra poznání a technické možnosti, které historicky rostly

postupně jako odpovědi na aktuální otázky.

4.2 Historie umělé inteligence

Historie umělé inteligence jako samostatného vědního oboru se datují

od roku 1956, ve kterém proběhla konference „The Dartmouth

summer research project on artificial intelligence“26, ačkoliv první

pokusy o tvorbu inteligentních strojů se objevovaly už dříve.27

„Umělá inteligence je věda o vytváření strojů nebo systémů, které

budou při řešení určitého úkolu užívat takového postupu, který – kdyby

ho dělal člověk – bychom považovali za projev jeho inteligence.“

Mezi

počáteční cíle vývoje umělé inteligence patřilo například odvozování

matematických vzorců a řešení matematických a technických

problémů. Obor umělé inteligence byl vymezen následovně:

28

První pokusy směřovaly do oblastí prohledávání stavového

prostoru a hlavně do výzkumu umělých neuronových sítí. Po slibných

začátcích a především velmi neskromných očekáváních následovalo

zklamání a na léta byl výzkum UNS významným způsobem utlumen.

Není bez zajímavosti, že na tom měl paradoxně výrazný podíl Marvin

Lee Minsky

29, když chybně30 zobecnil negativa31 specifické podoby32

26 HABIBALLA, Hashim. Umělá inteligence [online]. Ostrava : Ostravská Univerzita, 2004 [cit. 2011-02-19]. Dostupné z WWW: <http://www.volny.cz/habiballa/publ/umint.pdf>.

27 Například jednoduchý model neuronu ze 40. let od W. S. McCullocha a W. Pittse. 28 Definice z MINSKY, Marvin Lee. Computation: Finite and Infinite Machines. New Jersey : Prentice Hall, Inc., 1967. ISBN 0-13-165563-9. 29 Marvin Lee Minsky je jeden ze zakladatelů oboru umělé inteligence a významný odborník na umělé neuronové sítě. 30 Existuje názor, že tuto chybu učinil záměrně, aby byly kapacity přesměrovány do jiných oblastí výzkumu, které považoval za perspektivnější.

Page 24: Právní aspekty automatizace rozhodovacích procesů

24

neuronové sítě na všechny konfigurace. Od té doby byla značná

pozornost věnována zejména expertním systémům. Přibližně od 80.

let minulého století nastala určitá renesance UNS a na poli umělé

inteligence je dosahováno pravidelně dílčích, ale ne nevýznamných

praktických úspěchů.

4.3 Současný stav poznání a oblasti aplikace UI

Naděje vkládané do aplikací umělé inteligence v prvopočátcích byly

zčásti naplněny. Systémy umělé inteligence sice neučinily významné

vědecké objevy33

rozpoznání obrazu a zpracování obrazových dat,

, zato nacházejí uplatnění ve velkém množství

aplikací denního použití, které by bez nich nebyly řešitelné. Mezi

hlavní oblasti použití systémů umělé inteligence patří zejména:

optické rozpoznání znaků (OCR) – převod naskenovaného

textu na zpracovatelná data,

převod řeči na text34

předpovědi v časových řadách – počasí, ceny akcií na

burze,

,

hledání optimálních řešení při navrhování plošných

spojů,

prohledávání možných tras v navigačních systémech,

nebo

klasifikace – rozdělení objektů do skupin podle vlastností.

31 Tímto negativem byla neschopnost aproximovat logickou funkci XOR (výlučné nebo). 32 Toto omezení platí pro topologii sestávající z jednoho perceptronu, např. třívrstvá perceptronová síť tuto funkci realizovat umožňuje. 33 Alespoň autorovi nejsou žádné objevy učiněné samostatně počítačovým systémem známy. Lze se jen dohadovat, zda by případný autor takový objev přiznal počítači, nebo by jej prezentoval jako vlastní. 34 Převod mluveného slova do textové podoby má spolu s OCR význam mj. i pro soudní praxi.

Page 25: Právní aspekty automatizace rozhodovacích procesů

25

Jak je patrno, jde o velmi separované úlohy, jejichž uplatnění je

především v pomoci člověku při rozhodování nebo usnadnit časově

náročnou rutinní činnost. Skutečně samostatné rozhodování je spíše

výjimečné.

Jak už bylo naznačeno výše, systémy využívající prvky umělé

inteligence jsou schopny řešení problémů, které není výhodné nebo

možné řešit klasickým způsobem. Cenou za to je částečná ztráta

kontroly nad výsledkem a z toho plynoucí nárůst nejistoty. Je tedy

potřeba vždy pečlivě zvážit, zda má být dána přednost tradičnímu

algoritmu nebo prvkům umělé inteligence. V následujících

podkapitolách budou představeny nejběžnější inteligentní systémy,

konkrétně umělé neuronové sítě a expertní systémy.

4.4 Umělé neuronové sítě

Umělé neuronové sítě jsou paralelní systémy prvků modelujících

činnost biologických neuronů, které jsou uspořádány a vzájemně

provázány tak, aby celý systém byl schopen zpracovat data

požadovaným způsobem.

Již první pokusy s umělými neuronovými sítěmi byly prováděny

na optickém rozpoznávání znaků a zpracování obrazu je dodnes

významnou oblastí použití umělých neuronových sítí. Dalšími,

neméně významnými oblastmi použití, jsou předpovědi na základě

historických dat nebo rozpoznání (přepis) mluveného slova. Obecně

jde zejména o těžko algoritmizovatelné problémy.

Drtivá většina, pokud ne všechny, neuronové sítě mají společné

to, že mají přesně definovaný formát vstupních a výstupních dat,

kterým je uspořádaná množina čísel, obvykle jako vektor nebo

matice. Tato čísla reprezentují zpracovávaná data (jasové úrovně

u obrázku, jednotlivé body časové řady, příznaky objektů, které je

Page 26: Právní aspekty automatizace rozhodovacích procesů

26

třeba klasifikovat…). Výstupem je rovněž jedno nebo více čísel, která

je třeba interpretovat.

I z tohoto velmi stručného popisu je patrné, že umělé neuronové

sítě nejsou schopny samostatné funkce bez dalších součástí, které

zajistí vhodnou přípravu vstupních dat a interpretaci výsledků. Pro

pochopení fungování a omezení umělých neuronových sítí je vhodné

se podívat podrobněji na princip jejich funkce. Základem umělých

neuronových sítí je matematický model neuronu, obvykle

perceptron35

.

Obr. 1 Schéma perceptronu36

V průběhu procesu učení jsou učícím algoritmem

37

35 Zobecnění více matematických modelů z roku 1957, jehož autorem je Frank Rosenblatt.

nastaveny

váhy vstupů neuronu takovým způsobem, aby danému vstupu

odpovídal požadovaný výstup. Výstup se získá tzv. aktivací neuronu,

36 PRANANTHA, Danu. Lifelong Learning Journal [online]. October 15, 2009 [cit. 2011-02-21]. Neural Network in Business Intelligence . Dostupné z WWW: <http://danupranantha.wordpress.com/2009/10/15/neural-network-in-business-intelligence-part-1/>. 37 Nejčastěji používaným algoritmem pro učení je backpropagation – zpětné šíření chyby výstupu.

Page 27: Právní aspekty automatizace rozhodovacích procesů

27

která spočívá v přivedení signálů na patřičné vstupy a jejich váženém

součtu.

Tento jednoduchý princip vede k překvapivě dobrým výsledkům.

I jediný perceptron je při správném naučení schopen reagovat na

naučený znak38

Velkou výhodou výpočtů založených na neuronových sítích je

jejich schopnost zobecňovat. Kromě toho, že neuronová síť reaguje

správně na vzory předložené při učení, což se předpokládá, měla by

být schopna správně reagovat i na jiné podobné vzory, které

nemusely při učení být dostupné.

. Pro složitější případy a lepší výsledky jsou neurony

uspořádány a vzájemně propojeny do sítí tak, že výstup některých

neuronů je vstupem další vrstvy.

Byť umělé neuronové sítě mohou jen stěží být samostatně

rozhodující entitou, často budou tvořit podstatné součásti

autonomních systémů, řídicích programů robotů nebo expertních

systémů, které budou zmíněny dále. Už proto má smysl se ptát, jak

probíhá jejich tvorba a učení, což jsou podstatné informace pro

případné stanovení odpovědnosti.

Umělé neuronové sítě jsou obvykle realizovány jako softwarová

simulace neuronů spuštěná na běžném počítači, případně na

hardwaru specializovaném na neurální výpočty. Každopádně základní

topologie a příslušné druhy učících algoritmů jsou známy a teoreticky

důkladně popsány.39

Jiná situace je s volbou dat pro učení a nastavením parametrů

učení. Není totiž znám přesný způsob jaká data vybrat a jak zvolit

Správnost jejich konkrétní realizace je tedy

dobře ověřitelná a lze předpokládat plnou kontrolu tvůrce nad ní.

38 Na rozpoznání 26 znaků abecedy by tedy v ideálním případě postačilo 26 perceptronů. 39 Což nevylučuje vznik jiných v budoucnosti.

Page 28: Právní aspekty automatizace rozhodovacích procesů

28

parametry. Nelze předem zjistit, zda určitá volba byla dobrá, nebo ne.

A už vůbec není možno určit, jak mají vypadat jednotlivé nastavené

váhy na konci učení. Navíc počáteční váhy jednotlivých vstupů bývají

nastavovány náhodně, takže i při stejné volbě vstupních dat

a parametrů mohou být výsledky mírně odlišné. A to ještě nebyla

zmíněna možnost průběžného učení neuronové sítě i ze vstupních

dat. V tomto případě se výsledky dynamicky mění a není v moci

tvůrce ovlivnit, jak bude vypadat výstup po určité době provozu.

Další aspekt plyne ze schopnosti generalizace40, která, pokud má

být využita41

Ze své povahy neposkytují neuronové sítě 100% jednoznačné

odpovědi – výsledky. Nicméně podle toho zda se výsledná

pravděpodobnost této hodnotě velmi blíží (což odpovídá velmi přesné

shodě s naučeným vzorem) nebo zda se pohybuje v nízkých

hodnotách odpovídajících aktivaci náhodnými hodnotami lze poměrně

dobře usuzovat na spolehlivost obdrženého výsledku.

, už ze své podstaty vylučuje možnost ověření správnosti

funkce na celém rozsahu budoucích vstupních dat. To vnáší do

provozování systémů založených na umělých neuronových sítích jistý

prvek nejistoty.

4.5 Expertní systémy

Expertní systém je „inteligentní počítačový program, který užívá

znalosti a inferenční procedury k řešení problémů, které jsou natolik

obtížné, že pro své řešení vyžadují významnou lidskou expertízu.“42

40 Jde o schopnost neuronové sítě správně zpracovat data pouze podobná datům použitým při učení.

Snahou expertních systémů je simulovat rozhodovací činnost

lidského experta takovým způsobem, že kvalita rozhodovacího

41 A dlužno konstatovat, že téměř vždy má. 42 Definice podle E. Feigenbauma z BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN 80-7079-873-4.

Page 29: Právní aspekty automatizace rozhodovacích procesů

29

procesu bude lepší nebo alespoň srovnatelná s lidským

rozhodováním.

V počátcích expertních systémů panovala velmi optimistická

představa univerzálního experta, který by byl schopen okamžitě řešit

všechny úlohy v dané oblasti. Překážky, na které narazily tyto

představy, byly jak technického charakteru (expertní systémy řešily

úspěšně pouze obvyklé problémy), tak přijetím od uživatelů (neochota

poslouchat stroj). Z těchto problémů tak vyplynulo omezení

požadavku na samostatné rozhodování a vytvořily se role, ve kterých

může expertní systém fungovat:

expert – systém ví víc než uživatel a obvykle i sám rozhoduje,

kolega – systém ví přibližně stejně jako uživatel a funguje jako

poradní hlas nebo nabízí a posuzuje řešení,

asistent – systém nedosahuje schopností uživatele, ale řeší

opakující se úlohy, aby se uživatel mohl věnovat

komplikovaným případům.

Hlavní charakteristikou expertního systému je existence

inferenčního (řídicího, vyvozovacího) mechanismu a oddělené báze

znalostí. Vlastní program obsahuje jen inferenční mechanismus,

uživatelské rozhraní a případně vysvětlovací modul. Expertní znalosti

jsou uchovány v bázi znalostí, která je relativně nezávislá na

inferenčním mechanismu. Znamená to možnost vytváření prázdných

expertních systémů, které je před použitím nutno naplnit znalostmi –

vytvořit bázi znalostí.

Další významnou odlišností expertních systémů je přítomnost

vysvětlovacího modulu. Ten umožní, že expertní systém nejen dospěje

k nějakému závěru, ale umí tento závěr i odůvodnit. Dostatečné

vysvětlení postupu, který vedl k danému závěru, je zásadní pro

důvěryhodnost vytvářených rozhodnutí a jejich přezkoumatelnost.

Vysvětlovací modul chybí v obecných znalostních systémech.

Page 30: Právní aspekty automatizace rozhodovacích procesů

30

Poslední, a z uživatelského pohledu nejdůležitější, odlišností

expertního systému od „normálního“ počítačového programu je

možnost práce s neurčitostí. Tato neurčitost může být jak v bázi

znalostí (pravidlo platí většinou nebo často), tak v bázi dat (vstupní

informace jsou neurčité).

Obr. 2 Architektura expertního systému43

Na schematickém znázornění architektury expertního systému na

obr. 2 je dobře patrno oddělení báze znalostí od zbytku systému.

4.5.1 Tvorba ES

Jak vyplývá z výše uvedeného, sestává tvorba expertního systému ze

dvou zásadních fází a to:

naprogramování inferenčního mechanismu a

naplnění báze znalostí.

43 DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s.

Page 31: Právní aspekty automatizace rozhodovacích procesů

31

Právě plnění báze znalostí je tou nejnáročnější fází tvorby

expertního systému. Předně vyžaduje množství času a spolupráci

znalostního inženýra s expertem v dané oblasti, která nemusí být

vždy bezproblémová. Nelze pominout, že v tomto procesu mohou být

do báze znalostí uloženy chyby (nepravdivé nebo nedokonalé

znalosti), které bude expertní systém spolehlivě reprodukovat ve

všech svých rozhodnutích. I proto je velmi důležité ladění báze

znalostí, které představuje nejdelší a nejpracnější část tvorby báze

znalostí.44

neochota expertů sdělit svoje znalosti (obava z konkurence),

Mezi hlavní problémy při tvorbě báze znalostí patří:

neschopnost expertů zdůvodnit přesně svoje odpovědi,

uplatňování i znalostí z běžného života,

neschopnost znalostních inženýrů porozumět expertovi (např.

problémy s terminologií).

Uplatňuje se zde i tzv. paradox znalostního inženýrství: „Čím více

se experti stávají kompetentními, tím méně jsou schopni popsat

znalost, kterou používají při řešení problémů.“ 45

4.5.2 Použití expertních systémů

Ač použití expertních systémů přináší mnoho výhod, je třeba mít na

vědomí i jejich omezení. Použití expertních systémů je vhodné tam,

kde problémy jsou příliš neurčité nebo komplikované pro nasazení

tradičních algoritmů. Na druhé straně, problémy příliš vágní nejsou

v současnosti expertní systémy schopny uspokojivě řešit. Podle

statistiky z roku 1992 vévodí oblastem nasazení expertních systémů

obchod, výroba a medicína.46

44 JIRSÍK, Václav. Expertní systémy : prezentace k přednáškám. Brno : VUT, 2010.

Je třeba upozornit i na vlastnost

expertních systémů, která má významný dopad na případné

45 DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s. 46 BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN 80-7079-873-4.

Page 32: Právní aspekty automatizace rozhodovacích procesů

32

posuzování odpovědnosti za rozhodnutí učiněná expertním

systémem: expertní systém si není vědom mezí svých schopností.

Z hlediska právních následků akcí konaných expertními systémy,

zejména pak odpovědnosti za ně, je třeba uvažovat se skutečností, že

na tvorbě expertního systému se podílí mnoho různých tvůrců

a každý může svou chybou zapříčinit, že expertní systém se zachová

nežádoucím způsobem. Lze však konstatovat, že pro jednoznačně

oddělené části expertního systému lze stanovit i odpovědný subjekt.

Plně odpovědného za správnou funkci inferenčního mechanismu lze

považovat programátora – tvůrce inferenčního mechanismu.

Poněkud obtížnější je situace u odpovědnosti za bezvadnost báze

znalostí. Prvním důvodem, a pravděpodobně tím významnějším, je

fakt, že chyba může vzniknout nejen chybou experta nebo

znalostního inženýra, ale i chybou komunikace mezi nimi. V tomto

kontextu nelze vyloučit situace, kdy předvídat takovou chybu

v komunikaci nebylo v možnostech ani jednoho ze zúčastněných.

Druhým možným zdrojem problémů jsou omezené znalosti experta,

které mohou být i vnitřně rozporné. Ač by se s určitým množstvím

vnitřních rozporů a nejistot měl dobrý inferenční mechanismus

vypořádat, nelze to požadovat bezmezně.

Page 33: Právní aspekty automatizace rozhodovacích procesů

33

5 Odpovědnost za aktivity automatických

a autonomních systémů

Po analýze vlastností dvou hlavních systémů považovaných za

umělou inteligenci lze přistoupit k rozboru odpovědnosti za jejich

rozhodnutí. Pro odpovědnost za libovolné aktivity autonomního

systému, včetně správných nebo chybných rozhodnutí, která učiní,

budou důležité hlavně dva typy odpovědnosti:

soukromoprávní odpovědnost a

trestněprávní odpovědnost.

Toto rozlišení je důležité, protože u každého z uvedených typů

mohou být závěry různé. Existuje jistě více typů odpovědnosti, které

však nemají pro diskutovanou problematiku tak zásadní význam.

Obecným (společným) znakem odpovědnosti je povinnost snést

zákonem stanovanou sankci. Sporným pak je názor na právní důvod

sankce, kterým může být porušení povinnosti nebo muže nastat i bez

zavinění.47

5.1 Soukromoprávní odpovědnost za škodu

Z pohledu občanského práva je základním východiskem odpovědnosti

§ 420 odst. 1 OZ48

47 KNAPP, Viktor. Teorie práva. 1. vydání. Praha : C. H. Beck, 1995. 247 s. ISBN 80-7179-028-1.

, který jako prvotní předpoklad vzniku

odpovědnosti uvádí porušení právní povinnosti. Takovým porušením

může být i nedostatečné předcházení škodám, což je povinnost

stanovená v § 415 OZ. Pro provoz automatických a autonomních

systémů jsou důležitá ustanovení § 420 odst. 2 a § 420a. Použití

autonomních systémů k provozní činnosti lze subsumovat pod

48 Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších předpisů

Page 34: Právní aspekty automatizace rozhodovacích procesů

34

ustanovení § 420a, zejména pak pod ustanovení uvedené v odst. 2 a).

Zde je jednoznačně uvedeno, že za škody způsobené věcí použitou při

provozní činnosti odpovídá provozovatel. Jde tedy o objektivní

odpovědnost, které se lze podle § 420a odst. 3 zprostit pouze

v případě, že škoda byla způsobena neodvratitelnou událostí nemající

původ v provozu, anebo vlastním jednáním poškozeného. Jak patrno

je možnost liberace velmi omezená.

Zvláštní odpovědnost za škodu způsobenou okolnostmi, které mají

původ v povaze přístroje nebo jiné věci, jichž bylo při plnění závazku

použito, je stanovena v § 421a. Odpovědnosti podle tohoto paragrafu

se nelze zprostit žádným způsobem. Vztah mezi § 420a a § 421a je

vztah obecnosti a zvláštnosti, jak ostatně vyplývá i ze systematického

zařazení dotčených ustanovení. To znamená, že pokud je

aplikovatelný § 421a je vyloučena aplikace § 420a a s tím i možnost

zproštění se odpovědnosti. Navíc § 420a lze aplikovat pouze na

případy, kdy škoda vznikla vlastní provozní činností. Jak vyplývá

i z judikatury NS49

Poněkud mírnější je odpovědnost podle § 420. Zde je totiž

koncipována subjektivně a ke zproštění postačí subjektu prokázat, že

škodu nezavinil. Tato odpovědnost je ovšem k oběma výše zmíněným

nejobecnější a uplatní se tedy až na případy, na které nelze aplikovat

žádnou z dříve uvedených.

, nelze § 420a aplikovat na následky pochybení při

výkonu určité činnosti, kam by spadalo i pochybení způsobené

chybným automatickým rozhodnutím.

Zůstává však otázka, jak by bylo v tomto případě posuzováno

zavinění v případě nežádoucího jednání techniky způsobeného jejím

selháním, nebo nevhodným nastavením. Zejména v případech, kdy

49 Usnesení NS ČR ze dne 22. 10. 2008, sp. zn. 25 Cdo 2805/2006 a

Rozsudek NS ČR ze dne 25. 11. 2009, sp. zn. 25 Cdo 2429/2007

Page 35: Právní aspekty automatizace rozhodovacích procesů

35

provozovatel věnoval značnou pozornost omezení možných rizik

a opatřením k předcházení škodám a jediná souvislost vzniku škody

s jednáním provozovatele spočívá v samotném použití určitých

technických prostředků, je obtížné tvrdit, že jde o zavinění. Na

druhou stranu, smyslem ustanovení o odpovědnosti za škodu je

ochrana poškozeného a ten by neměl být nucen nést následky

jednání provozovatele autonomního systému.

Specifickým případem pak je provoz dopravního prostředku.

V současnosti podléhá odpovědnost za škodu způsobenou provozem

dopravních prostředků § 427 OZ. Ten stanoví, že „(1) Fyzické

a právnické osoby provozující dopravu odpovídají za škodu vyvolanou

zvláštní povahou tohoto provozu. (2) Stejně odpovídá i jiný provozovatel

motorového vozidla, motorového plavidla, jakož i provozovatel

letadla.“50

Je vhodné, a to především s ohledem na zaměření této práce do

budoucnosti, srovnat stávající účinnou úpravu s úpravou podle

návrhu občanského zákoníku

Jde tedy opět o odpovědnost objektivní. Odlišná od shora

uvedených případů je zde i možnost zproštění, která je v obecném

případě vyloučena. Jedinou možností zproštění se, je prokázání, že

škodě nemohlo být zabráněno ani při vynaložení veškerého úsilí,

které lze požadovat. Podmínky pro zproštění jsou tedy velmi přísné.

51

Podle důvodové zprávy k návrhu občanského zákoníku

, který se pravděpodobně stane

klíčovou normou v této oblasti na dlouhou dobu.

52

50 Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších předpisů

se

současná úprava odpovědnosti za škodu způsobenou provozní

51 Návrh občanského zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: <http://obcanskyzakonik.justice.cz/tinymce-storage/files/Navrh%20obcanskeho%20zakoniku_ver_2010.pdf>. 52 Důvodová zpráva k návrhu občanského zákoníku zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: <http://obcanskyzakonik.justice.cz/tinymce-storage/files/Duvodova%20zprava%20OZ_ver_2010.pdf>.

Page 36: Právní aspekty automatizace rozhodovacích procesů

36

činností jeví jako zmatečná, s čímž lze jen souhlasit. Tento zmatek je

spatřován ve vztahu mezi § 420a a § 432. Nicméně i u ustanovení

ostatních paragrafů je patrná jistá nesouvislost a nejasnost v jejich

vymezení.

Úprava škody z provozní činnosti, která je v návrhu řešena

v § 2866 NOZ53

Co je ovšem nové, je ustanovení § 2878 až § 2880 o škodě

způsobené věcí. Částečně se tato úprava překrývá se stávajícím

§ 421a. Zásadní změna – z pohledu provozu autonomních strojů – je

navrhované ustanovení § 2879 odst. 1. Předpokládá možnost, že věc

způsobí škodu sama od sebe, což může být právě případ

autonomních strojů:

se zásadně neliší od stávající úpravy. To platí

i o škodě způsobené provozem dopravního prostředku upravené

v § 2869 an. NOZ. U těchto dvou typů odpovědnosti je tedy jediným

rozdílem odlišná formulace (odpovědnost za škodu ve stávající úpravě

oproti povinnosti k náhradě škody v navrhované).

„(1) Způsobí-li škodu věc sama od sebe, nahradí škodu ten, kdo nad

věcí měl mít dohled; nelze-li takovou osobu jinak určit, platí, že jí je

vlastník věci. Kdo prokáže, že náležitý dohled nezanedbal, zprostí se

povinnosti k náhradě.“54

Bohužel ani z důvodové zprávy nelze jednoznačně potvrdit, že

právě autonomní stroje jsou přímým důvodem existence této úpravy –

důvodová zpráva se k § 2879 vyjadřuje dosti neurčitě: „Dále se

navrhuje zařadit úpravu povinnosti k náhradě škody způsobené věcí

v některých speciálních případech. Tato ustanovení dosud

53 Návrh občanského zákoníku 54 § 2879 návrhu občanského zákoníku

Page 37: Právní aspekty automatizace rozhodovacích procesů

37

chyběla…“55. To by však nemělo být na překážku aplikovatelnosti

tohoto ustanovení na případ způsobení škody autonomním strojem.

Navrhovaná úprava, na rozdíl od účinné56

Pro úplnost je třeba zmínit i ustanovení, která se strojů, jakkoliv

autonomních, na první pohled netýkají. Tím jsou ustanovení o škodě

způsobené zvířetem. Paralela s autonomním mobilním robotem je

zřejmá – v obou případech jde o entity s vlastním rozhodováním,

přímo nenavázaným na jejich okolí, ale přesto okolím ovlivňovaným.

Navíc ani zvířata ani roboti nejsou nadáni způsobilostí k právům

a povinnostem, natož způsobilostí k právním úkonům. Ač tato úprava

pravděpodobně nebude na problematiku autonomních strojů

aplikovatelná, srovnání je zajímavé. Navrhovaná úprava náhrady

škody způsobené zvířetem předpokládá dvě situace:

, navíc počítá s možností

liberace pro toho, kdo prokáže, že náležitý dohled nezanedbal.

škodu způsobí užitkové nebo asistenční zvíře (je specificky

užitečné a vykonává nějakou činnost; § 2876 NOZ) nebo

obecné zvíře (do této kategorie budou pravděpodobně spadat

zejména domácí mazlíčci; § 2875).

Zatímco v generálním případě se nejeví žádná možnost liberace,

v případě zvířat užitkových nebo asistenčních se povinnosti

k náhradě škody zprostí ten, kdo prokáže, že při dozoru nad zvířetem

nezanedbal potřebnou pečlivost, anebo že by škoda vznikla i při

vynaložení potřebné pečlivosti. I v tomto případě lze vidět analogii

s roboty – využití sahá od čistě komerčně využívaných průmyslových

robotů, přes případné asistenční až po hračky.

55 Důvodová zpráva k návrhu občanského zákoníku zákoníku [online]. [cit. 2011-02-16]. Dostupné z WWW: <http://obcanskyzakonik.justice.cz/tinymce-storage/files/Duvodova%20zprava%20OZ_ver_2010.pdf>. 56 srovnání s nejbližším § 421a

Page 38: Právní aspekty automatizace rozhodovacích procesů

38

Srovnáním ustanovení o škodě způsobené zvířetem a škodě

způsobené věcí se ukáže, že zatímco u užitných aplikací je úprava

prakticky stejná57

V současnosti je tedy jednoznačné, že odpovědnost za jakoukoliv

činnost, kterou vykoná automatický nebo autonomní systém nese

v plné míře provozovatel či vlastník daného systému. V určitých

situacích je možné, aby se mohl domáhat náhrady po svém

dodavateli. Zatímco u jednoduchých (deterministických) systémů lze

takový stav považovat za uspokojivý, u autonomních systémů je

situace složitější

, liší se u obecného případu, kdy pro věci není

žádné rozlišení podle použití, zatímco u zvířat je. Návrh je tak

k věcem mírně benevolentnější.

58

Lze přijmout bez námitek, že za provoz autonomního nebo

automatického stroje nebo obecně systému by měl odpovídat jeho

provozovatel. Problém je, jak ostatně uvádí ve svém výše citovaném

článku E. A. R. Dahiyat, že provozovatel často není a narůstající

měrou nebude schopen možná rizika provozu daného systému

zhodnotit a vyhnout se jim a to zejména z důvodu nedostatečných

odborných znalostí. A požadovat po široké veřejnosti – všech

potencionálních uživatelích autonomních systémů – aby měla

odborné znalosti z oblasti robotiky a umělé inteligence na úrovni,

která by jim umožnila plně porozumět všem omezením a rizikům

.

57 U zvířat zákon vyžaduje dozor a pečlivost při něm, zatímco u věcí je vyžadován náležitý dohled. Není jasné, zda je tento rozdíl cílený a míra pozornosti při kontrole má být různá jak je tomu např. u dělení věznic podle trestního zákoníku, nebo jde o neodůvodněné rozlišení, jak by vyplývalo i z článku RŮŽIČKA, Miroslav. Kontrola a dohled v soustavě státního zastupitelství I. Právní rádce [online]. 22. 1. 2008, 1/2008, [cit. 2011-02-17]. Dostupný z WWW: <http://pravniradce.ihned.cz/c1-22809820-kontrola-a-dohled-v-soustave-statniho-zastupitelstvi-i>. ISSN 1213-7693. 58 DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a doctrinal problem or merely a problem of explanation?. Artifical Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný také z WWW: <http://www.springerlink.com/index/10.1007/s10506-010-9086-8>.

Page 39: Právní aspekty automatizace rozhodovacích procesů

39

plynoucím z použití takových systémů je zcela zjevně naprosto

nepřiměřené.

Je tedy třeba požadovat tuto odbornou úroveň po výrobci

systému, který by ji stejně měl mít. Po uživatelích – provozovatelích –

je pak vhodné požadovat, aby systém provozovali a používali

v souladu s pokyny od dodavatele. Takové chování by mělo být

považováno za náležitý dohled a v tomto případě by uživatel neměl

být povinen k náhradě škody, resp. by měl mít možnost se domoci,

aby tuto odpovědnost převzal výrobce.

Při odchýlení se od pokynů od výrobce nebo dodavatele je situace

zcela jiná. Kdo takové doporučení nerespektuje, měl by počítat s tím,

že tím na sebe bere zvýšenou odpovědnost. Takový uživatel by měl

nést následky všech akcí konaných autonomním systémem. Pouze

pokud by prokázal, že ke konkrétnímu nežádoucímu následku

nedošlo vlivem jeho odchýlení se od pokynů výrobce a došlo by k nim

i při jejich dodržení, měl by mít možnost liberace. Šlo by tedy

o vyvratitelnou domněnku způsobení nežádoucích následků

nestandardním použitím.

Je totiž třeba brát v úvahu i oprávněné zájmy poškozeného, který

by neměl být negativně ovlivněn svobodnou volbou jiného použít

určitý systém ve svůj prospěch. Je tím myšleno, že odpovědnost by se

neměla ztratit a vždy by měl být někdo, kdo ji nese a případnou

škodu nahradí. Bohužel nelze vyloučit situace, kdy zavinění

objektivně nelze přiřknout nikomu59

59 Především v případech majících souvislost s přírodními jevy.

, nebo viník zjevně existuje, ale

není známý. V případě, kdy škoda vznikne v důsledku specifických

vlastností autonomního stroje, by, dle názoru autora, měl

odpovědnost nést provozovatel zařízení i v případech, kdy škodu

přímo nezavinil. Vždyť ten, kdo bere pozitivní výsledky z používání

Page 40: Právní aspekty automatizace rozhodovacích procesů

40

něčeho, by měl i nahradit škodu, která je tím způsobena, byť

neúmyslně a třeba i bez zavinění. V případech živelních událostí

a neznámých viníků nelze najít jiné východisko, než strpění

škodlivých následků poškozeným. Takové řešení jistě není ideální, ale

těžko hledat lepší. Popisovaný stav je navíc řešitelný i v současném

právním rámci, neboť neznámý pachatel není novým fenoménem.

Pro úplnost je třeba zmínit, že do soukromoprávní odpovědnosti

patří kromě odpovědnosti za způsobenou škodu například

i odpovědnost pracovněprávní. Nelze vyloučit, že autonomní stroj

způsobí zaměstnavateli škodu nebo zraní zaměstnance. Každopádně

umělý systém nemůže být zaměstnavatelem ani zaměstnancem

s právní subjektivitou a proto budou případy, kdy zvláštní povaha

autonomních systémů bude v příčinné souvislosti s důvodem vzniku

pracovněprávní odpovědnosti, velmi ojedinělé.

5.2 Trestní odpovědnost

Zatímco v případě odpovědnosti soukromoprávní je množství různých

právních hodnocení odpovědnosti poměrně omezené60

Předně je třeba konstatovat, že stroj nebo umělý systém obecně

nemůže v působnosti českého práva spáchat trestný čin a už vůbec

nemůže být trestně odpovědný. Trestní zákoník

, v právu

trestním je značné množství skutkových podstat a pro každou by

hodnocení mohlo být různé. Proto bude v následující části rozebrána

pouze obecná trestněprávní odpovědnost bez snahy o konkrétní

rozbor jednotlivých skutkových podstat trestných činů.

61 předpokládá jako

možného pachatele pouze fyzickou osobu.62

60 Tato informace ovšem nevypovídá o celkovém počtu řešených případů.

61 Zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších předpisů 62 § 22 TZ; o jiném možném pohledu bude pojednáno později

Page 41: Právní aspekty automatizace rozhodovacích procesů

41

Přesto nelze vyloučit, že autonomní stroj63 nebo systém64

Základním rozhraničením budiž rozdělení trestných činů na:

se

zachová tak, že kdyby se takovým způsobem zachoval člověk, bylo by

dotčené jednání trestným činem. To se může stát i v případě divokého

zvířete. Podstatný rozdíl je však v tom, že, na rozdíl od zvířete, umělý

systém někdo vytvořil a uvedl do chodu. Je proto namístě otázka, zda

a do jaké míry mohou lidé nést trestněprávní odpovědnost za činy

autonomních systémů.

trestné činy úmyslné (§ 15 TZ) a

trestné činy nedbalostní (§ 16 TZ).

V případě úmyslných trestných činů netřeba pochybovat o trestní

odpovědnosti pachatele. Pokud někdo autonomní systém vytvoří,

naprogramuje nebo jinak navede, aby spáchal trestný čin, lze případ

posuzovat tak, že ho použil jako pouhý nástroj. S případem použití

nástroje trestní právo počítá a nemělo by způsobovat žádné problémy.

Odlišná je situace v případě neúmyslných trestných činů. Pro

potřeby trestního zákoníku je nedbalost stanovena následovně:

„a) věděl, že může způsobem uvedeným v trestním zákoně porušit

nebo ohrozit zájem chráněný takovým zákonem, ale bez přiměřených

důvodů spoléhal, že takové porušení nebo ohrožení nezpůsobí, nebo

b) nevěděl, že svým jednáním může takové porušení nebo ohrožení

způsobit, ač o tom vzhledem k okolnostem a k svým osobním poměrům

vědět měl a mohl.“65

63 Například autonomní mobilní robot by se mohl dopustit usmrcení z nedbalosti (§ 143 TZ) nebo nějaké formy ublížení na zdraví (§§ 145–148 TZ).

64 Například počítačový softwarový systém v prostředí internetu by se mohl zachovat způsobem odpovídajícím § 182 TZ – porušení tajemství dopravovaných zpráv. 65 § 16 TZ

Page 42: Právní aspekty automatizace rozhodovacích procesů

42

Uvedená citace se však vztahuje na postoj člověka k případnému

trestnému činu. Nijak nepostihuje situaci, kdy určitý autonomní

systém si naplánuje akci, která by odpovídala některé ze skutkových

podstat trestných činů.66

Z výše uvedeného vyplývá, že posuzování akcí autonomních

systémů, které by u lidí byly trestné, bude mít pro jejich majitele

velmi podobné následky jako činy zvířat: v případě úmyslu ze strany

majitele bude stroj posuzován jako pouhý nástroj a majitel ponese

plnou odpovědnost; v případě selhání stroje bude majitel odpovídat za

svou nedbalost spočívající v tom, že ho řádně nezabezpečil.

Z pohledu stroje pak půjde o úmysl,

zatímco z pohledu jeho majitele zde jakýkoliv úmysl bude chybět.

Protože, jak už bylo zmíněno, má smysl mluvit pouze o trestní

odpovědnosti majitele, šlo by i v tomto případě o trestný čin

nedbalostní.

Ve srovnání s úpravou odpovědnosti v soukromém právu se

trestněprávní úprava zdá být na možnost jiných autonomních aktérů

než fyzických osob, kteří navíc nemají právní subjektivitu, připravena

o poznání hůře. Tento stav je ještě umocněn nemožností analogie

v trestním právu.

Zbývá si tedy položit otázku, jak by vypadala ideální úprava

trestního práva s ohledem na možnou existenci autonomních aktérů

odlišných od lidí. Pravděpodobně není sporu o tom, že trestní

odpovědnost za autonomní systém záměrně navržený nebo naučený

způsobem, který ho nutí jednat v rozporu se zákonem, by měl nést

66 I současné systémy mohou mít, a často mají, plánovací moduly, které na základě stavu okolí a zadaného úkolu rozhodují o následujících činnostech. A i v případě, že zadaný úkol zákonu neodporuje, nelze vyloučit možnost, že konkrétní strojem zvolený postup v pořádku nebude. Důvodem takového selhání může být nemožnost jiného řešení vedoucího ke splnění úkolu ve spojení s nedostatečným ošetřením takové situace v programu systému.

Page 43: Právní aspekty automatizace rozhodovacích procesů

43

plnou odpovědnost jeho provozovatel67

Z pohledu tvůrců a provozovatelů autonomních systémů se

odpovědnost za následky, které nebyly úmyslné ani předvídatelné,

mohla zdát přehnanou. Nelze zpochybnit, že prokazování viny by

v takových situacích bylo obtížné

, jak to ostatně odpovídá

i účinné úpravě.

68

5.3 K možnosti aplikace zákonů robotiky

, nicméně je žádoucí zamyslet se

nad smyslem trestněprávních odpovědnosti, kterým má být zejména

ochrana třetích osob a motivace pachatele k nápravě. V tomto

případě však nelze říct, že ze strany provozovatele nebo výrobce trvale

hrozí společnosti nějaké nebezpečí. A tento fakt by měl být zohledněn.

Při úvahách o zákonné úpravě autonomních bytostí nelze nezmínit

zákony robotiky formulované Isaacem Asimovem.69

Z hlediska právní teorie jde o normy imperfektní podmíněné

a v případě nultého a prvního imperfektní nepodmíněné. Jejich obsah

jednoznačně staví hodnotu lidského života na vrchol, zajímavým je

upřednostnění poslušnosti před sebezachováním, což je výraz

chápání robotů jako věci spíše než jako umělé bytosti ve smyslu

použitém dále. Co se týká obsahu, jde o velmi obecné formulace na

úrovni principů a to i přes na první pohled formálně přesnou

Tato pravidla jsou

poměrně široce přijímaná a většinou tvůrců autonomních umělých

systémů respektována. Přestože zamýšleným adresátem jsou sami

roboti na velmi vysokém stupni vývoje, je v dnešní době aktuální

spíše naplňování jejich smyslu ze strany tvůrců.

67 Odpovědnost se může vztahovat i na majitele nebo výrobce a to podle míry zavinění. 68 Zejména prokázání, že potenciální pachatel „vědět měl a mohl“ podle § 16 odst. 1 TZ. 69 Jejich text je citován v úvodu.

Page 44: Právní aspekty automatizace rozhodovacích procesů

44

formulaci. Lze konstatovat, že pro právní praxi nejsou v současném

znění vhodné.70

De lege ferenda se v současnosti nezdá být nutné legislativně

učinit tato nebo podobná pravidla závaznými, zejména z důvodu

jejich dobrovolného dodržování. To ovšem neznamená, že taková

situace v budoucnu nenastane. Zejména s rozvojem plně

autonomních strojů, případně umělých bytostí, bude nutné řešit, jak

se mají chovat. O konceptu umělých bytostí pojednává následující

kapitola.

70 POLČÁK, Radim. Právo a evropská informační společnost. Brno : Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.

Page 45: Právní aspekty automatizace rozhodovacích procesů

45

6 Umělé bytosti

Se stálým zvyšováním úrovně automatických a autonomních systémů

provázeným růstem jejich schopnosti a především rostoucím

množstvím a důležitosti úkolů jim svěřovaných, má smysl se zabývat

umělými bytostmi jako specifickou skupinou.

Koncept umělé bytosti není zdaleka nový a objevuje se prakticky

od počátku existence inteligentní lidské společnosti71. Až do

současnosti, resp. nedávné minulosti, byly umělé bytosti především

doménou vědeckofantastické umělecké tvorby a představ. Už delší

dobu existují snahy o stvoření umělých inteligentních bytostí a jejich

posuzování. Alan Turing pravděpodobně nenavrhoval svůj test72

v rámci prostého slohového cvičení. Cílem bylo zodpovědět otázku73

Je pravdou, že od té doby se postoj k umělým bytostem měnil

a přednost získávaly praktičtější problémy. A zatímco v počátcích byl

Turingův článek jistě inspirací pro rozvoj umělé inteligence,

postupem času se stal spíše rozptylujícím faktorem. Odlehčená

historie Turingova testu by mohla vypadat asi takto:

,

zda stroje mohou myslet.

„1950 – 1966: Zdroj inspirace pro všechny zabývající se UI.

1966 – 1973: Odvedení od slibnějších směrů výzkumu UI.

71 Viz zmínky o golemech a začátcích robotiky v Úvodu. 72 Turingův test popisuje metodiku ověření úrovně umělé inteligence. Spočívá v dálkové komunikace člověka s počítačem nebo jiným člověkem. Pokud člověk není schopen spolehlivě určit, zda komunikuje s počítačem nebo s jiným člověkem, počítač v testu uspěl (je inteligentní).

TURING, Alan M. Computing Machinery and Intelligence. Mind : a quarterly review of psychology and philosophy. October, 1950, Vol. LIX, No. 236, s. 433-460. Dostupný také z WWW: <http://dx.doi.org/10.1093/mind/LIX.236.433>. ISSN 0026-4423. 73 Byť v té době šlo spíše teoretickou otázku, jsou představitelné počítače, které v testu uspějí.

Page 46: Právní aspekty automatizace rozhodovacích procesů

46

1973 – 1990: Nyní zdroj rozptýlení spíše pro filosofy než pracovníky

s UI.

1990 – Odložen do historie.“74

Vznikaly další testy k ověření inteligence strojů. Tyto výzvy se

plnit zčásti dařilo a z části nedařilo. Mezi ty úspěšné lze bezesporu

zařadit hraní šachu

75, robotický fotbal76, automatickou tvorbu textů

a aktuálně schopnost odpovídat na soutěžní otázky pokládané

v přirozeném jazyce77. Takových výzev existuje samozřejmě mnohem

více78

6.1 Definice a povaha umělých bytostí

. Počítače od IBM jako Deep Blue nebo Watson zjevně umělými

bytostmi nejsou, je tedy třeba nalézt hranici umělých bytostí.

Co vlastně je umělá bytost? Všechny výše uvedené systémy vykazují

určitou míru inteligence a samostatného rozhodování. Přesto je těžko

lze označit za bytost, byť s nimi mohou mít společné vlastnosti.

Existuje mnoho definic umělých bytostí, což efektivně znamená,

že neexistuje žádná.

„Silná UI je umělá inteligence, která dosahuje nebo přesahuje

lidskou inteligenci – inteligence stroje, který je schopen úspěšně

74 WHITBY, Blay. Why The Turing Test is AI's Biggest Blind Alley. [online]. 1997, [cit. 2011-02-17]. Dostupný z WWW: <http://www.informatics.sussex.ac.uk/users/blayw/tt.html>. 75 Human-computer chess matches. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-19]. Dostupné z WWW: <http://en.wikipedia.org/wiki/Human-computer_chess_matches>. 76 Robotic Football League [online]. 2011 [cit. 2011-02-27]. Dostupné z WWW: <http://www.roboticfootballleague.com/>. 77 VÁCLAVÍK, Lukáš. IBM Watson: superpočítač, který dokáže porazit člověka. Cnews.cz [online]. 21. 1. 2011, [cit. 2011-02-18]. Dostupný z WWW: <http://www.cnews.cz/ibm-watson-superpocitac-ktery-dokaze-porazit-cloveka>. 78 např. COHEN, Paul. If not Turing’s test, then what?. [online]. September 20, 2005, [cit. 2011-02-19]. Dostupný z WWW: <http://www.cs.arizona.edu/~cohen/Publications/papers/IfNotWhat.pdf>.

Page 47: Právní aspekty automatizace rozhodovacích procesů

47

vykonávat jakoukoliv duševní činnost, kterou může vykonávat

člověk“79

„Umělá bytost je pojem užívaný pro popsání strojové inteligence,

která se vyvine v existující infrastruktuře na rozdíl od toho, když je

vědomě navržena a postavena takovým způsobem.“

80

„Umělá bytost je systém uměle vytvořený člověkem. Tento systém

má schopnosti reagovat na prostředí, ve kterém existuje, měnit toto

prostředí a dosahovat svých cílů v tomto prostředí.“

81

Tyto tři vybrané definice se liší a to zásadně. Zatímco první

považuje za charakteristickou míru schopností, kterou musí systém

dosáhnout, aby byl umělou bytostí. Druhá požaduje proces

samovolného vzniknutí, čímž je v přímém rozporu s třetí uvedenou

definicí, která předpokládá vytvoření člověkem.

Co se vlastní podoby umělé bytosti týká, žádná z uvedených

definic, a to mají společné, neklade specifické nároky na fyzickou

formu. Všechny definice tak připouštějí jak bytosti čistě virtuální, tak

bytosti s fyzickým tělem82

79 Tato definice odpovídá obecné umělé inteligenci. Definice pojmu „Artificial Being“ podle Googlu

. Připuštěním, že umělá bytost nemusí

disponovat fyzickým tělem a může tak existovat výlučně

Vyhledávání Google [online]. 2011-02-20 [cit. 2011-02-20]. Define:Artificial Being. Dostupné z WWW: <http://www.google.cz/search?defl=en&q=define:Artificial+Being>.

Převzato z: Strong AI. In Wikipedia : the free encyclopedia [online]. St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z WWW: <http://en.wikipedia.org/wiki/Artificial_Being>. 80 Knowledgerush [online]. 2009 [cit. 2011-02-20]. Artificial being. Dostupné z WWW: <http://www.knowledgerush.com/kr/encyclopedia/Artificial_being/>.

Tato definice je zaměřená na proces vzniku spíše než na úroveň inteligence. 81 KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: <http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>. 82 Typicky mobilní roboty.

Page 48: Právní aspekty automatizace rozhodovacích procesů

48

v kyberprostoru jako „technologicky zprostředkovaném prostoru pro

společenské interakce“83

V případě strojů není až tak obtížné oddělit umělou bytost

vyvstává otázka, jaká je povaha bytostí, které

fyzickým tělem disponují.

84 od

hardwaru, na kterém se funguje. Podle A. Krausové je „umělá bytost

chápána jako systém, počítačový program, ne médium, na kterém

existuje“.85 Lze ale toto tvrzení vztáhnout na lidské bytosti? Pokud

v budoucnu bude možné86 přenést lidskou mysl do počítačového

hardwaru, bude tato virtuální mysl nadána stejnými práv jako před

přenosem? Je třeba si uvědomit, že tím by vznikla možnost

nesmrtelnosti a nekonečné existence, která by nemusel být přijímána

pozitivně87

6.1.1 Povaha umělých bytostí

. Každopádně v případě umělých bytostí se jeví vhodným

netrvat na existenci fyzického těla.

Je jasné, že umělá bytost by měla mít jiný než biologický základ88

83 POLČÁK, Radim; ŠKOP, Martin; MACEK, Jakub. Normativní systémy v kyberprostoru : úvod do studia. Brno : Masarykova univerzita, 2005. 102 s. ISBN 80-210-3779-2.

,

cílené vytvoření nebo naopak samovolný vznik v umělém prostředí

84 V tomto pojetí pouze softwarová část. 85 KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: <http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>. 86 Podle názoru autora je v zásadě pouze otázkou času, kdy se tak stane. 87 Ve vědeckofantastické literatuře se často objevují zmínky o bytostech, které přejdou na vyšší (nemateriální) úroveň existence.

Na druhou stranu v povídce Isaaca Asimova „The Bicentennial Man“ robot ve snaze stát se člověkem vede řadu soudních sporů s výsledkem, že jakékoliv procento umělých částí neovlivní negativně lidský status člověka. Přesto podmínkou pro uznání robota člověkem je vzdání se nesmrtelnosti. 88 V současnosti se zdaleka nejpravděpodobnější zdá software digitálního počítače fungující na elektronickém hardwaru; genovou manipulací nově vytvořený živočich by tedy umělou bytostí nebyl. Naopak pokud by šlo o vypěstování biologického mozku, jak provedl Kevin Warwick a jeho tým, bylo by vhodné výsledek za umělou bytost považovat i přes biologickou povahu. O uměle vypěstovaném mozku

Page 49: Právní aspekty automatizace rozhodovacích procesů

49

není třeba bezpodmínečně vyžadovat. Podle názoru autora práce je

však v definici umělé bytosti klíčový aspekt, který uvedené definice

postihují jen částečně. Umělá bytost by měla být schopna

přirozeného učení ze zkušeností a okolních informací. Měla by tedy

být schopna se vyvíjet bez vnějšího zásahu a to nikoliv pouze ve

smyslu rozšiřování nějaké databáze, ale hlavně „postupování“ na

vyšší, kvalitnější úrovně inteligence. V konečném důsledku by pak

taková bytost měla být schopna dosáhnout sebeuvědomění a vlastní

vůle.

De lege lata by taková umělá bytost byla stále považována za

nehmotnou věc a z právního pohledu by obsahovala určitou formu

databáze podle autorského zákona89 a zároveň by, alespoň částečně

byla autorským dílem a zároveň fakticky i autorem svých částí. Tato

skutečnost by ale právem nebyla uznána, protože by takové umělé

bytosti chyběla právní subjektivita. Rovněž původní autor by těžko

mohl prokazovat, že části programu vzniklé v rámci samostatného

vývoje umělé bytosti jsou jeho dílem, i když vyloučit to nelze90

6.2 Možné přístupy k umělým bytostem de lege ferenda

.

Zbývá se tedy zamyslet nad otázkou, jak by právo k umělým

bytostem91

pojednává: University of Reading [online]. 14 August 2008 [cit. 2011-02-21]. Robot with a Biological Brain: new research provides insights into how the brain works . Dostupné z WWW: <http://www.reading.ac.uk/about/newsandevents/releases/PR16530.aspx>.

přistoupit mělo a proč. Z praktických důvodů, jakými je

například možnost alespoň analogického použití existující judikatury

a dlouhodobé zkušenosti s fungováním určité úpravy, by měla být

89 Zákon č. 121/2000 Sb., o právu autorském, o právech souvisejících s právem autorským a o změně některých zákonů (autorský zákon), ve znění pozdějších předpisů 90 Počítačem generované obrazy nebo audiovizuální díla jsou běžně jako autorská chráněna. 91 Pro potřeby této podkapitoly se předpokládá, že umělé bytosti vymezeny v předcházející podkapitole mohou existovat.

Page 50: Právní aspekty automatizace rozhodovacích procesů

50

dána přednost použití existujících právních konceptů a jejich

kombinacím případě úpravám před úplně novým způsobem regulace.

Jako výchozí bod pro právní úpravu postavení umělých bytostí se

hodí zejména:

fikce právnické osoby,

postavení zvířat,

postavení dětí,

historické regulace postavení otroků nebo

postavení lidských bytostí.

Pro pojímání umělých bytostí jako právnických osob svědčí

mnohé. Jak bylo diskutováno výše, umělá bytost nemusí nutně mít

pod kontrolou fyzické tělo a je tedy ze své podstaty nehmotná, stejně

jako právnická osoba. Stejně jako právnická osoba bude i umělá

bytost schopna rozhodování a projevů vůle. Ale hlavně je právnická

osoba entitou bez fyzické podoby, která je vybavena právní

subjektivitou.

Proti této možnosti stojí ale dosti podstatný fakt a tím je, že

právnická osoba je závislou na fyzických osobách, které ji ovládají

a kterými vykonává svoji existenci. Bez lidí se vztahem k právnické

osobě ztrácí koncept právnické osoby smysl.92 Stále by však bylo

možno uvažovat o regulaci na pomezí fyzické a právnické osoby, která

by stála na stejné úrovni. Pro takovouto formu regulace se vyslovila

i A. Krausová93

92 V této souvislosti je zajímavá otázka, zda by při účinné právní úpravě bylo možné založit společnost a společenskou smlouvou svěřit její řízení počítačovému programu se jmenováním formálních statutárních orgánů složených z lidí.

.

93 V příspěvku KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk University Journal of Law and Technology. Summer 2007, volume 1, number 1, s. 187-197. Dostupný také z WWW: <http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>.

Page 51: Právní aspekty automatizace rozhodovacích procesů

51

Další překážkou je, že způsobilost k právním úkonům

právnických osob je fakticky vázána na fyzické osoby, které úkony za

PO činí. Deliktní způsobilost, která by u umělých bytostí byla

nanejvýš vhodná, u právnických osob sice v českém právu přítomna

není; na druhou stranu ve světovém pohledu existuje, a proto nelze

tuto odlišnost považovat za zásadní překážku.

Celkově rozdíly mezi právnickou osobou a umělou bytostí spíše

převažují nad společnými prvky a proto by dle názoru autora nebylo

založení úpravy statutu umělých bytostí na existující úpravě

právnických osob moudré.

Lze předpokládat, že první umělé bytosti splňující dříve

nabídnutou definici budou někým vlastněny, typicky svým tvůrcem

a budou spíše objektem práva než jeho subjektem. Potřeba nějaké

právní reakce na realitu existence umělých bytostí pravděpodobně

vyvstane dříve, než umělé bytosti budou na takové úrovni, aby bylo

možné je vybavit plnou subjektivitou.

Faktická pozice umělých bytostí pak nebude nesrovnatelná

s postavením zvířat. Stejně jako zvířata budou pravděpodobně

využívány k práci a k zábavě. Svým postavením ani svými

schopnostmi se nebudou moci rovnat s lidmi, přesto však budou

dalece přesahovat „obyčejné“ věci, včetně elektroniky.

V této fázi vývoje není vyloučen vznik práv pro umělé bytosti

analogický k dnešní ochraně zvířat proti týrání.

S rostoucími schopnostmi umělých bytostí nastane nutnost je

vybavit právní subjektivitou, protože už nebude možné požadovat po

jejich majitelích plnou odpovědnost za všechny jejich činy. S možností

být nositelem práv a povinností přijde i nutnost tato práva nabývat.

Bude proto nutné vybavit umělé bytosti i způsobilostí k právním

Page 52: Právní aspekty automatizace rozhodovacích procesů

52

úkonům. Zpočátku pouze částečnou, závislou na stupni vyspělosti

konkrétního systému.

V této situaci by mohly nastat problémy s konfliktem částečné

právní subjektivity a faktického stavu. Pokud v této době budou

jménem svých vlastníků a na jejich účet provádět významné úkony

včetně velmi komplexních, je možné, že udělená částečná subjektivita

nebude pro některé systémy dostatečnou. Navíc by se do konfliktu

dostala případná subjektivita a vlastnické právo, jehož objektem by

byl subjekt práva.

V další fázi vývoje dosáhnou některé systémy takové úrovně, že se

vyrovnají lidem nejen ve schopnostech, ale i ve vnímání a uvědomění

sebe sama. Pokud, a takový scénář zdaleka nelze považovat za

nepravděpodobný, nebudou umělé bytosti vybavovány postupně

subjektivitou a právy, dosáhnou vývojového stupně srovnatelného

s lidským v postavení objektu práva spíš než jeho subjektu. Tato

situace by paradoxně mohla způsobit nejmenší množství komplikací

ze všech možných, neboť taková situace zde historicky již byla.

Postavení otroků nebylo odlišné od postavení zvířat a věcí, zároveň co

do intelektu a míry uvědomění není srovnání snad ani možné. Jak

k existenci institutu srovnatelného s otroctvím nebo nevolnictvím,

které byly v minulosti zejména z morálních důvodů zrušeny, přistoupí

společnost, zůstane pravděpodobně otevřenou otázkou až do doby,

kdy tato situace nastane.

Page 53: Právní aspekty automatizace rozhodovacích procesů

53

7 Automatizace rozhodovacích procesů

v justici a státní správě

Státní správa, justici nevyjímaje, je nepochybně významnou součástí

existence současné společnosti. Nadto je, více než jiné obory,

provázána s právem. Jako reprezentant státní moci s možností

autoritativního rozhodování musí (nebo by alespoň měla) státní

správa a zvláště justice vytvářet velmi kvalitní rozhodnutí, podložená

pevnými argumenty a důkladně zdůvodněná. Nadto by měla fungovat

efektivně, protože je financována z veřejných rozpočtů. Zde vzniká

určitý střet, protože požadavky na zvyšování kvality sebou často

nesou i požadavek na štědřejší financování.

Bylo by jistě neuvážené automatizaci a priori vyřazovat z oblasti

justice a státní správy. Navzdory tomu se lze setkat i s názory, že

„s rozvojem moderních technologií vyvstává riziko automatizace

soudnictví“94. S názorem, který automatizaci soudnictví bez dalších

argumentů zavrhuje, nelze souhlasit. Jako argument proti je uváděno

odchýlení od základního účelu soudního řízení, kterým je spravedlivá

ochrana základních práv a zájmů. Především argument, že „Počítač

žádné spravedlivé ochrany schopen není – program pouze porovná

předem zadaná kriteria“95

94 PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno, 2010. 229 s. Dizertační práce. Masarykova univerzita.

je přinejmenším sporný. Tradičně bývá

spravedlnost vykládána způsobem, který zaručuje všem stejný

přístup a posouzení předem zadaných kriterií toto beze zbytku

naplňuje. Vždyť posuzovat zákonem předem zadaná kriteria by měl

i soudce.

95 PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno, 2010. 229 s. Dizertační práce. Masarykova univerzita.

Page 54: Právní aspekty automatizace rozhodovacích procesů

54

Nutně zde tedy vyvstává otázka pojetí spravedlnosti. Měřit všem

stejným metrem je zjevně spravedlivé a na první pohled správné. Ale

neexistuje zde riziko přílišné spravedlnosti? Není jedním z hlavních

zdrojů obav z exaktního matematicky přesného rozhodování možnost

vymizení části shovívavosti?

7.1 Asistenční činnosti ve státní správě a justici

Oblastí vhodnou k automatizaci, která je z aktuálního pohledu

významnější, je tvorba instrumentů, které mohou být právníky

použity ke zvýšení kvality nebo efektivity jejich rozhodování.

Důvodem je, kromě objektivních technických omezení, i tradice

založená Knappovým přechodem od ideologického pojetí právní

informatiky k pragmatičtější tvorbě instrumentaria.96

7.1.1 Současný stav

Další

skutečností, kterou nelze zanedbat je, že plná elektronizace justice (ve

smyslu spisu, podání, záznamů apod.) je nezbytným předpokladem

pro automatizaci vlastního rozhodování.

V současnosti probíhají v České republice i ve zbytku Evropy rozsáhlé

snahy o elektronizaci justice. Tyto se takřka výhradně zaměřují na

pomocné funkce, jako vyhledávání předpisů nebo předchozích

rozhodnutí. V širším pohledu na celou státní správu je snaha

o propojování databází a urychlení přístupu k jejich datům ze strany

státních orgánů nebo vytvoření elektronického spisu. Kromě toho

jsou využívány technické prostředky urychlení přepisu soudních

jednání z hlasového záznamu a další izolované nástroje, jako např.

elektronický platební rozkaz. Ve výsledku tak „představují samostatné

jednotky, které byly zaváděny bez koncepce a bez návaznosti na

okolní související systémy. Tato nekoncepčnost se ve značné míře

96 POLČÁK, Radim. Právo a evropská informační společnost. Brno : Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.

Page 55: Právní aspekty automatizace rozhodovacích procesů

55

promítá i v podstatné nekompatibilitě a diverzifikaci jednotlivých

systémů.“97

Mezi hlavní prvky elektronizace justice v České republice patří:

Lze jen souhlasit s autorem, když zmíněné nedostatky

považuje za podstatné a tvrdí, že moderní eJustice by se s těmito

problémy měla vypořádat a dosáhnout co největší míry stability,

univerzálnosti a jednotnosti.

elektronický platební rozkaz98

datové schránky

, 99

vnitřní informační systémy v justici

a 100

Jak je patrno, používané systémy mají se skutečnou elektronizací

justice pramálo společného. V případě elektronického platebního

rozkazu jde pouze o akceptaci elektronického podání soudem – po

příchodu na soud je podání vytištěno a nadále se nikterak neliší od

podání papírového. Rovněž datové schránky jsou pouze zabezpečenou

verzí elektronické pošty a jejich funkce je toliko komunikační.

.

101

Těžko lze tedy očekávat, že by urychlily nebo usnadnily soudci vlastní

rozhodování. A dokonce ani podoba elektronických podání není

uspokojivá. Současný stav, kdy elektronické podání probíhá třemi

různými způsoby102

97 STUPKA, Václav. eJustice. Brno, 2010. 69 s. Diplomová práce. Masarykova univerzita. Vedoucí práce Radim Polčák.

rozhodně nelze považovat za vyhovující.

98 Zákon č. 99/1963 Sb., občanský soudní řád, ve znění pozdějších předpisů - §174a 99 Zákon č. 300/2008 Sb., o elektronických úkonech a autorizované konverzi dokumentů, ve znění pozdějších předpisů 100 Zejména ISAS, ISVKAS aj. 101 To rozhodně neznamená, že není významná. Podle vyjádření několika soudců tvoří značnou část náplně jejich práce doručování různých dokumentů účastníkům a dalším osobám, což není činnost, kterou by soudce měl ztrácet čas. 102 Na serveru http://epodatelna.justice.cz je k 15. 3. 2011 elektronický platební rozkaz podáván ve formátu PDF, který vyžaduje software společnosti Adobe; návrhy v rejstříkových věcech se vyplňují do formuláře ve formátu ZFO, který k vyplnění

Page 56: Právní aspekty automatizace rozhodovacích procesů

56

7.1.2 Možnosti automatizace pomocných činností

Jak zaručit koncepční rozvoj eJustice, kdy jednotlivé systémy budou

vzájemně provázané a budou mít pozitivní vliv na kvalitu a rychlost

rozhodování? Dle názoru autora by základem jakéhokoliv projektu

elektronizace justice měl být elektronický spis103

Některé úkoly vykonávané v rámci státní správy a justice, které

přímo nesouvisí s rozhodováním, by bylo vhodné provádět

. Důvodem

důležitosti spisu je, že spis je prvkem, který spojuje všechny ostatní

prvky jakéhokoliv řízení a tím tvoří centrální bod, na který lze

všechny další agendy navázat, ač ve výsledku je tím nejdůležitějším

vlastní rozhodnutí. A nelze se spokojit s oddělenými spisy pro

jednotlivé oblasti státní správy nebo dokonce pro jednotlivé soudní

instance. Je třeba trvat na tom, aby od prvního podání, správního

řízení nebo policejního šetření až po řízení před Ústavním soudem byl

spis jednotný a datově kompatibilní – aby v případě odvolání mohl být

celý spis zpřístupněn patřičnému orgánu bez nutnosti ho odesílat.

Takový požadavek rozhodně není přemrštěný po technické stránce,

ani nemožný z pohledu právního. Zavedení elektronického spisu by

kromě přímých výhod (dostupnost odkudkoliv, snadný přístup všech

oprávněných k jeho obsahu, možnost vyhledávání ve spisech…)

přinesl i synergické výhody spočívající v zásadním usnadnění

zavádění dalších elektronických agend. Přehlednost a organizovanost

elektronického indexovaného spisu by byla rovněž vyšší. Optikou této

práce je však nejdůležitější výhodo elektronického spisu možnost jeho

automatického zpracování.

vyžaduje Form Filler od společnosti Software602 a ostatní podání se odesílají přes formulář na webové stránce, který vyžaduje Java plugin od společnosti Oracle.

Není cílem této práce rozebírat výhody a nevýhody jednotlivých způsobů vyplnění a odeslání, je však nutno konstatovat, že všechny způsoby jsou funkčně srovnatelné a pouze kvůli nekoncepčnosti není způsob jednotný. 103 Tím je myšlen spis, který existuje primárně v elektronické podobě a jeho případná papírová podoba je kopií, nikoliv naopak.

Page 57: Právní aspekty automatizace rozhodovacích procesů

57

elektronicky a pokud možno automaticky již nyní. Do jisté míry se to

již děje v případě dokumentace průběhu řízení (protokolování). Lze

však uvažovat o změně formy protokolu na pouze zvukovou podobu

s připojeným strojovým přepisem kvůli automatickému vyhledávání.

Doslovný textový přepis totiž není u všech řízení nutný. Navíc

s rostoucí kvalitou strojového přepisu lze zvukové záznamy

zpracovávat opakovaně a není se tedy třeba obávat o ztrátu informace

– prvotní záznam by zůstal zachován. Zde se nabízí prostor pro

využití umělých neuronových sítí. Bez zajímavosti není ani možnost

použití existujících zvukových záznamů a jejich ručně vytvořených

přepisů jako dat pro učení specifického právního odborného jazyka.

Lze si snadno představit software, který by na základě obsahu

podání stran, obsahu protokolu jakož i zbytku spisu a zároveň

srovnáním s obsahy ostatních spisů hledáním podobností

automaticky vyhledával související zákony a judikaturu. V této

souvislosti se jeví vhodné, aby soudní rozhodnutí a v ideálním

případě i legislativa obsahovaly metadata104

Platí sice zásada iura novit curia, ovšem při současném rozsahu

účinných předpisů nelze vyloučit možnost opomenutí některého

z nich ani ze strany kvalifikovaného soudce. Přínos lze kromě

prvotního cíle (kvalitnějších rozhodnutí) spatřovat i v rychlejší

konvergenci judikatury k její ustálené podobě. Samo o sobě takové

doporučení nemá potenciál negativně ovlivnit kvalitu rozhodovacího

procesu. Otázkou zůstává, zda by takové zjednodušení nevedlo

v delším časovém horizontu soudce k pohodlnosti a pouze pasivnímu

použitelná pro

automatické zpracování rozsudků. Je úkolem technického řešení, aby

tato metadata i sama o sobě pomáhala soudcům a nepředstavovala

novou administrativní zátěž.

104 Data o datech. Například formalizované označení procesních stran a jednotlivých částí dokumentu, provázané odkazy na paragrafy zákonů a jiná rozhodnutí.

Page 58: Právní aspekty automatizace rozhodovacích procesů

58

přijímání a aplikaci systémem navržených předpisů a judikatury.

Zjistit předem, jaký vliv mohou mít tyto prostředky na rozhodování, je

však nemožné.

7.1.3 Předpověď rozhodnutí

Systémy k předpovídání soudních rozhodnutí zatím v českém

prostředí využívány nejsou, alespoň ne ve větším měřítku. Byť by

taková předpověď neměla právní relevanci a nemohla by být použita

jako argument u soudu, mohla by být užitečnou při rozhodování, zda

jít k soudu a jak tam vystupovat.

Pokus o předpověď hlasování jednotlivých porotců amerického

Nejvyššího soudu již proběhla. Překvapivě Počítač překonal

v úspěšnosti nejen generátor náhodného výsledku105, ale i právní

experty, kteří se naopak svou úspěšností od generátoru náhodných

čísel příliš nevzdálili.106 Úspěšnost právních expertů byla mírně přes

59 %, počítač vykázal 70% úspěšnost a z existence pouze dvou

možných odpovědí (pro a proti zrušení) lze dovodit úspěšnost

náhodného hádání – 50 %.107 Přitom odhady počítače byly založeny

na velmi omezených datech108

105 Běžným testem, zda předpověď funguje je srovnání s generátorem náhodného výsledku – pokud je pravděpodobnost lepší, má se za to, že předpověď minimálně do určité míry funguje.

. Není bez zajímavosti ani to, že

úspěšnost se významně lišila u jednotlivých soudců. To vznáší

otázku, zda jsou soudci, jejichž hlasování lze s vysokou

106 MARTIN, Andrew D., et al. Competing Approaches to Predicting Supreme Court Decision Making. Perspectives on Politics. 2004, Volume 2, Issue 04, s. 761-767. DOI: 10.1017/S1537592704040502. 107 AYERS, Ian. How computers routed the experts. Financial Times [online]. August 31 2007, -, [cit. 2011-03-13]. Dostupný z WWW: <http://www.ft.com/cms/s/2/f68ba784-56b8-11dc-9a3a-0000779fd2ac.html?nclick_check=1#axzz1HMtz9dSp>. 108 pouze 6 ukazatelů, některé zdánlivě nedůležité (vnímání veřejností); metodika rozhodování expertů není autorovi známa

Page 59: Právní aspekty automatizace rozhodovacích procesů

59

pravděpodobností odhadnout před proběhnutím řízení, skutečně

nezávislí.

7.2 Automatické systémy ve vlastním rozhodování

Nutně se nabízí otázka, do jaké míry lze a do jaké míry je vhodné

svěřit rozhodování v justici a státní správě strojům. Při takových

úvahách je třeba mít na paměti jak současná omezení techniky, tak

její budoucí možnosti.

Předně je třeba zodpovědět otázku, proč vůbec by mělo být vhodné

vlastní rozhodování automatizovat, případně proč nikoliv. Ať už by

odpověď byla jakákoliv, měla by automatizace být prostředkem k

řešení problému, nikoliv samoúčelným procesem. Jinými slovy:

míra automatizace by měla vyplývat z předem známých cílů daného

rozhodování, neměla by být stanovena nezávisle na cílích a to

v žádném směru.

7.2.1 Očekávatelné přínosy automatizovaných rozhodnutí

Co tedy lze od automatizovaných rozhodnutí očekávat?

Jednotu rozhodování a předvídatelnost – je jistě legitimním

požadavkem, aby právo bylo předvídatelné. Lze očekávat, že mimo

fázi pilotních projektů byly oblasti rozhodování automatizovány

globálně a rozhodování by zajišťoval jeden systém na celém území

(např. státu). Takový stav vede k větší předvídatelnosti a tím i k vyšší

důvěryhodnosti rozhodování.

Nezávislost – automatizovaný systém by ze své podstaty nebyl

schopen zvýhodňování kterékoliv ze stran z osobních, zištných nebo

jiných důvodů. Rovněž by nebyl ovlivnitelný podvědomými vlivy nebo

předsudky, jejichž omezení je pro člověka náročné, ne-li nemožné.

Rychlost – rychlost (nebo spíše její nedostatek) je nesporně

problémem současné justice. Především v opakujících se rutinních

Page 60: Právní aspekty automatizace rozhodovacích procesů

60

záležitostech by automatizace rozhodování ušetřila množství času

a umožnila by soudcům věnovat se právně a společensky

problematickým případům (hard cases).

Spolehlivost – především v otázkách procesních by použití

výpočetní techniky mělo řadu pozitiv. Nehrozilo by opomenutí a opět

by mohlo dojít od odbřemenění soudce od podružných činností.

Výčet možných přínosů automatizovaného rozhodování v justici

a státní správně uvedený v tomto oddíle není úplný a ani si to

neklade za cíl. Zásadním bylo ukázat, že potenciální výhody existují

a jsou reálné.

7.2.2 Meze, rizika a nevýhody:

Vlastností strojů, ze které do jisté míry vyplývá většina jejich výhod,

je vysoký stupeň jistoty v rozhodování – na stejnou otázku lze

očekávat vždy stejnou odpověď. To je zároveň do určité míry rizikem.

Chybné rozhodování bude stroj opakovat trvale, dokud nebude

nějakým způsobem109

Jednoznačnou mezí rozhodování (přinejmenším v dohledné

budoucnosti) jsou otázky bez jednoznačně určitelné odpovědi, které

v současnosti typicky rozhodují ústavní soudy a jim podobné

hraniční orgány.

provedena korekce.

Určitým rizikem je vznik ekvivalentu SEO v případě rozsáhlé (plné)

automatizace určitého rozhodování, kde rozhodující subjekt nemá

kontrolu nad vstupními informacemi110

109 Například manuálním zásahem ze strany kontrolujícího soudce. Na druhou stranu systém rozhodující samostatně by měl mít schopnost reflektovat výsledky odvolání ve svých dalších rozhodnutích a to je funkce, na které je v zájmu spravedlnosti bezvýhradně trvat.

. V takovém případě lze

očekávat snahu účastníků rozhodování (pravděpodobně s pomocí

110 Což je typická situace pro rozhodování státní správy a soudů. Rozhodující subjekt nemá možnost ovlivnit, co účastníci tvrdí.

Page 61: Právní aspekty automatizace rozhodovacích procesů

61

specialistů) cíleně zkreslovat svoje tvrzení tak, aby bylo rozhodnuto

v jejich prospěch na základě známého algoritmu rozhodování. Jedním

z prostředků, které vyhledávače proti praktikám SEO používají je

přísné utajení přesného algoritmu hodnocení. Byť by toto řešení

pravděpodobně bylo účinné i pro rozhodování správní a soudní,

vnucuje se otázka, zda je v takové situaci legitimní skrývat

rozhodovací algoritmus, pokud je znám111. V tom by šlo spatřovat

určitou analogii s utajením určitých částí soudních nebo správních

řádů, které by bylo shledáno jako protiústavní112

Dalším a velmi podstatnou hrozbou je nedůvěra – minimálně

v počátečních fázích by nezanedbatelné skupiny adresátů

rozhodování trpěly nedůvěrou k rozhodnutím vydaným strojem.

A důvěra je klíčovým elementem ve správném fungování justičního

systému.

. Další analogie,

kterou v tomto kontextu autor spatřuje, jsou interní normativní akty,

které rovněž nejsou veřejné, a přesto mají podstatný vliv na výsledky

správních řízení.

7.2.3 Zavádění automatizovaných rozhodnutí do státní správy

a justice

Zatímco zavádění automatizace do pomocných funkcí může být velmi

postupné a ze strany rozhodujících subjektů v zásadě dobrovolné,

u vlastního rozhodování je situace komplikovanější.

Nelze očekávat skokové zavedení plné automatizace rozhodování

na žádné úrovni. Nadto by to nebylo ani žádoucí. Pro změny v tak

citlivé oblasti jako je státní rozhodování a zejména soudní je důležité,

aby bylo přijato všemi nebo alespoň výraznou většinou dotčených.

111 U člověka obecně znám není, takže taková otázka postrádá soudce – člověka – postrádá smysl. 112 Ústavní zákon č. 1/1993 Sb., Ústava České republiky, ve znění pozdějších předpisů Čl. 52

Page 62: Právní aspekty automatizace rozhodovacích procesů

62

Obecně přijímaným popisem přístupu uživatelů k zavádění

nových technologií je tzv. Technology Acceptance Model. Zásadním je

definování pojmů:

Vnímaná užitečnost113 – „míra jakou osoba věří, že používání

určitého systému zvýší její pracovní výkon“114

Vnímaná snadnost použití

. 115 – „míra jakou osoba věří, že

používání určitého systému nebude provázeno námahou“116

Tento model vyjadřuje, jak moc bude, případně nebude, nová

technologie využívána, a to v závislosti na její užitečnosti a snadnosti

použití. Přestože byl model dále rozšiřován do své druhé a třetí verze

a také do podoby unifikované teorie přijetí a používání technologie

.

117

,

bude pro potřeby této práce postačovat jeho první verze.

Obr. 3 Technology acceptance model118

113 Perceived usefulness (PU)

114 DAVIS, Fred D. . Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly. 1989, Volume 13, Number 3, s. 319–340. 115 Perceived ease-of-use (PEOU) 116 DAVIS, Fred D. Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly. 1989, Volume 13, Number 3, s. 319–340. 117 VENKATESH, Viswanath , et al. User acceptance of information technology: Toward a unified view. MIS Quarterly. 2003, Volume 27, Number 3, s. 425–478. 118 DAVIS, Fred D.; BAGOZZI, Richard P.; WARSHAW, Paul R. . User Acceptance of Computer Technology : a comparison of two theoretical models. Management Science. August 1989, Vol. 35, No. 8, s. 982-1003.

Page 63: Právní aspekty automatizace rozhodovacích procesů

63

Empiricky bylo zjištěno, že existuje silná vazba mezi užitečností

a jak skutečným používáním systému, tak zamýšleným užíváním

systému v budoucnosti, přičemž zamýšlené budoucí použití bylo

ovlivněno silněji. Snadnost použití měla rovněž silný (i když poněkud

slabší) vliv, opět silnější na zamýšlené budoucí použití. Velmi

důležitým zjištěním je že snadnost použití měla kromě přímého vlivu

na postoj k používání dané technologie vliv i na vnímání užitečnosti.

To znamená, že uživatelé vnímají snáze použitelné technologie jako

užitečnější. To je důležitá skutečnost, kterou je nutno při

automatizaci rozhodování a snad ještě více při zavádění asistenčních

systémů brát v úvahu.

Při zavádění automatického rozhodování do justice lze

předpokládat zkušební dobu, kdy budou automatická rozhodnutí

prováděna vedle těch neautomatických a podle jejich shody bude

posuzována jejich kvalita. Následně lze očekávat, že kvalita

rozhodnutí vzroste do té míry, že se soudci budou moci zaměřit spíše

na kontrolní činnost a náročné případy. Tato změna bude

pravděpodobně postupná tak, jak porostou technické možnosti,

schopnost soudců prostředky automatizace používat a ochota

veřejnosti automaticky učiněná rozhodnutí přijímat.

Závěrem lze konstatovat, že současné snahy o elektronizaci

justice, ač nemají s automatizací mnoho společného, staví základy

systému, na kterých možná v budoucnu bude stát justice

automatická. Proto ani z pohledu automatizace justice nemohou být

podceňovány. Až po plné elektronizaci justice totiž lze uvažovat

o praktickém zavádění prvků automatizace do justiční praxe.

Page 64: Právní aspekty automatizace rozhodovacích procesů

64

8 Závěr

Rozhodovací procesy se vyskytují ve všech oblastech lidské činnosti

a mají značný dopad do sféry zájmů širokého spektra osob, tím více

pokud jde o rozhodování autoritativní. Zároveň je stále větší množství

rozhodování prováděno automaticky, aniž by se tato skutečnost

výrazně odrazila v legislativě nebo alespoň v právní doktríně.

Autor si stanovil za cíl analyzovat povahu automaticky konaných

rozhodnutí a nejčastěji používaných prostředků pro automatizované

rozhodování. A tím přispět do nastávající diskuze ohledně

automatických rozhodnutí v různých oborech lidské činnosti. Tato

práce si nekladla za cíl najít definitivní odpovědi na všechny otázky

týkající se automatizace rozhodovacích procesů, což by snad ani

nebylo možné.

Rozhodnutí prováděná automatizovaně jsou pro laickou veřejnost

obtížně uchopitelná a dvojnásob to platí o prostředcích a metodách,

na které spoléhají. To vede často k obavám a nedůvěře a tak

především ve sféře vlivu státu není využíván celý potenciál

automatizace rozhodování. Z analýzy rozhodovacích procesů

a jednotlivých typů rozhodnutí vyplynulo, že zejména opakující se

rozhodnutí a rozhodnutí jasně strukturovaná je vhodné

automatizovat.

Následně byly představeny nejčastější prostředky využitelné pro

částečnou nebo plnou automatizaci rozhodnutí. Z jejich vlastností

vyplývají jak jejich výhody, kterými jsou zejména rychlost

a spolehlivost tak omezení, mezi které patří zejména neschopnost

posoudit meze vlastních schopností nebo nedostatečná

předvídatelnost chování systémů s prvky umělé inteligence se

vstupními daty zásadně odlišnými od těch předpokládaných.

Page 65: Právní aspekty automatizace rozhodovacích procesů

65

Co se týká odpovědnosti za rozhodnutí učiněná automatickým

systémem, nelze konstatovat, že by šlo o mezeru v právu, která by

znemožnila rozhodnutí v takové věci a to zejména díky pojetí

jakéhokoliv výtvoru člověka jako věci bez právní subjektivity

a související plnou odpovědností provozovatele takového systému.

Problematickou je v tomto kontextu spíše skutečnost, že ne vždy

odpovídají takové závěry rozumnému uspořádání, což je ovšem do

značné míry politická otázka a jako taková bez možnosti objektivního

posouzení.

S rostoucí úrovní techniky a zejména té výpočetní vzrůstá

i množství a samostatnost umělých bytostí, která v dohledné

budoucnosti pravděpodobně dosáhne úrovně, která vyvolá zásadní

otázky o postavení umělých bytostí. Předjímat výsledky velmi obtížné,

pakliže ne nemožné, přesto byly analyzovány některé možné směry

vývoje postavení uměle vytvořených bytostí a jejich předpokládatelné

následky.

Pro obor práva je specificky významné rozhodování ve státní

správě a zejména v justici. Zde je využití automatizace v plenkách,

což do značné míry souvisí s nedostatečným a nekoordinovaným

zaváděním i jen základních prostředků výpočetní techniky do těchto

činností a se značnou konzervativností prostřední státních úřadů

a soudů. Výhody plynoucí z automatizace jednotlivých úkonů

konaných státní správou a soudy by bylo škoda nevyužít, toto využití

by však nemělo být bezhlavé a samoúčelné – vždy je nutno pečlivě

vážit všechny přínosy i nevýhody a hrozby. Jak už bylo konstatováno

výše, automatizace (čehokoliv) by měla být řešením existujícího

problému, nikoliv důvodem tvorby a řešení úkolů, které by bez ní

vůbec nemusely existovat.

Ač je autor práce ve vztahu k automatizaci optimistou, nelze

ignorovat úskalí a rizika, která by automatizace mohla přinést.

Page 66: Právní aspekty automatizace rozhodovacích procesů

66

V současnosti se jako hlavní překážka rozsáhlejší automatizace mimo

uzavřené průmyslové komplexy, kde už do značné míry proběhla, jeví

nechuť uživatelů učit se novým věcem a postupům spolu

s nedostatečnou znalostí možností automatizace.

Tomuto stavu odpovídá i neexistence zejména aktuální české

literatury na dané téma. Velmi zajímavé je, že cíle směřování

elektronizace a automatizace v soudnictví se pramálo změnily od dob

Viktora Knappa119

. Sice už neprahneme po socialistickém modelu

práva, kde ideologicky neomylné stroje kontrolují nespolehlivé

soudce, v praktických otázkách však stále jde o zjednodušení

komunikace a zpracování text. Zde lze konstatovat, že vzhledem

k technickému vývoji učiněnému za posledních dvacet let, je míra

použití automatických systémů k usnadnění justiční a správní

činnosti překvapivě malá.

119 KNAPP, Viktor, et al. Právo a informace. Praha : Academia, 1988. 292 s.

Page 67: Právní aspekty automatizace rozhodovacích procesů

67

9 Resumé

Historically, there have been numerous attempts to automate difficult

and dull tasks. Today, however, the technology has advanced to a

stage where this aim became possible. The top of the automation

pyramid are automated decisions, because decision making is the

most complex activity to be carried out.

The decision making process is a highly important part of

everyday life, and at the same time it directly influences the actions

taken at all levels. Specific types of decisions were identified as being

particularly suitable for automation, to name the most important

ones: operative decisions (as opposed to strategic) and program

decisions (well structured).

Further the nature of automated decision making systems has

been revealed. The example of artificial neural networks has shown

that even unstructured data with no easily specifiable inner bounds

can be successfully processed. This, however, is at the cost of losing

the ability to predict possible behaviour of such system – a property

immanent to deterministic systems. Simultaneously, the limitations

concerning data representation impair, for now, artificial neural

networks as independent decision makers. Still they can, and should,

be treated as a valuable help and assistance with decision making.

Contrary to neural networks, expert systems are much more

suitable to play the role of an actual decision maker, because both

their input and output are far more variable. Unfortunately not even

expert systems are flawless. For some tasks they need neural

networks to work within them. Yet, the greatest drawback of expert

systems stays elsewhere, in their very specific element – the

knowledge base. Or, more precisely, in the process of its creation.

Being as complicated process as it is, it makes mistakes practically

Page 68: Právní aspekty automatizace rozhodovacích procesů

68

inevitable and extremely difficult to find, thus very costly. This is not

to say that expert systems are not perspective or useful, only their

nature has to be carefully considered when dealing with them.

This, in some sense peculiar, nature of artificial intelligence

systems has to be taken into account when assessing legal

consequences of actions or decisions of such automatic machines.

And it is vital when creating legislature. By comparing the actual

version of Czech Civil Code and the proposal of the new one, it has

been found that under most circumstances it is the user who is likely

to be held liable. Both laws are similar in this matter, the new one is

only structured better and has a few added provisions. With quite

strict conditions for liberation, it might be sometimes close to

impossible to fulfil all his duties. On the other hand, interests of the

other party cannot be neglected. It would be highly unjust to make

user of automated system pick the fruits from it and make the

damaged party bear the costs.

The situation is not so straightforward with criminal liability.

Generally civil law seems to be able to accept independently acting

things easier than criminal law. In criminal law the basic distinction

for unlawful actions committed by automatic machines will the

intention of their creator – whether it happen by his order or

independently of his will. Some basic ideas for future regulation have

been expressed.

Novelisation of criminal code will become necessary when the

machines will reach a level of intelligence comparable to one of

a human. In this case artificial being is more appropriate term.

Despite the numerous definitions of artificial being one more is

offered. In contrast to the others it does not concentrate on the

process of its creation or absolute level of intelligence. The key factor

Page 69: Právní aspekty automatizace rozhodovacích procesů

69

is the ability to gradually learn from experience without external

interventions.

It is not an easy question to answer, what level of development is

needed to form high quality court decisions. In any case the vital

condition for automated court decisions is that the judicial agenda is

fully computerized. In the process of computerizing and later

automating justice, one should always be kept in mind. The level of

automation ought to be set by actual needs, not imposed

independently as the main target.

Page 70: Právní aspekty automatizace rozhodovacích procesů

70

10 Definice

automatizace rozhodování – proces přesunu rozhodovací funkce

z člověka na počítač, výsledkem je automatizované rozhodnutí

automatizované rozhodnutí – rozhodnutí, které učiní počítač sám

na základě programu

evoluční algoritmy – výsledek genetického programování nebo

prostředek realizující evoluci řešení

expert, kolega asistent – možné role expertního systému podle míry

jakou se podílí na vlastním rozhodnutí

expertní systém – inteligentní počítačový program, který pomocí

inferenční procedury řeší obtížné problémy na základě vhodně

zakódovaných znalostí

fuzzy logika – (mlhavá, neurčitá logika) forma vícehodnotové logiky

určená k práci s nejednoznačnými hodnotami

genetické programování – přístup k programování vycházející

z biologické evoluce založený na náhodném generování řešení

následovaném výběrem a rozvíjením těch nejúspěšnějších spíše

než cíleným uspořádáváním instrukcí

rozhodovací proces – výběr jedné nebo několika variant z více

možných subjektem rozhodování (rozhodovatelem)

silná UI – umělá inteligence se všeobecnými schopnostmi přesahující

schopnosti člověka

slabá UI – umělá inteligence řešící pouze konkrétní úkoly

strojové učení – obor umělé inteligence zabývající se schopností

počítačových systémů se učit

Page 71: Právní aspekty automatizace rozhodovacích procesů

71

umělá bytost – entita s umělým základem schopná inteligentní

interakce se svým okolím

umělá inteligence1 – vědní obor zabývající se tvorbou inteligentních

systémů

umělá inteligence2 – entita umělého původu vybavená inteligencí

umělá neuronová síť – paralelní systém založený na modelování

činnosti biologických neuronů

vnímaná snadnost použití – míra jakou osoba věří, že používání

určitého systému nebude provázeno námahou (součást TAM)

vnímaná užitečnost – míra jakou osoba věří, že používání určitého

systému zvýší její pracovní výkon (součást TAM)

Page 72: Právní aspekty automatizace rozhodovacích procesů

72

11 Zkratky

OZ zákon č. 40/1964 Sb., občanský zákoník, ve znění pozdějších

předpisů

NOZ návrh občanského zákoníku

TZ zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších

předpisů

ES expertní systém

UNS umělá neuronová síť

NS Nejvyšší soud

UI umělá inteligence

PO právnická osoba

FO fyzická osoba

ZPÚ způsobilost k právním úkonům

TAM technology acceptance model – model přijímání technologií

Page 73: Právní aspekty automatizace rozhodovacích procesů

73

12 Použité zdroje

Monografie

BERKA, Petr, et al. Expertní systémy. Praha : VŠE, 1998. 160 s. ISBN

80-7079-873-4.

CEJTHAMR, Václav; DĚDINA, Jiří. Management a organizační

chování. 2., aktualizované a rozšířené vydání. Praha : Grada

Publishing, 2010. 334 s. ISBN 978-80-247-3348-7.

DVOŘÁK, Jiří. Expertní systémy. Brno : VUT, 2004. 92 s.

KNAPP, Viktor, et al. Právo a informace. Praha : Academia, 1988. 292

s.

KNAPP, Viktor. Teorie práva. 1. vydání. Praha : C. H. Beck, 1995. 247

s. ISBN 80-7179-028-1.

POLČÁK, Radim. Právo a evropská informační společnost. Brno :

Masarykova univerzita, 2009. 204 s. ISBN 978-80-210-4885-0.

POLČÁK, Radim; ŠKOP, Martin; MACEK, Jakub. Normativní systémy

v kyberprostoru : úvod do studia. Brno : Masarykova univerzita,

2005. 102 s. ISBN 80-210-3779-2.

PŘIDAL, Ondřej. Právo na spravedlivý proces v civilním řízení. Brno,

2010. 229 s. Dizertační práce. Masarykova univerzita.

STUPKA, Václav. eJustice. Brno, 2010. 69 s. Diplomová práce.

Masarykova univerzita. Vedoucí práce Radim Polčák.

SVOBODA, Pavel, et al. Právní a daňové aspekty e-obchodu. Praha :

Linde Praha, 2001. 464 s. ISBN 80-7201-311-4.

VÁGNER, Ivan. Systém managementu. Brno : Masarykova Universita,

2006. ISBN 80-210-3972-8.

Page 74: Právní aspekty automatizace rozhodovacích procesů

74

Články

COHEN, Paul. If not Turing’s test, then what?. [online]. September

20, 2005, [cit. 2011-02-19]. Dostupný z WWW:

<http://www.cs.arizona.edu/~cohen/Publications/papers/IfNotWh

at.pdf>.

DAHIYAT, Emad Abdel Rahim. Intelligent agents and liability : is it a

doctrinal problem or merely a problem of explanation?. Artifical

Intelligence and Law. 2010, Vol. 18, Issue 1, s. 103–121. Dostupný

také z WWW:

<http://www.springerlink.com/index/10.1007/s10506-010-9086-

8>.

DAVIS, Fred D. . Perceived usefulness, perceived ease of use, and

user acceptance of information technology. MIS Quarterly. 1989,

Volume 13, Number 3, s. 319–340.

DAVIS, Fred D.; BAGOZZI, Richard P.; WARSHAW, Paul R. . User

Acceptance of Computer Technology : a comparison of two

theoretical models. Management Science. August 1989, Vol. 35, No.

8, s. 982-1003.

KRAUSOVÁ, Alžběta. Legal Regulation of Artificial Beings. Masaryk

University Journal of Law and Technology. Summer 2007, volume

1, number 1, s. 187-197. Dostupný také z WWW:

<http://mujlt.law.muni.cz/view.php?cisloclanku=2008030045>.

MARTIN, Andrew D., et al. Competing Approaches to Predicting

Supreme Court Decision Making. Perspectives on Politics. 2004,

Volume 2, Issue 04, s. 761-767. DOI:

10.1017/S1537592704040502.

RŮŽIČKA, Miroslav. Kontrola a dohled v soustavě státního

zastupitelství I. Právní rádce [online]. 22. 1. 2008, 1/2008, [cit.

2011-02-17]. Dostupný z WWW: <http://pravniradce.ihned.cz/c1-

Page 75: Právní aspekty automatizace rozhodovacích procesů

75

22809820-kontrola-a-dohled-v-soustave-statniho-zastupitelstvi-i>.

ISSN 1213-7693.

TURING, Alan M. Computing Machinery and Intelligence. Mind : a

quarterly review of psychology and philosophy. October, 1950, Vol.

LIX, No. 236, s. 433-460. Dostupný také z WWW:

<http://dx.doi.org/10.1093/mind/LIX.236.433>. ISSN 0026-4423.

VENKATESH, Viswanath , et al. User acceptance of information

technology: Toward a unified view. MIS Quarterly. 2003, Volume

27, Number 3, s. 425–478.

WHITBY, Blay. Why The Turing Test is AI's Biggest Blind

Alley. [online]. 1997, [cit. 2011-02-17]. Dostupný z WWW:

<http://www.informatics.sussex.ac.uk/users/blayw/tt.html>.

Předpisy a judikatura

Důvodová zpráva k návrhu občanského zákoníku zákoníku [online].

[cit. 2011-02-16]. Dostupné z WWW:

<http://obcanskyzakonik.justice.cz/tinymce-

storage/files/Duvodova%20zprava%20OZ_ver_2010.pdf>.

Návrh občanského zákoníku [online]. [cit. 2011-02-16]. Dostupné z

WWW: <http://obcanskyzakonik.justice.cz/tinymce-

storage/files/Navrh%20obcanskeho%20zakoniku_ver_2010.pdf>.

Rozsudek NS ČR ze dne 25. 11. 2009, sp. zn. 25 Cdo 2429/2007

Usnesení NS ČR ze dne 22. 10. 2008, sp. zn. 25 Cdo 2805/2006

Ústavní zákon č. 1/1993 Sb., Ústava České republiky, ve znění

pozdějších předpisů

Zákon č. 121/2000 Sb., o právu autorském, o právech souvisejících

s právem autorským a o změně některých zákonů (autorský zákon),

ve znění pozdějších předpisů

Page 76: Právní aspekty automatizace rozhodovacích procesů

76

Zákon č. 300/2008 Sb., o elektronických úkonech a autorizované

konverzi dokumentů, ve znění pozdějších předpisů

Zákon č. 361/2000 Sb., o provozu na pozemních komunikacích

Zákon č. 40/1964 Sb., občanský zákoník ve znění pozdějších

předpisů

Zákon č. 40/2009 Sb., trestní zákoník, ve znění pozdějších předpisů

Zákon č. 99/1963 Sb., občanský soudní řád, ve znění pozdějších

předpisů

Ostatní zdroje

ASIMOV, Isaac. Runaround. In CAMPBELL, John W., Jr. Astounding

Science Fiction. New York : Street & Smith, 1942. s. 94-104.

AYERS, Ian. How computers routed the experts. Financial

Times [online]. August 31 2007, -, [cit. 2011-03-13]. Dostupný z

WWW: <http://www.ft.com/cms/s/2/f68ba784-56b8-11dc-9a3a-

0000779fd2ac.html?nclick_check=1#axzz1HMtz9dSp>.

DARPA Grand Challenge. In Wikipedia : the free encyclopedia [online].

St. Petersburg (Florida) : Wikipedia Foundation, [cit. 2011-02-27].

Dostupné z WWW:

<http://en.wikipedia.org/wiki/DARPA_Grand_Challenge>.

Human-computer chess matches. In Wikipedia : the free

encyclopedia [online]. St. Petersburg (Florida) : Wikipedia

Foundation, [cit. 2011-02-19]. Dostupné z WWW:

<http://en.wikipedia.org/wiki/Human-computer_chess_matches>.

JIRSÍK, Václav. Expertní systémy : prezentace k přednáškám. Brno :

VUT, 2010.

Knowledgerush [online]. 2009 [cit. 2011-02-20]. Artificial being.

Dostupné z WWW:

Page 77: Právní aspekty automatizace rozhodovacích procesů

77

<http://www.knowledgerush.com/kr/encyclopedia/Artificial_being

/>.

MARKOFF, John. Google Cars Drive Themselves, in Traffic. The New

York Times [online]. October 9, 2010, n/a, [cit. 2010-12-28].

Dostupný z WWW:

<http://www.nytimes.com/2010/10/10/science/10google.html?_r

=1>.

PRANANTHA, Danu. Lifelong Learning Journal [online]. October 15,

2009 [cit. 2011-02-21]. Neural Network in Business Intelligence .

Dostupné z WWW:

<http://danupranantha.wordpress.com/2009/10/15/neural-

network-in-business-intelligence-part-1/>.

Robotic Football League [online]. 2011 [cit. 2011-02-27]. Dostupné z

WWW: <http://www.roboticfootballleague.com/>.

Strong AI. In Wikipedia : the free encyclopedia [online]. St. Petersburg

(Florida) : Wikipedia Foundation, [cit. 2011-02-27]. Dostupné z

WWW: <http://en.wikipedia.org/wiki/Artificial_Being>.

University of Reading [online]. 14 August 2008 [cit. 2011-02-21].

Robot with a Biological Brain: new research provides insights into

how the brain works . Dostupné z WWW:

<http://www.reading.ac.uk/about/newsandevents/releases/PR165

30.aspx>.

VÁCLAVÍK, Lukáš. IBM Watson: superpočítač, který dokáže porazit

člověka. Cnews.cz [online]. 21. 1. 2011, [cit. 2011-02-18]. Dostupný

z WWW: <http://www.cnews.cz/ibm-watson-superpocitac-ktery-

dokaze-porazit-cloveka>.

Vyhledávání Google [online]. 2011-02-20 [cit. 2011-02-20].

Define:Artificial Being. Dostupné z WWW:

<http://www.google.cz/search?defl=en&q=define:Artificial+Being>.


Recommended