V mnoha oblastech je stále častěji skloňován pojem Large Language Model (LLM). Využívá algoritmy hlubokého učení ke zpracování přirozeného jazyka. Jak funguje? Na to se snažil v obsáhlém článku odpovědět prestižní časopis The Economist. Česká justice přináší další část jeho reportáže z oblasti AI, tedy umělé inteligence.
Při nácviku si LLM dává sám sobě hádanky. Vezme kus textu, slova na jeho konci se zakryjí a LLM se snaží uhodnout, co by tam mohlo být. Potom LLM odhalí odpověď a porovná ji se svým odhadem. Vzhledem k tomu, že odpovědi jsou v samotných datech, lze tyto modely trénovat „samokontrolou“ na masivních souborech dat, aniž by bylo zapotřebí lidských štítkovačů.
Cílem modelu je, aby jeho odhady byly tak dobré, jak jen je to možné a dělaly co nejméně chyb. Ne všechny chyby jsou však stejné. Pokud je původní text „I love ice cream“ – miluji zmrzlinu odhadován jako „I love ice hockey“- miluji lední hokej, je to lepší, než „I love ice are“ – miluji led jsou. Jak špatný je odhad, se promění na číslo zvané ztráta. Po několika odhadech je ztráta odeslána zpět do neuronové sítě a použita k posunutí váhy ve směru, který vyprodukuje lepší odpovědi.
Končí éra průkopnictví?
Klíčem k učení se z tak obrovského množství dat je síť pozornosti LLM. Zabudovává do modelu cestu, jak se učit a používat asociace mezi slovy a pojmy, i když se v textu objevují vzdáleně, a umožňuje zpracovávat hromady dat v přiměřeném čase. Mnoho různých sítí pozornosti funguje paralelně v rámci typického LLM a tato paralelizace umožňuje, aby proces běžel přes více GPU procesorů. Starší verze jazykových modelů, které nejsou založeny na pozornosti, by nebyly schopny zpracovat takové množství dat za rozumnou dobu. „Bez pozornosti by škálování nebylo výpočetně proveditelné,“ říká Yoshua Bengio, vědecký ředitel Mila, prominentního výzkumného institutu umělé inteligence v Quebecu.
Rozsah, v jakém mohou modely LLM zpracovávat data, je v současnosti hnacím motorem jejich růstu. Model GPT-3 má stovky vrstev, miliardy vah a byl trénován na stovkách miliard slov. Naproti tomu první verze GPT, vytvořená před pěti lety, měla jen jednu deseti tisícinu této velikosti.
Existují však dobré důvody, říká Dr Bengio, myslet si, že tento růst nemůže pokračovat neomezeně. Vstupy modelů LLM – data, výpočetní výkon, elektřina, kvalifikovaná pracovní síla – stojí peníze. Trénování GPT-3 například spotřebovalo 1,3 gigawatthodiny elektřiny (dostatek k napájení 121 domácností v Americe na rok) a stálo OpenAI odhadem 4,6 milionu dolarů. Trénink GPT-4, což je mnohem větší model, bude stát nepoměrně více (v řádu 100 milionů dolarů).
Vzhledem k tomu, že požadavky na výpočetní výkon dramaticky rostou rychleji než vstupní data, tréning modelů LLM se prodraží rychleji, než se zlepší. Šéf OpenAI Sam Altman si skutečně myslí, že bod převratu už nastal. Dne 13. dubna řekl publiku v Technologickém institutu v Massachusetts: „Myslím, že jsme na konci éry těchto obřích modelů. Zlepšíme je jinými způsoby.“
Kvalitní informace na internetu docházejí
Ale nejdůležitější limit neustálého zlepšování modelů LLM je množství dostupných tréninkových dat. GPT-3 již byl vyškolen na to, co obnáší vysoce kvalitní text, který je k dispozici ke stažení z internetu. Dokument zveřejněný v říjnu 2022 dospěl k závěru, že „zásoba vysoce kvalitních jazykových dat bude brzy vyčerpána; pravděpodobně před rokem 2026.“ K dispozici je jistě více textu, ale je v malých množstvích, uzamčen v podnikových databázích nebo na osobních zařízeních, nepřístupný v měřítku a nízkých nákladech, jak umožňuje Common Crawl.
Počítače budou postupem času výkonnější, ale není k dispozici žádný nový hardware, který by nabízel tak velký skok ve výkonu jako ten, který vznikl z používání GPU v raných desátých letech, takže tréning větších modelů bude pravděpodobně stále dražší. Vylepšení jsou možná, včetně nových druhů čipů, jako je Tensor Processing Unit od společnosti Google, ale výroba čipů se již nezlepšuje exponenciálně kvůli Moorovu zákonu a zmenšujícím se obvodům.
Právní otázky přicházejí
Budou také právní otázky. Společnost Stability AI, která vyrábí model pro generování obrazu s názvem Stable Diffusion, byla zažalována fotografickou agenturou Getty Images. Tréninková data Stable Diffusion pocházejí ze stejného místa jako data GPT-3 a GPT-4, z Common Crawl, a zpracovává je velmi podobným způsobem pomocí sítí pozornosti. Některé z nejvýraznějších příkladů generativní schopnosti AI byly obrázky. Lidé na internetu jsou nyní pravidelně vzrušováni z fotografií scén, které se nikdy nestaly: Papež v bundě Balenciaga; Donald Trump je zatčen.
Agentura Getty poukazuje na obrázky vytvořené společností Stable Diffusion, které obsahují její vodoznak chráněný autorským právem, což naznačuje, že společnost Stable Diffusion použila a bez povolení reprodukuje materiál chráněný autorskými právy (společnost Stability se k žalobě zatím veřejně nevyjádřila). Stejnou úroveň důkazů je obtížné získat při zkoumání textového výstupu ChatGPT, ale není pochyb o tom, že model byl vytrénován na materiálu chráněném autorským právem. OpenAI bude doufat, že její generování textu bude pokryto „fair use“, ustanovením autorského zákona, které umožňuje omezené použití materiálu chráněného autorskými právy pro „transformativní“ účely. Tato myšlenka bude pravděpodobně jednou testována před soudem.
Více rukou, více myslí, více strachu
Ale i ve scénáři, kdy by se modely LLM letos přestaly zlepšovat a kasovní výbuch by vlivem soudního sporu dohnal OpenAI k bankrotu, síla velkých jazykových modelů by zůstala. Data a nástroje pro jejich zpracování jsou široce dostupné, i když samotný rozsah dosažený OpenAI zůstává drahý.
Pokud jsou implementace s otevřeným zdrojovým kódem pečlivě a selektivně trénovány, dosahují výkonu GPT-4 již nyní. To je dobrá věc: Mít moc modelů LLM v mnoha rukou znamená, že mnoho myslí může přijít s inovativními novými aplikacemi, které vylepší vše od medicíny po právo.
Ale také to znamená, že katastrofické riziko, které technologické elitě nedá v noci spát, se stalo představitelnějším. Modely LLM jsou již neuvěřitelně výkonné a zdokonalovaly se tak rychle, že mnozí z těch, kteří na nich pracují, dostali strach. Schopnosti největších modelů předčily chápání a kontrolu jejich tvůrců. To vytváří rizika všeho druhu.
Úplný text v originálu je zde.
Strach z vyhynutí lidstva strach z nadlidské entity
A právě temnou stránkou vývoje velkých jazykových modelů LLM se zabývá článek „Jak by umělá inteligence mohla změnit výpočetní techniku, kulturu a běh dějin: Očekávejte změny ve způsobu, jakým lidé přistupují ke znalostem, jak se k nim vztahují a jak o sobě přemýšlí“.
Autoři přirovnávají objev AI k objevu knihtisku a riziko dalšího vývoje k riziku vývoje jaderného arsenálu.
Mezi temnějšími dary, které přineslo osvícení, bylo uvědomění si, že lidé mohou jednoho dne vyhynout. Revoluce v astronomii v 17. století ukázala, že sluneční soustava funguje na principu rozumu a obsahuje komety, které by mohly zasáhnout Zemi. Geologické záznamy, jak je interpretoval Comte de Buffon, ukázaly masivní vymírání, při kterém druhy zmizely navždy. To připravilo půdu pro Charlese Darwina, který rozpoznal taková vymírání jako motor evoluce, a tedy jako sílu, která utvářela lidi, a tím i jejich možný osud. Rodící se věda termodynamiky dodala jistotě konce kosmický rozměr; Slunce, Země a celý shebang pravděpodobně skončí v „žáru smrti“ bez života, píší autoři.
20. století přidalo myšlenku, že k vyhynutí nemusí dojít přirozeně, ale uměle. Podnětem k tomu byl objev a pozdější využití síly uzavřené v atomových jádrech. Nikdo nebyl více pomluvený než počítač: Počítač hrál zásadní roli ve vývoji jaderného arzenálu.
Umělá inteligence se vynořila v myšlenkách malé skupiny akademiků, která se v posledních několika desetiletích věnovala úvahám o existenčním riziku. Často se zdálo, že je to jádro jejich obav. Svět, který obsahuje entity, které myslí lépe a jednají rychleji než lidé a jejich instituce a který má zájmy, které nejsou v souladu se zájmy lidstva, by byl nebezpečným místem.
Stalo se běžným, že lidé v oboru i v jeho okolí říkali, že existuje „nenulová“ šance, že vývoj nadlidské bytosti povede k vyhynutí lidstva. Pozoruhodný rozmach schopností velkých jazykových modelů (LLM), „základních“ modelů a souvisejících forem „generativních“ AI vystřelil tyto diskuse o existenciálním riziku do veřejné představivosti a do poštovních schránek ministrů.
Jako prohlížeč. Přichází další změna chápání světa?
Ale ve specifickém kontextu GPT-4, modelu LLM dnešních dnů a jemu podobným, se řeči o existenciálních rizicích zdají poněkud absurdní. Modely produkují prózu, poezii a kód; vytvářejí obrázky, zvuk a video; dělají předpovědi na základě vzorců. Je snadné vidět, že tyto schopnosti s sebou přinášejí obrovskou kapacitu pro omyl. Je však těžké si představit, že by byly pilířem „moci ovládat civilizaci“ nebo „nahradit nás“, jak varují hyperboličtí kritici.
To však neznamená, že rozsah změny, kterou s sebou AI přináší, lze ignorovat. „V životě jde o víc než o vyhýbání se vyhynutí. Technologie nemusí znamenat konec světa, aby mohla svět měnit,“ uvádí autoři eseje.
Přechod do světa plného počítačových programů schopných lidské úrovně konverzace a porozumění jazyku a nadlidských schopností asimilace dat a rozpoznávání vzorů právě začal. Příchod všudypřítomného pseudo poznávání by mohl být zlomem, i kdyby vývoj AI skončil, což se zdá nepravděpodobné, nebo zpomalil (což je pravděpodobné).
„Lze očekávat, že to bude mít důsledky nejen pro to, jak si lidé vydělávají na živobytí a organizují si život, ale také pro to, jak přemýšlejí o své lidskosti,“ uvádí autor eseje, který přirovnává AI ke třem technologickým milníkům vývoje lidstva: Vynález tiskařského lisu, psychoanalýza a prohlížeč. První změnil přístup a vztah ke znalostem, druhý způsob, jak lidé chápou sami sebe a třetí proměnil počítače a ekonomiku.
„Síla prohlížeče byla okamžitě zřejmá. Boje o to, jak tvrdě mohou být uživatelé tlačeni ke konkrétnímu prohlížeči, se staly záležitostí velkým obchodním dramatem. Téměř každá firma s webovou adresou mohla získat finanční prostředky bez ohledu na to, jakou absurditu slibovala. Když se boom na přelomu století změnil v krach, došlo k předvídatelné reakci. Ale zásadní oddělení rozhraní a aplikace pokračovalo. Amazon, Meta (dříve Facebook) a Alphabet (dříve Google) vystoupaly do závratných výšin tím, že učinily z prohlížeče kanál pro zboží, informace a lidské kontakty. Kdo vytvořil prohlížeče, se stalo vedlejší; jejich role jako platformy se stala však zásadní,“ upozorňují autoři eseje.
Schopnosti rostou, změní životní modely
Měsíce od vydání ChatGPT, konverzačního rozhraní od Open AI, které nyní využívá GPT-4, zaznamenaly podnikatelskou explozi, díky které vypadá boom webových stránek s koncovkou dotcom usedle. Pro uživatele mohou být aplikace založené na modelech LLM a podobném softwaru směšně snadné; zadejte úkol a uvidíte výsledek. Pro vývojáře to není o tolik těžší. „Stačí otevřít svůj notebook a napsat pár řádků kódu, který bude interagovat s modelem,“ vysvětluje Ben Tossell, britský podnikatel, který vydává zpravodaj o službách AI.
A schopnosti modelů LLM pomoci s kódováním rostou. Protože byly „vycvičeny“ nejen na hromadách textu, ale na spoustě kódu, obsahují stavební kameny mnoha možných programů; to jim umožňuje fungovat jako „kopiloti“ pro kodéry. Programátoři na GitHubu, webu s otevřeným zdrojovým kódem, nyní používají druhého pilota založeného na GPT-4 k vytvoření téměř poloviny svého kódu.
Neexistuje žádný důvod, proč by tato schopnost nakonec neměla umožnit modelu LLM sestavit kód za chodu, vysvětluje technologický ředitel společnosti Microsoft Kevin Scott. Schopnost překládat z jednoho jazyka do druhého zahrnuje v zásadě a stále více v praxi schopnost překládat z jazyka do kódu. Úkol napsaný v angličtině může v zásadě podnítit výrobu programu, který splňuje jeho požadavky. Tam, kde prohlížeče oddělily uživatelské rozhraní od softwarové aplikace, LLM pravděpodobně zruší obě kategorie. To by mohlo znamenat zásadní posun jak ve způsobu, jakým lidé používají počítače, tak v obchodních modelech, v nichž tak činí.
Halucinace a nekonečná zásoba desinformací
Kód jako služba zní jako plus, které mění hru. Zatímco prohlížeče poskytovaly hlavně okno s obsahem a kódem vytvořeným lidmi, modely LLM generují svůj obsah samy. Jenže přitom „halucinují“ (nebo jak někteří preferují „konfabulují“) různými způsoby. Některé halucinace jsou prostě nesmysl. Některé, jako je začlenění fiktivních přečinů do životopisů živých lidí, jsou věrohodné i škodlivé. Halucinace mohou být způsobeny rozpory v tréninkových sestavách. Modely LLM jsou navrženy tak, aby vytvářely koherenci. Vytvářejí věci, které vypadají jako věci v jejich tréninkových sadách; nemají smysl pro svět mimo texty a obrázky, na kterých jsou trénováni.
Očekávejte, že modely budou použity k nastavení sítí se zákeřným vlivem na vyžádání, včetně falešných webových stránek, twitterových botů, stránek na Facebooku, kanálů TikTok a mnoha dalších. Zásoba dezinformací, jak varovala Renée DiResta ze Stanfordské internetové observatoře, „bude brzy nekonečná“.
Toto ohrožení samotné možnosti veřejné diskuse nemusí být existenční; ale je to hluboce znepokojující. Připomíná „Bábelskou knihovnu“ z povídky Jorge Luise Borgese Babylónská knihovna. Knihovna obsahuje všechny knihy, které kdy byly napsány, ale také všechny knihy, které nikdy nebyly napsány. Knihy, které jsou špatné a knihy, které jsou nesmyslné. Všechno, na čem záleží, tam je, ale kvůli všemu ostatnímu to nelze najít; knihovníci jsou dohnáni k šílenství a zoufalství.
Chatbot jako hlas zesnulého ze záhrobí
Modely LLM slibují, že jako způsob prezentace znalostí posunou praktickou i osobní stránku knih dále a v některých případech je úplně zruší. Zjevným cílem této technologie je přeměnit soubory znalostí na předmět pro chatboty. Namísto čtení korpusu textu budete zpochybňovat entitu, která je na něm vyškolena, a dostanete odpovědi na základě toho, co text říká. Proč obracet stránky, když můžete vyzpovídat dílo jako celek?
Výzkumníci z Australského institutu pro strojové učení sestavili ranou verzi asistenta pro Laurie Anderson, skladatelku a hudebnici. Je trénovaná částečně na její práci a částečně na práci jejího zesnulého manžela Lou Reeda.
Paní Anderson říká, že neuvažuje o použití systému jako způsobu spolupráce se svým mrtvým partnerem. Jiní by mohli takové iluzi snadno podlehnout. Pokud se někteří chatboti do určité míry stanou vnitřním hlasem jejich uživatele, pak tento hlas přetrvá i po smrti, pokud by s ním ostatní chtěli hovořit.
To připomíná klasický esej Sigmunda Freuda „O záhadném“. Freud vychází z myšlenky, že podivnost pramení z „pochybností, zda je zdánlivě živá bytost skutečně živá; nebo naopak, zda neživý předmět nemusí být ve skutečnosti animovaný“. Jsou to pochybnosti, kterým se ti, kdo přemýšlejí o LLM jen těžko vyhýbají.
Bez života neexistuje myšlenka ani schopnost porozumění
„Tyto modely jsou pouze reprezentacemi distribuce slov v textech, které lze použít k vytvoření více slov,“ říká Emily Bender, profesorka z Washingtonské univerzity v Seattlu. Je jednou z autorek knihy „O nebezpečí stochastických papoušků: Mohou být jazykové modely příliš velké? kritika triumfalismu LLM. Tvrdí, že modely nemají žádnou skutečnou schopnost porozumění. Bez zkušeností se skutečným životem nebo s lidskou komunikací nenabízejí nic jiného než schopnost papouškovat věci, které slyšely ve výcviku, schopnost často správných výstupů díky obrovskému množství dat, která je někdy překvapivá, ale nevyrovná se myšlence.
Přijmout, že lidsky vypadající LLM jsou kalkulace, statistiky a nic víc, nemůže ovlivnit to, jak lidé o sobě myslí. Freud se vykresloval jako pokračovatel v trendu započatém Koperníkem – který odstranil lidi ze středu vesmíru – a Darwinem – který je odstranil ze zvláštního a Bohem daného postavení mezi zvířaty. Přínos psychologie, jak ho viděl Freud, spočíval ve „snaze dokázat ‚egu‘ každého z nás, že není pánem ani ve svém vlastním domě“. Dalo by se tvrdit, že LLM posouvají myšlenku ještě dále. Alespoň jedno křídlo Freudova domu se stává neobydleným „chytrým domem“; světla se automaticky rozsvěcují a zhasínají, chytrý termostat otevírá okna a stahuje žaluzie. Není potřeba vůbec žádného mistra.
Doktorka Benderová a ti, kteří s ní souhlasí, mohou mít námitky. Mohou však vést k užitečným akcím v oblasti „etiky umělé inteligence“. Podívat se na nevědomé předsudky získané v předverbálním dětství tréninku; řešení rozporů za halucinacemi; regulace zlotřilých tužeb: myšlenky z psychoterapie by mohly být považovány za užitečné analogie pro řešení pseudokognitivního přechodu umělé inteligence dokonce i těmi, kteří odmítají veškeré představy o mysli umělé inteligence. Vítaná by mohla být i koncentrace na vztah rodičů, případně programátorů a jejich dětí. Co je to vychovat dobře umělou inteligenci? Jaký druh výchovy by měl být zakázán? Do jaké míry by měli tvůrci nést odpovědnost za škody způsobené jejich vytvořením?
Úplný esej v originálu je zde.
Fungování jazyka je fungování světa
Někteří s takovou interpretací nesouhlasí. Jazyk zrcadlí složitost světa a jeho složitost obsahuje, uvádí se v dalším eseji.
Koneckonců, jazyk nejsou jen slova, ale „reprezentace základní složitosti“ světa, poznamenává Percy Liang, profesor z Institutu pro umělou inteligenci zaměřenou na člověka na Stanfordské univerzitě. To znamená, že model fungování jazyka také v jistém smyslu obsahuje model fungování světa. LLM vyškolený na velké množství textu, se v zásadě učí uvažovat na základě dokončení textu,“ říká Nathan Benaich z Air Street Capital, investičního fondu pro umělou inteligenci.
Auto-GPT, vytvořený Toranem Brucem Richardsem ze startupu Significant Gravitas, používá GPT -4 ke generování a rozvíjení podnikatelských nápadů tím, že spojuje řadu online zdrojů.
Ačkoli někteří hovoří o momentální slepé uličce vývoje, většina pozorovatelů se shoduje, že „budování systémů kolem LLM bude v příštích několika letech řídit pokrok“. „Pole se tímto směrem velmi ubírá,“ říká Oren Etzioni z Allenova institutu pro umělou inteligenci.
Úplný esej v originálu je zde.
Vědci: Vymyslí smrtící toxiny, ovlivní volby
Na zcela opačném pólu se nacházejí profesor Gary Marcus a doktorandka Anka Reul volající po bezprostřední regulaci. Gary Marcus je emeritním profesorem na Universitě New York a byl zakladatelem a generálním ředitelem Geometric Intelligence, společnosti zaměřené na strojové učení získané Uberem. Anka Reuel je doktorandkou počítačových věd na Stanfordské univerzitě a zakládající členkou kira think-tanku zaměřujícího se na propagaci odpovědné umělé inteligence.
Svůj pohled sepsali ve výzvě s názvem „Svět potřebuje mezinárodní agenturu pro umělou inteligenci“.
Nástroje generativní AI jako je ChatGPT od Open AI jsou nejrychleji rostoucí spotřebitelská internetová aplikace všech dob. Mají využití ve všem, od vzdělávání po medicínu a je neuvěřitelně zábavné si s nimi hrát. I když jsou současné systémy umělé inteligence schopné velkolepých výkonů, nesou také rizika. Europol varoval, že by mohly výrazně zvýšit kyber kriminalitu. Mnoho expertů je hluboce znepokojených jejich potenciálem vytvořit tsunami dezinformací, které představují bezprostřední hrozbu pro americké prezidentské volby v roce 2024 a v konečném důsledku i pro samotnou demokracii tím, že vytvářejí atmosféru naprosté nedůvěry. Vědci varovali, že tyto nové nástroje by mohly být použity k navrhování nových, smrtících toxinů, shrnují rizika oba vědci.
Velké modely halucinují a vymýšlejí si: ChatGPT například falešně obvinil profesora práva z podílu na sexuálním obtěžování, zjevně zmateného statistickými, ale irelevantními souvislostmi mezi částmi textu, které k sobě ve skutečnosti nepatřily. Bing Chat udělal podobnou chybu a připsal ji informacím z USA Today. Tyto systémy lze také použít k záměrnému zneužívání, od narušování voleb (například manipulací s tím, co kandidáti říkají nebo píší) až po šíření lékařských dezinformací.
Čas pro Mezinárodní agenturu pro AI je tady
Jen za minulý rok bylo po celém světě schváleno 37 předpisů zmiňujících AI; Itálie zašla tak daleko, že zakázala Chat GPT. Ale existuje jen malá globální koordinace, upozorňují vědci.
Právě v této souvislosti vyzýváme k okamžitému rozvoji globální, neutrální, neziskové Mezinárodní agentury pro umělou inteligenci (IAAI ) s vedením a účastí vlád, velkých technologických společností, neziskových organizací, akademické obce a společnosti zaměřené na společné hledání správy a technických řešení pro podporu bezpečných a mírových technologií umělé inteligence.
Čas pro takovou agenturu nadešel, jak řekl 16. dubna sám CEO Googlu Sundar Pichai.
Navrhnout druh globální spolupráce, jaký si představujeme, je obrovská práce. Je třeba zapojit mnoho zúčastněných stran. Je třeba vzít v úvahu jak krátkodobá, tak dlouhodobá rizika. Žádné řešení nebude úspěšné, pokud nebudou na palubě jak vlády, tak společnosti, nejsou to jen oni: světová veřejnost potřebuje místo u stolu.
Vzory existují, internet byl navržen chybně
Naštěstí pro takovou globální spolupráci existuje precedens. Například na konci druhé světové války jaderné zbraně vyvolaly hluboké obavy a nejistoty ohledně toho, jak bude nová technologie použita. V reakci na to 81 zemí jednomyslně schválilo statut Mezinárodní agentury pro atomovou energii k „propagaci bezpečných, bezpečných a mírových jaderných technologií“ s právy na kontrolu. Jiným, měkčím typem modelu, který se méně zaměřuje na prosazování, je Mezinárodní organizace pro civilní letectví.
Výzvy a rizika AI jsou samozřejmě velmi odlišné a do znepokojivé míry stále neznámé. Zpětně víme, že internet mohl být navržen lepšími způsoby s větším rozmyslem. Dřívější rozhodnutí o tom, jak zacházet se soukromím a anonymitou, například mohla zajistit, že kultura trollingu byla méně.
Vzhledem k tomu, jak rychle se věci pohybují, není mnoho času nazbyt. Globální, neutrální nezisková organizace s podporou vlád, velkých podniků a společnosti je důležitým začátkem, uzavírají vědci svoji výzvu.
Úplný text eseje a výzvy dvou vědců je zde.
Překlad a úprava textu z The Economist Irena Válová