Jaká je technologická jedinečnost?
Technologická singularita nebo jednoduše „singularita“ je mnohostranný koncept ve futurismu s několika překrývajícími se a někdy protichůdnými definicemi. Nejvhodnější a nejvýznamnější definici singularity byla dána Vernor Vinge v jeho eseji, nadcházející technologická singularita . Odkazuje na bod, ve kterém je nadlidská inteligence vytvářena technologicky. Tyto nadlidské inteligence by pak mohly aplikovat svou mozkovou sílu a odbornost na úkol vytvořit další nebo silnější nadlidské inteligence, což má za následek účinek sněhové koule s důsledky nad naší současnou schopností představit si. nula. Často zmíněno ve spojení s myšlenkou nadlidské inteligenceV dialogu Singularity je pojem urychlení technologických změn. Někteří argumentovali, že se zvyšováním sklonu technologického pokroku to vyvrcholí asymptotem, podobně vizuálně jako matematická singularita. s odkazem na vznik nadlidské inteligence, spolu s nadlidskými rychlostmi myšlení. (Včetně chytře, schopnosti porozumět a vytvářet koncepty, přeměnit data v teorie, vytvářet analogie, být kreativní atd.
Protože nadlidské inteligence by byly podle definice chytřejší než kterýkoli člověk, naše schopnost předvídat, jaký by byl CJe nepravděpodobné, že by bylo možné přesné. Superhumánská inteligence by mohla být schopna vytvořit fungující superpočítač z levných a snadno dostupných komponent nebo vyvinout plnohodnotnou nanotechnologii s ničím jiným než mikroskopem atomové síly. Protože schopnost nadlidské inteligence navrhovat a vyrábět technologické gadgety by rychle překonal nejlepší úsilí lidských inženýrů, nadlidská inteligence by mohla být velmi dobře posledním vynálezem, který lidstvo kdy potřebuje. Vzhledem k jejich nadlidskému géniusům a technologiím, které by se mohli rychle rozvíjet, by činy inteligencí vycházely z technologické jedinečnosti buď k vyhynutí nebo osvobození celého našeho druhu, v závislosti na postojích nejsilnějších nadlidských inteligencí vůči lidským bytostem.
Oxfordský filozof Nick Bostrom, ředitel Oxford Future of Humanity Institute a World TRANshumanistická organizace , tvrdí, že způsob, jakým nadlidské inteligence zacházejí s lidmi, bude v okamžiku jejich vytvoření záviset na jejich počátečních motivacích. Druha nadlidská inteligence by, když chtěla zachovat svou laskavost, zpožděla druhové (nebo laskavější) verze, jak pokračovala spirála sebe zlepšování. Výsledkem by mohl být ráj, ve kterém nadlidské inteligence řeší světové problémy a nabízejí konsensuální zpravodajství pro lidské bytosti. Na druhou stranu by škodlivá nebo lhostejná nadlidská inteligence pravděpodobně vytvořila více stejného, což by mělo za následek naše náhodné nebo úmyslné zničení. Z těchto důvodů může být technologická singularita jediným nejdůležitějším milníkem, který se naším druhem kdy bude čelit.
Několik cest k nadlidské inteligenci navrhli analytici a obhájci singularity. První je IA nebo inteligence Amplification , vezme si stávajícího člověka a přeměňuje ji naNehumánní bytovo prostřednictvím neurochirurgie, propojení mozkového počítače nebo možná dokonce propojení mozku mozku. Druhým je AI nebo umělá inteligence , vytvoření dynamického kognitivního systému, který překonává lidi ve své schopnosti vytvářet teorie a manipulovat s realitou. Když některá z těchto technologií dosáhne prahové úrovně sofistikovanosti nezbytnou k vytvoření nadlidské inteligence, je nejistá, ale řada odborníků, včetně Bostromu, citují data v rozmezí 2010–2030 jako pravděpodobné.
Protože singularita může být blíže, než by mnozí předpokládali, a protože počáteční motivace první nadlidské inteligence může určit osud našeho lidského druhu, někteří filozof-aktivisté („singularitarians“) považují nejen za téma pro spekulaci a diskusi, ale jako praktický inženýrský cíl v současné době v současnosti zaznamenává v současnosti. V roce 2000 tedy institut singularity pro umělé Intel Ligence byl založen Eliezer Yudkowsky, aby pracoval výhradně na tento cíl.