Skip to main content

Wat is vriendelijke AI?

Vriendelijke AI is een term die wordt gebruikt door onderzoekers van kunstmatige intelligentie (AI) om te verwijzen naar AI -systemen die in het algemeen acties uitvoeren die nuttig zijn voor de mensheid in plaats van neutraal of schadelijk.Dit betekent geen blinde gehoorzaamheid - integendeel, de term wordt gebruikt om AI -systemen die vriendelijk zijn te beschrijven omdat ze willen zijn, niet vanwege een extern opgelegde kracht.Naast het verwijzen naar voltooide systemen, is vriendelijke AI ook de naam van de theoretische en technische discipline die zou worden gebruikt om dergelijke systemen met succes te creëren.

De term vriendelijke AI is ontstaan bij Eliezer Yudkowsky van het Singularity Institute for Artificial Intelligence, wiens doelis het creëren van vriendelijke AI slim genoeg om zijn eigen broncode te verbeteren zonder interventie van programmeur.Zijn boeklengte-werk over het onderwerp, Creating Friendly AI , online gepubliceerd in 2001, is waarschijnlijk de eerste rigoureuze behandeling van het onderwerp overal.Yudkowsky roept argumenten uit evolutionaire psychologie en andere cognitieve wetenschappen op om zijn benadering van het probleem van vriendelijke ai te ondersteunen.

Vriendelijke AI wordt als belangrijk geacht als een academische discipline omdat pogingen uit het verleden om het probleem van malafide AI te beantwoorden, in het algemeen strikte programmatische beperkingen oproepen, die zijnGebonden aan instorten onder alternatieve interpretaties, wanneer de AI slimmer wordt dan mensen, of gewoon wanneer het het vermogen krijgt om zichzelf te herprogrammeren.Anthropomorfisme is ook een probleem in AI.Omdat evolutie organismen bouwt die de neiging hebben egoïstisch te zijn, gaan veel denkers ervan uit dat elke AI die we bouwen dezelfde neiging zou hebben, hetzij onmiddellijk of nadat ze slim genoeg zijn geworden.

Evolutie bouwt organismen op met egocentrische doelsystemen omdat er geen andere manier is.Altruïstische doelsystemen hebben vele miljoenen jaren nodig gehad om te evolueren, en dat deed dit alleen onder omstandigheden waarin leden van dezelfde stam veel te winnen hadden door elkaar te helpen en veel te verliezen door te verwaarlozen.Maar als we helemaal opnieuw een geest zouden ontwerpen, zouden we het kunnen bouwen zonder een egocentrisch doelsysteem.Dit zou de AI niet beperken - het zou gewoon een AI creëren die van nature onzelfzuchtig is.

De bovenstaande observatie is een van de vele die bijdragen aan het veld van vriendelijke AI, die extreem nieuw is en nog steeds veel werk nodig heeft.Sommige AI -onderzoekers beweren dat we de ontwerpkenmerken niet kunnen bepalen die nodig zijn om vriendelijke AI te implementeren totdat we slimmer AI -systemen hebben om op te experimenteren.Anderen beweren dat een puur theoretische benadering niet alleen mogelijk is, maar ook ethisch noodzakelijk voordat een serieuze poging tot generaal AI begint.