Citaat:
Oorspronkelijk geplaatst door Der Wanderer
Dat 'domheden' of kortzichtigheden bij het programmeren heel snel tot ongewenste gevolgen kunnen leiden snap ik. We weten onszelf niet eens te plannen. Maar ik dacht dat A.I. nog altijd maximaal efficiënt opereerde binnen een bepaalde oorspronkelijk ingegeven doelstelling (en daarbinnen desnoods zichzelf 'verdedigt' en tot het uiterste gaat). Hoe zou A.I. plots autonoom doelen kunnen stellen? (Ik ben hier een totale leek in he.)
|
Zelfreflectie, zoals wij. Een AI die kan leren, zich kan aanpassen aan nieuwe situaties en die de mogelijkheid heeft om historische beslissingen te herevalueren, zou eveneens autonoom nieuwe doelen kunnen stellen.
Onze ingegeven doelstelling om maximaal efficient onze eigen genetische code te bewaren weerhoudt ons er ook niet van om autonoom nieuwe doelen te stellen.