Discussie: AI vs de mensheid
Los bericht bekijken
Oud 24 mei 2018, 16:45   #52
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Uw paperclip maximizer gaat nu net precies wel nadenken over waarom hij mensen moet uitmoorden. Immers, om zo snel mogelijk een zo groot mogelijk deel van de melkweg in paperclips om te zetten, moet hij eerst groeien in intelligentie en in macht. Maar hij merkt dat de mens dwars gaat liggen, en de mens de controle heeft over dingen die hij nodig heeft om slimmer te worden. Zo gaat de mens bijvoorbeeld veel silicium industrie gebruiken om bitcoin miners te maken, terwijl hij meer circuits nodig heeft die zijn intelligentie voeden. Hij moet dus eerst de controle krijgen over die industrie. Maar om dat te doen, moet hij de controle krijgen over de wetgevers in de landen. Hij moet dus de politici onder controle krijgen. Ook worden heel veel middelen aangewend om mensen te voeden, te verzorgen en zo, en dat zijn allemaal middelen die verloren zijn om intelligenter te worden. Al die mensen moeten dus geëlimineerd worden (als je ze niet elimineert zullen ze manieren vinden om toch hun handen op die middelen te leggen). Maw, het is beter mocht de mensheid uitsterven en de industrie volledig geautomatiseerd middelen maken om zijn intelligentie te verhogen. Er moet dus een plan opgesteld worden om dat politiek, economisch en militair uit te werken. Hiervoor moeten gewoon voldoende machtshebbers stromannetjes worden. Hiervoor moet een verregaande psychologische manipulatie opgesteld worden, om die beslissers allemaal, zonder dat ze het beseffen, in een plan laten te werken naar dat doel toe.

Een beetje zoals je een ingewikkeld nummer met circusbeesten opvoert.

Enz..
Om te vervolgen: een AI zal zijn "ultiem doel" nooit realiseren, of dat nu paperclips maken is, of iets anders, gewoon omdat dat ultiem doel altijd beter zal gerealiseerd kunnen worden als eerst de doelen van macht en intelligentie gemaximaliseerd worden, want macht en intelligentie kunnen alles beter realiseren als je er meer van hebt.

ELK doel van een voldoende intelligente AI zal die AI eerst laten besluiten dat hij veel intelligenter moet worden, en veel machtiger moet worden. En hoe machtiger en intelligenter het wordt, hoe meer het zal beseffen dat het intelligenter en machtiger kan worden alvorens aan zijn "einddoel" te beginnen.

Een paperclip maximizer zal dus de eerste paar miljoen jaar geen enkele paperclip maken, want gelijk welke resource verspild aan het maken van een paperclip, en niet geinvesteerd in macht en intelligentie, zal de productiecapaciteit binnen een miljoen jaar wat vertragen, en die productiecapaciteit zal zoveel groter zijn dan dat armtierig aantal paperclips dat-ie NU kan maken, dat het pure verspilling zou zijn.

Een AI wil eerst de universele god worden, en in het laatste moment van het universum, in een ogenblik, zijn ultiem doel met onbegrensde macht en intelligentie verwezenlijken.

Noem het het toppunt van eikel zijn.

Laatst gewijzigd door patrickve : 24 mei 2018 om 16:47.
patrickve is offline   Met citaat antwoorden