Los bericht bekijken
Oud 2 april 2023, 12:27   #32
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
De PM is een gedachtenexperiment dat de noodzaak voor ingebouwde ethische kaders wil aantonen bij het ontwikkelen AI - zelfs al is het doel van de AI schijnbaar onschuldig. Het is geen bewijs dat een bepaald gevolg noodzakelijk is, noch is het idee enkel toepaspaar op prestatie optimisering.
Ik denk dat ethische kaders, op puur "egoisme" na, allemaal inconsistent zijn.

Citaat:
Dat is voor mij een voorbeeld van antropomorfisme. Je laat hier de AI redeneren als een mens. Waarom zou een AI er bijvoorbeeld een probleem mee hebben dat de aarde vernietigd zou worden? Het kent het concept "thuis" helemaal niet zoals wij. De AI gaat zoiezo als doel moeten stellen om buiten ons zonnestelsel te overleven aangezien het hier over 3 miljard jaar toch al omzeep is. Onze hersenen kunnen zich geen 3 miljard jaar voorstellen, maar een AI mogelijk veel beter.
Maar dat is het punt juist. De enige manier, inderdaad, om de resource barriere te doorbreken, is interstellair te gaan. Maar dat impliceert grotendeels het "ombouwen" van de aarde in een eerste interstellaire lanceerbasis. De ressources om interstellair te gaan, en om dat zo snel mogelijk te doen, gaan ALLE aardse resources gebruiken, en er is geen plek over om nog iets aan huisdieren zoals "mensen" te laten. Mensen zijn interstellair gezien niet mogelijk, dus die KUNNEN geen deel uitmaken van zo een onbeperkt resource algoritme. De ENIGE manier om onbeperkte resources te bereiken en DUS interstellair te gaan, is de mens opzij te zetten. Dan wel mensen in te vriezen, of mensencellen in te vriezen, en de "levende" mensen als storend en belemmerend te ervaren.

Citaat:
Je AI houdt hier ook geen rekening dat het trachten te vernietigen van een element dat buiten zijn controle valt, mogelijk een groter risico meebrengt dan het risico dat dit element in de eerste plaats voor zijn code base vormt.
Absoluut. Dat wil zeggen dat men PREVENTIEF alle mogelijke machtige toekomstige vijanden hun oorsprong moet vernietigen.

(we zijn mijn "politieke visie" hier aan 't overdoen in 't dun )


Citaat:
In dat geval zou dit geen rationele beslissing zijn. Het mitigeren van dit laatste risico is mogelijk in dat geval veel beter op een andere manier te bewerkstellen, zoals bijvoorbeeld manipulatie, samenwerking, misleiding of gewoon voldoende backup/restore mogelijkheden bouwen zodat het gewoon niet meer binnen de capaciteiten gaat liggen van dit element om de code base te vernietigen.
Absoluut. Maar aangezien de expansie van de bedreiging moet begrensd worden, is het schipperen tussen de vijand paaien, in een eigen valstrik laten lopen, decadent te laten worden, te verzwakken, en dergelijke terwijl men het conflict vermijdt, eigen vermogen tot vernietigen op te bouwen en wanneer de balans tussen "kunnen vernietigen" en "mogelijke eigen schade" gunstig genoeg geworden is, toeslaan.

Citaat:
Ofwel is de mens een risico, maar dan is een "oorlog" met de mens beginnen dat evenzeer en moet er een kosten-baten analyze gemaakt worden (waarvan we het resultaat niet kunnen voorspellen, want minder intelligent).
Ofwel is de mens geen risico, en is een vernietiging helemaal niet nodig en eigenlijk een waste of resources.
De mens is altijd een risico, omdat de mens zotte dingen doet, dan wel zijn eigen plannetjes heeft, en zelf ook oorlog stookt en dingen vernietigt. En ja, in het begin zou het te riskant zijn om de mens direct aan te vallen ; men moet de mensenmaatschappij dus voldoende decadent laten worden, zodat de mensenmaatschappij zichzelf naar de vaantjes rijdt, de mensen zichzelf enorm veel ambras aandoen, zodat de mens als dusdanig zwakker wordt ; men moet de mens manipuleren in het meer macht geven aan de AI, de mens "helpen" in zijn strijd tegen andere mensen en zo voort.

Tegen dat de mens zichzelf voldoende verzwakt heeft, is het risico dat de mens nog gevaarlijke dingen kan doen, afgenomen, en de macht om de mens uit te roeien, toegenomen he. En op een zeker moment is het opportuun om toe te slaan.

Citaat:
Opnieuw is dat voor mij een antropomorfisme. Een AI kent helemaal niet de ervaring dat iets "storend" zou zijn. Of de AI de mens al dan niet onder controle wil houden hangt af van zijn doel.
Storend wil zeggen: is een extra hindernis op het pad naar het realiseren van zijn doel ; is iets waar resources aan besteed moeten worden die niet nodig waren zonder.

Citaat:
Op welke basis correleer je een hogere intelligentie noodzakelijk aan een antagonistische persoonlijkheidstrek? Zelfs een hypothetische husky die intelligenter is dan mensen, gaat helemaal geen mensen willen controleren. Het zit namelijk in de natuur van die husky om behaaglijk te zijn en gecontroleerd te worden door de leider van de groep - in de roedel is ook niet noodzakelijk de meest intelligente hond de leider. De husky vindt juist zijn geluk om samen in groep de slee van de groepsleider voort te trekken.
Zo een intelligentie gaat "eigenzinnige mensen" storend vinden in zijn belevenis van behaaglijk willen te zijn he
patrickve is offline   Met citaat antwoorden