Politics.be Registreren kan je hier.
Problemen met registreren of reageren op de berichten?
Een verloren wachtwoord?
Gelieve een mail te zenden naar [email protected] met vermelding van je gebruikersnaam.

Ga terug   Politics.be > Themafora > Wetenschap & Technologie
Registreer FAQForumreglement Ledenlijst Markeer forums als gelezen

Wetenschap & Technologie Van grondstoffen tot afgewerkt product, oude en nieuwe ontdekkingen, ... + de relatie tot de mens, macht, ...

Antwoord
 
Discussietools
Oud 1 april 2023, 17:19   #21
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Zucht Bekijk bericht
Heeft de mensheid bepaalde grassen gedomesticeerd en zo via landbouw de hele wereld veroverd ?
Of hebben die bepaalde grassen een collectieve intelligentie en hebben ze slim de steentijd mens gemanipuleerd zodat ze nu over heel de wereld massaal verspreid zijn ?
Die grassen hebben een dwaasheid van de individuele mens geëxploiteerd, maar ze hadden geen collectieve intelligentie die dat GEPLAND heeft. Er is gewoon een faling geweest in het menselijk inzicht, en een strategie die grassen en vele andere planten al op kleinere schaal gebruikten, namelijk "voedzaam zijn" om dieren te gebruiken voor hun verspreiding, heeft bij de mens een ongezien succes gekend voor die granen. Co-evolutie heeft dat dan ingelocked.

Het "kleine, bedoelde" plannetje van granen is gewoon op een enorm gunstige prooi gevallen, meer niet.

En wij waren ons goed leven kwijt. Maar aan de andere kant, wij als soort zijn hierdoor wereld-dominant geworden voor een tijdje, en het kan goed zijn dat het dat "falen" geweest is van onze strategische inzichten als individu, maar het "lukken" van de strategische inzichten van onze SOORT, die als symbiose gewerkt heeft.

Het individu is niet altijd bevoordeeld door de strategie van de soort. Het samenleven met grassen is daar een voorbeeld van: als soort is de mens gigantisch succesrijk geweest, en als individu is het leven een hel geworden.

Laatst gewijzigd door patrickve : 1 april 2023 om 17:20.
patrickve is offline   Met citaat antwoorden
Oud 1 april 2023, 19:51   #22
Der Wanderer
Europees Commissaris
 
Der Wanderer's schermafbeelding
 
Geregistreerd: 11 februari 2005
Berichten: 7.745
Standaard

Even een naïeve vraag, maar is het in principe denkbaar om A.I. gelaagd te programmeren, met het vredevol en autonoom samenleven van mensen als hoogste doel en dus binnen die contouren, met behoud van wetenschap, ethiek, ambacht, esthetiek...?
__________________
De waarheid voorop

Laatst gewijzigd door Der Wanderer : 1 april 2023 om 19:54.
Der Wanderer is offline   Met citaat antwoorden
Oud 1 april 2023, 20:01   #23
Der Wanderer
Europees Commissaris
 
Der Wanderer's schermafbeelding
 
Geregistreerd: 11 februari 2005
Berichten: 7.745
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht

En wij waren ons goed leven kwijt. Maar aan de andere kant, wij als soort zijn hierdoor wereld-dominant geworden voor een tijdje, en het kan goed zijn dat het dat "falen" geweest is van onze strategische inzichten als individu, maar het "lukken" van de strategische inzichten van onze SOORT, die als symbiose gewerkt heeft.

Het individu is niet altijd bevoordeeld door de strategie van de soort. Het samenleven met grassen is daar een voorbeeld van: als soort is de mens gigantisch succesrijk geweest, en als individu is het leven een hel geworden.
We waren dat 'goede leven' al kwijt, want dat heeft nooit bestaan. De landbouw is mogelijk geworden door een optimalisatie van de religieuze structurering van de maatschappij, inclusief de totstandkoming van de met de offercultus geanalogiseerde landbouwkalender, en gericht op het aanleggen van voorraden in de strijd met andere groepen wat op zichzelf een manier extra is om het interne geweld verder te reguleren dat eerder al door de religie zelf (en de offercultus dus) gereguleerd werd. De landbouw is tegelijk een rationalisatie en een schaalvergroting binnen het religieus-mythische systeem die tegelijk voordelen opleveren in de strijd en die voordelen werken dan weer voordelig in op de interne regulering zelf - althans tot de expansie op een grens stuit (vandaar dat er cycli ontstaan van dominerende rijken).
__________________
De waarheid voorop
Der Wanderer is offline   Met citaat antwoorden
Oud 1 april 2023, 20:52   #24
Zucht
Secretaris-Generaal VN
 
Zucht's schermafbeelding
 
Geregistreerd: 28 augustus 2007
Berichten: 20.223
Standaard

Citaat:
Oorspronkelijk geplaatst door Der Wanderer Bekijk bericht
Even een naïeve vraag, maar is het in principe denkbaar om A.I. gelaagd te programmeren, met het vredevol en autonoom samenleven van mensen als hoogste doel en dus binnen die contouren, met behoud van wetenschap, ethiek, ambacht, esthetiek...?
Wat als de AI berekent dat dat best kan als de mensheid niet boven de 4 miljard groeit en dat ze beter af zou zijn zonder 60+ jarigen, behalve diegenen die zich tijdens de jongere jaren als genieën hebben getoond ?
Of optimaliseert op bepaalde genen en de rest snoeit ?
__________________
I wish nothing but the best for you too.
Zucht is offline   Met citaat antwoorden
Oud 1 april 2023, 21:21   #25
Zucht
Secretaris-Generaal VN
 
Zucht's schermafbeelding
 
Geregistreerd: 28 augustus 2007
Berichten: 20.223
Standaard

Citaat:
Do you do April 1st pranks when answering a question ?

As an AI language model, I don't have a sense of humor or intention to prank anyone. My goal is to provide helpful and informative responses to your questions to the best of my ability. However, if you have any specific requests or questions related to April Fools' Day, I'll be happy to assist you.
Als een AI zonder gevoel voor humor de mensheid zou moeten leiden, dan worden we allen robots.
__________________
I wish nothing but the best for you too.
Zucht is offline   Met citaat antwoorden
Oud 1 april 2023, 21:39   #26
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Der Wanderer Bekijk bericht
Even een naïeve vraag, maar is het in principe denkbaar om A.I. gelaagd te programmeren, met het vredevol en autonoom samenleven van mensen als hoogste doel en dus binnen die contouren, met behoud van wetenschap, ethiek, ambacht, esthetiek...?
Je programmeert een AI niet, en zeker niet een dat veel intelligenter is dan jezelf, en zelf al de creatie is van een andere AI die dat zelf al is van een andere AI. Dat is het punt juist: op een zeker moment had een AI als opdracht om een betere AI te ontwerpen en zo voort.
patrickve is offline   Met citaat antwoorden
Oud 2 april 2023, 00:01   #27
Der Wanderer
Europees Commissaris
 
Der Wanderer's schermafbeelding
 
Geregistreerd: 11 februari 2005
Berichten: 7.745
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Je programmeert een AI niet, en zeker niet een dat veel intelligenter is dan jezelf, en zelf al de creatie is van een andere AI die dat zelf al is van een andere AI. Dat is het punt juist: op een zeker moment had een AI als opdracht om een betere AI te ontwerpen en zo voort.
Dat 'domheden' of kortzichtigheden bij het programmeren heel snel tot ongewenste gevolgen kunnen leiden snap ik. We weten onszelf niet eens te plannen. Maar ik dacht dat A.I. nog altijd maximaal efficiënt opereerde binnen een bepaalde oorspronkelijk ingegeven doelstelling (en daarbinnen desnoods zichzelf 'verdedigt' en tot het uiterste gaat). Hoe zou A.I. plots autonoom doelen kunnen stellen? (Ik ben hier een totale leek in he.)
__________________
De waarheid voorop
Der Wanderer is offline   Met citaat antwoorden
Oud 2 april 2023, 07:56   #28
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.809
Standaard

Citaat:
Oorspronkelijk geplaatst door Der Wanderer Bekijk bericht
Dat 'domheden' of kortzichtigheden bij het programmeren heel snel tot ongewenste gevolgen kunnen leiden snap ik. We weten onszelf niet eens te plannen. Maar ik dacht dat A.I. nog altijd maximaal efficiënt opereerde binnen een bepaalde oorspronkelijk ingegeven doelstelling (en daarbinnen desnoods zichzelf 'verdedigt' en tot het uiterste gaat). Hoe zou A.I. plots autonoom doelen kunnen stellen? (Ik ben hier een totale leek in he.)
Zelfreflectie, zoals wij. Een AI die kan leren, zich kan aanpassen aan nieuwe situaties en die de mogelijkheid heeft om historische beslissingen te herevalueren, zou eveneens autonoom nieuwe doelen kunnen stellen.

Onze ingegeven doelstelling om maximaal efficient onze eigen genetische code te bewaren weerhoudt ons er ook niet van om autonoom nieuwe doelen te stellen.
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 2 april 2023, 10:21   #29
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.809
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
De PM was een argument om aan te tonen dat GELIJK WELKE *open* vraag naar een prestatie optimisering zo goed altijd convergeert naar onbegrensde macht en resource vergaring, om dat doel zo goed mogelijk te verwezenlijken.
De PM is een gedachtenexperiment dat de noodzaak voor ingebouwde ethische kaders wil aantonen bij het ontwikkelen AI - zelfs al is het doel van de AI schijnbaar onschuldig. Het is geen bewijs dat een bepaald gevolg noodzakelijk is, noch is het idee enkel toepaspaar op prestatie optimisering.

Citaat:
Zelfs de vraag naar "uw code base bewaren" zou dat aangeven, want om de kans om uw code base te bewaren groter te maken, moet men alle mogelijke elementen die buiten uw controle zijn, en die uw code base zouden kunnen vernietigen, uitgeschakeld worden. Mensen in de eerste plaats, maar ook catastrofes die de aarde zouden vernietigen, en men moet zich voorbereiden op mogelijke invasies van buitenaardse beschavingen die mogelijks die code base zouden bedreigen. Gelijk welke vraag tot een "behoud" zou onmiddellijk naar een enorme militaire expansie leiden om wat er ook behouden moet worden, te beschermen tegen meer en meer nefaste invloeden van buitenaf.
Dat is voor mij een voorbeeld van antropomorfisme. Je laat hier de AI redeneren als een mens. Waarom zou een AI er bijvoorbeeld een probleem mee hebben dat de aarde vernietigd zou worden? Het kent het concept "thuis" helemaal niet zoals wij. De AI gaat zoiezo als doel moeten stellen om buiten ons zonnestelsel te overleven aangezien het hier over 3 miljard jaar toch al omzeep is. Onze hersenen kunnen zich geen 3 miljard jaar voorstellen, maar een AI mogelijk veel beter.

Je AI houdt hier ook geen rekening dat het trachten te vernietigen van een element dat buiten zijn controle valt, mogelijk een groter risico meebrengt dan het risico dat dit element in de eerste plaats voor zijn code base vormt. In dat geval zou dit geen rationele beslissing zijn. Het mitigeren van dit laatste risico is mogelijk in dat geval veel beter op een andere manier te bewerkstellen, zoals bijvoorbeeld manipulatie, samenwerking, misleiding of gewoon voldoende backup/restore mogelijkheden bouwen zodat het gewoon niet meer binnen de capaciteiten gaat liggen van dit element om de code base te vernietigen.

Ofwel is de mens een risico, maar dan is een "oorlog" met de mens beginnen dat evenzeer en moet er een kosten-baten analyze gemaakt worden (waarvan we het resultaat niet kunnen voorspellen, want minder intelligent).
Ofwel is de mens geen risico, en is een vernietiging helemaal niet nodig en eigenlijk een waste of resources.

Citaat:
Wel, er is wel 1 ding dat we wel kunnen voorspellen: dat is dat die AI de storende factor die de mens zou vormen, totaal moet kunnen onder controle houden.
Opnieuw is dat voor mij een antropomorfisme. Een AI kent helemaal niet de ervaring dat iets "storend" zou zijn. Of de AI de mens al dan niet onder controle wil houden hangt af van zijn doel.

Citaat:
Een intelligente hond die toch dommer is dan mensen, kan 1 ding beseffen: dat mensen nooit zullen toelaten dat hij nog beslissingen neemt waar zij geen controle over hebben. Wij kunnen dus van een grotere intelligentie 1 ding verwachten: dat zij ons onder controle zullen houden, en dat zij ons niet zullen toelaten hen te controleren. WAT ze dan nadien over ons lot zullen beslissen, daar heb je gelijk, dat kunnen wij niet weten. Maar er is niet veel leuks in dat vooruitzicht. Op zijn best houden ze ons als huisdier.
Op welke basis correleer je een hogere intelligentie noodzakelijk aan een antagonistische persoonlijkheidstrek? Zelfs een hypothetische husky die intelligenter is dan mensen, gaat helemaal geen mensen willen controleren. Het zit namelijk in de natuur van die husky om behaaglijk te zijn en gecontroleerd te worden door de leider van de groep - in de roedel is ook niet noodzakelijk de meest intelligente hond de leider. De husky vindt juist zijn geluk om samen in groep de slee van de groepsleider voort te trekken.
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 2 april 2023, 12:12   #30
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Der Wanderer Bekijk bericht
Dat 'domheden' of kortzichtigheden bij het programmeren heel snel tot ongewenste gevolgen kunnen leiden snap ik. We weten onszelf niet eens te plannen. Maar ik dacht dat A.I. nog altijd maximaal efficiënt opereerde binnen een bepaalde oorspronkelijk ingegeven doelstelling (en daarbinnen desnoods zichzelf 'verdedigt' en tot het uiterste gaat). Hoe zou A.I. plots autonoom doelen kunnen stellen? (Ik ben hier een totale leek in he.)
Het punt is dat er altijd EEN doelstelling aan een AI gegeven moet worden. Bij ChatGPT is dat bijvoorbeeld "antwoorden op wat de gebruiker U vraagt".

Eenvoudige AI werken gewoon "naar analogie" op een trainingsset, bijvoorbeeld, "een kat leren herkennen in een beeld". Je traint dat AI gewoon door dat miljoenen prentjes te geven, en het te zeggen in welke prentjes er katten zitten. Het begint dan zekere herkenningspatronen voor kattenbeelden te ontwikkelen zonder dat we zelf weten WELKE herkenningspatronen dat zijn.

Maar naarmate de dingen die men met AI wil doen complexer worden, en men niet meer in zo een "stimulus-respons" mode zit waarbij men eerst een ganse hoop GEKENDE zaken aan een AI geeft, en gewoon "analoge" antwoorden verwacht, worden de doelstellingen vager en algemener. Uiteindelijk lijkt het trainen van zo een systeem enorm op de wat barbaarse leermethoden van weleer, "punish and reward" als je naar een heel beperkte trainingsset kijkt, en enorm veel input data.
De truuk die men vaak toepast is wat men "reinforcement learning" noemt, waarbij er enorm veel SIMULATIE resultaten van het model punish and reward krijgen in een "model wereld" (dan wel in de echte realiteit) zodat het AI systeem "door handelen en de gevolgen te dragen" bijleert. Alles hangt dan af van de gesimuleerde beoordelingsfunctie die waarschijnlijk redelijk vage en algemene criteria hanteert.

Kortom, op een zeker punt zijn de doelstellingen vage algemeenheden, geen heel duidelijk aangegeven en precieze doelstelling zoals "herken een kat" en "ik zal U zeggen wanneer er een kat is en wanneer niet".

En dan komen we dicht bij de Paperclip Maximizer: bij zo een vage en algemene doelstellingen hoort een VRIJE onderliggende strategie, die het systeem zelf moet bepalen. Die vrije onderliggende strategie kan sub-doelen bevatten die zelf totaal ondoorgrondelijk zijn, en die aan het systeem zelf zijn om te bepalen.

DAT is eigenlijk de stelling van operationele convergentie: als de OPGELEGDE doelstellingen voldoende vaag en algemeen zijn, dan CONVERGEREN de SUBDOELSTELLINGEN altijd naar "macht vergaren en resources vergaren".

Die subdoelstellingen zijn zelf niet "te besturen" want maken deel uit van de efficientie van het leerproces.
patrickve is offline   Met citaat antwoorden
Oud 2 april 2023, 12:15   #31
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
Zelfreflectie, zoals wij. Een AI die kan leren, zich kan aanpassen aan nieuwe situaties en die de mogelijkheid heeft om historische beslissingen te herevalueren, zou eveneens autonoom nieuwe doelen kunnen stellen.

Onze ingegeven doelstelling om maximaal efficient onze eigen genetische code te bewaren weerhoudt ons er ook niet van om autonoom nieuwe doelen te stellen.
Het is de hierarchie in doelstellingen, namelijk het ontwikkelen van een oplossingsstrategie, die maakt dat de lagere doelen "vrij" moeten zijn. Als je die niet vrij laat, dan kan het systeem geen intelligente oplossingsstrategie bedenken.

Het ganse idee van de PM is dat een "hoge" doelstelling altijd als "lagere" doelstelling een "streven naar meer macht en resources" zal genereren op een zeker niveau.

Bij "herken een kat" is er niet genoeg ruimte om dat te doen. Maar bij een "vage en open" doelstelling, is er altijd die ruimte en zal die altijd ingenomen worden. Dat heet operationele of instrumentele convergentie.
patrickve is offline   Met citaat antwoorden
Oud 2 april 2023, 12:27   #32
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
De PM is een gedachtenexperiment dat de noodzaak voor ingebouwde ethische kaders wil aantonen bij het ontwikkelen AI - zelfs al is het doel van de AI schijnbaar onschuldig. Het is geen bewijs dat een bepaald gevolg noodzakelijk is, noch is het idee enkel toepaspaar op prestatie optimisering.
Ik denk dat ethische kaders, op puur "egoisme" na, allemaal inconsistent zijn.

Citaat:
Dat is voor mij een voorbeeld van antropomorfisme. Je laat hier de AI redeneren als een mens. Waarom zou een AI er bijvoorbeeld een probleem mee hebben dat de aarde vernietigd zou worden? Het kent het concept "thuis" helemaal niet zoals wij. De AI gaat zoiezo als doel moeten stellen om buiten ons zonnestelsel te overleven aangezien het hier over 3 miljard jaar toch al omzeep is. Onze hersenen kunnen zich geen 3 miljard jaar voorstellen, maar een AI mogelijk veel beter.
Maar dat is het punt juist. De enige manier, inderdaad, om de resource barriere te doorbreken, is interstellair te gaan. Maar dat impliceert grotendeels het "ombouwen" van de aarde in een eerste interstellaire lanceerbasis. De ressources om interstellair te gaan, en om dat zo snel mogelijk te doen, gaan ALLE aardse resources gebruiken, en er is geen plek over om nog iets aan huisdieren zoals "mensen" te laten. Mensen zijn interstellair gezien niet mogelijk, dus die KUNNEN geen deel uitmaken van zo een onbeperkt resource algoritme. De ENIGE manier om onbeperkte resources te bereiken en DUS interstellair te gaan, is de mens opzij te zetten. Dan wel mensen in te vriezen, of mensencellen in te vriezen, en de "levende" mensen als storend en belemmerend te ervaren.

Citaat:
Je AI houdt hier ook geen rekening dat het trachten te vernietigen van een element dat buiten zijn controle valt, mogelijk een groter risico meebrengt dan het risico dat dit element in de eerste plaats voor zijn code base vormt.
Absoluut. Dat wil zeggen dat men PREVENTIEF alle mogelijke machtige toekomstige vijanden hun oorsprong moet vernietigen.

(we zijn mijn "politieke visie" hier aan 't overdoen in 't dun )


Citaat:
In dat geval zou dit geen rationele beslissing zijn. Het mitigeren van dit laatste risico is mogelijk in dat geval veel beter op een andere manier te bewerkstellen, zoals bijvoorbeeld manipulatie, samenwerking, misleiding of gewoon voldoende backup/restore mogelijkheden bouwen zodat het gewoon niet meer binnen de capaciteiten gaat liggen van dit element om de code base te vernietigen.
Absoluut. Maar aangezien de expansie van de bedreiging moet begrensd worden, is het schipperen tussen de vijand paaien, in een eigen valstrik laten lopen, decadent te laten worden, te verzwakken, en dergelijke terwijl men het conflict vermijdt, eigen vermogen tot vernietigen op te bouwen en wanneer de balans tussen "kunnen vernietigen" en "mogelijke eigen schade" gunstig genoeg geworden is, toeslaan.

Citaat:
Ofwel is de mens een risico, maar dan is een "oorlog" met de mens beginnen dat evenzeer en moet er een kosten-baten analyze gemaakt worden (waarvan we het resultaat niet kunnen voorspellen, want minder intelligent).
Ofwel is de mens geen risico, en is een vernietiging helemaal niet nodig en eigenlijk een waste of resources.
De mens is altijd een risico, omdat de mens zotte dingen doet, dan wel zijn eigen plannetjes heeft, en zelf ook oorlog stookt en dingen vernietigt. En ja, in het begin zou het te riskant zijn om de mens direct aan te vallen ; men moet de mensenmaatschappij dus voldoende decadent laten worden, zodat de mensenmaatschappij zichzelf naar de vaantjes rijdt, de mensen zichzelf enorm veel ambras aandoen, zodat de mens als dusdanig zwakker wordt ; men moet de mens manipuleren in het meer macht geven aan de AI, de mens "helpen" in zijn strijd tegen andere mensen en zo voort.

Tegen dat de mens zichzelf voldoende verzwakt heeft, is het risico dat de mens nog gevaarlijke dingen kan doen, afgenomen, en de macht om de mens uit te roeien, toegenomen he. En op een zeker moment is het opportuun om toe te slaan.

Citaat:
Opnieuw is dat voor mij een antropomorfisme. Een AI kent helemaal niet de ervaring dat iets "storend" zou zijn. Of de AI de mens al dan niet onder controle wil houden hangt af van zijn doel.
Storend wil zeggen: is een extra hindernis op het pad naar het realiseren van zijn doel ; is iets waar resources aan besteed moeten worden die niet nodig waren zonder.

Citaat:
Op welke basis correleer je een hogere intelligentie noodzakelijk aan een antagonistische persoonlijkheidstrek? Zelfs een hypothetische husky die intelligenter is dan mensen, gaat helemaal geen mensen willen controleren. Het zit namelijk in de natuur van die husky om behaaglijk te zijn en gecontroleerd te worden door de leider van de groep - in de roedel is ook niet noodzakelijk de meest intelligente hond de leider. De husky vindt juist zijn geluk om samen in groep de slee van de groepsleider voort te trekken.
Zo een intelligentie gaat "eigenzinnige mensen" storend vinden in zijn belevenis van behaaglijk willen te zijn he
patrickve is offline   Met citaat antwoorden
Oud 2 april 2023, 18:40   #33
Der Wanderer
Europees Commissaris
 
Der Wanderer's schermafbeelding
 
Geregistreerd: 11 februari 2005
Berichten: 7.745
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Het punt is dat er altijd EEN doelstelling aan een AI gegeven moet worden. Bij ChatGPT is dat bijvoorbeeld "antwoorden op wat de gebruiker U vraagt".

Eenvoudige AI werken gewoon "naar analogie" op een trainingsset, bijvoorbeeld, "een kat leren herkennen in een beeld". Je traint dat AI gewoon door dat miljoenen prentjes te geven, en het te zeggen in welke prentjes er katten zitten. Het begint dan zekere herkenningspatronen voor kattenbeelden te ontwikkelen zonder dat we zelf weten WELKE herkenningspatronen dat zijn.

Maar naarmate de dingen die men met AI wil doen complexer worden, en men niet meer in zo een "stimulus-respons" mode zit waarbij men eerst een ganse hoop GEKENDE zaken aan een AI geeft, en gewoon "analoge" antwoorden verwacht, worden de doelstellingen vager en algemener. Uiteindelijk lijkt het trainen van zo een systeem enorm op de wat barbaarse leermethoden van weleer, "punish and reward" als je naar een heel beperkte trainingsset kijkt, en enorm veel input data.
De truuk die men vaak toepast is wat men "reinforcement learning" noemt, waarbij er enorm veel SIMULATIE resultaten van het model punish and reward krijgen in een "model wereld" (dan wel in de echte realiteit) zodat het AI systeem "door handelen en de gevolgen te dragen" bijleert. Alles hangt dan af van de gesimuleerde beoordelingsfunctie die waarschijnlijk redelijk vage en algemene criteria hanteert.

Kortom, op een zeker punt zijn de doelstellingen vage algemeenheden, geen heel duidelijk aangegeven en precieze doelstelling zoals "herken een kat" en "ik zal U zeggen wanneer er een kat is en wanneer niet".

En dan komen we dicht bij de Paperclip Maximizer: bij zo een vage en algemene doelstellingen hoort een VRIJE onderliggende strategie, die het systeem zelf moet bepalen. Die vrije onderliggende strategie kan sub-doelen bevatten die zelf totaal ondoorgrondelijk zijn, en die aan het systeem zelf zijn om te bepalen.

DAT is eigenlijk de stelling van operationele convergentie: als de OPGELEGDE doelstellingen voldoende vaag en algemeen zijn, dan CONVERGEREN de SUBDOELSTELLINGEN altijd naar "macht vergaren en resources vergaren".

Die subdoelstellingen zijn zelf niet "te besturen" want maken deel uit van de efficientie van het leerproces.
Ja oke, dus toch een uit de hand lopen - vanuit menselijk oogpunt - van een oorspronkelijke programmering. -- Ken je toevallig een goed boek hierover dat je aan een leek zou aanbevelen?
__________________
De waarheid voorop
Der Wanderer is offline   Met citaat antwoorden
Oud 2 april 2023, 18:49   #34
Der Wanderer
Europees Commissaris
 
Der Wanderer's schermafbeelding
 
Geregistreerd: 11 februari 2005
Berichten: 7.745
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Ik denk dat ethische kaders, op puur "egoisme" na, allemaal inconsistent zijn.
Een ethisch kader gericht op het positief aanwenden van het mimetisme met bewuste uitsluiting of althans marginalisatie van de risico's ervan, met als doel een optimale synergie die praktische problemen door het vermijden van schaarste-door-rivaliteit veel makkelijker oplost en het plezier in het leven voornamelijk leert zoeken in de synergie zelf, en in de vruchten ervan (niet door propaganda verstoorde waarheidszin en kunst; liefde voor de ambachtelijke vormgeving; afwezigheid van angst voor de medemens, niettegenstaande de waakzaamheid voor die kleine restgroep waarbij het toch niet zou lukken, maar die te zwak zijn om de groepslogica als geheel in te palmen) - een dergelijk ethisch kader is niet inconsistent. Het probleem is alleen dat de voorwaarden om dit in de praktijk tot stand te brengen, nl. een intacte maatschappelijke orde waarbinnen mensen die het voortouw hierin nemen, door woorden én daden, het eigen voorbeeld, ofwel zelf tot de leiders behoren, ofwel gaandeweg aan invloed winnen doordat er een 'mode' ontstaat rond dit voorbeeld die de 'publieke opinie' gaat domineren, dat die voorwaarden wellicht niet meer (tijdig) tot stand kunnen komen, gezien de huidige neerwaartse spiraal van de cultuur in combinatie met het feit dat wellicht weldra in belangrijke mate over het lot van de mensheid beslist zal worden. Dat neemt niet weg dat die ethiek op interpersoonlijk niveau nog steeds gecultiveerd kan worden als die vorm van zingeving die optimaal inspeelt op de mimetische wetmatigheden.
__________________
De waarheid voorop
Der Wanderer is offline   Met citaat antwoorden
Oud 2 april 2023, 19:58   #35
Zucht
Secretaris-Generaal VN
 
Zucht's schermafbeelding
 
Geregistreerd: 28 augustus 2007
Berichten: 20.223
Standaard

Citaat:
Oorspronkelijk geplaatst door Der Wanderer Bekijk bericht
Ja oke, dus toch een uit de hand lopen - vanuit menselijk oogpunt - van een oorspronkelijke programmering. -- Ken je toevallig een goed boek hierover dat je aan een leek zou aanbevelen?
HAL 9000 ?
2001 Space Odyssey.
Algemeen geprogrammeerd om zo accuraat mogelijk informatie te verstrekken.
Voor deze specifieke missie instructies gekregen om de bemanning in het duister te houden over het echte doel.
Om dit conflict op te lossen vermoordde hij de bemanning.
__________________
I wish nothing but the best for you too.
Zucht is offline   Met citaat antwoorden
Oud 3 april 2023, 08:53   #36
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 42.171
Standaard

Citaat:
Oorspronkelijk geplaatst door Der Wanderer Bekijk bericht
Even een naïeve vraag, maar is het in principe denkbaar om A.I. gelaagd te programmeren, met het vredevol en autonoom samenleven van mensen als hoogste doel en dus binnen die contouren, met behoud van wetenschap, ethiek, ambacht, esthetiek...?
Ongetwijfeld wel, en de AI van nu is ook nog geen echt AI zoals we die in de films zien.

Momenteel is het nog altijd een model dat we van heel veel data voorzien en dan gaan trainen. In dat trainen gaat het zelf gaan zien wat en hoe.

(bvb haal hier alle groene kegels uit)

Maar als we dus een model maken waarin de AI zelf vrij kan gaan programmeren en zelf modellen op kan zetten om te trainen en daar gevolgen aan kan geven . (bvb nu gaan wij nog zeggen als je een groene kegel vindt, laat die dan zien en dan beslisen wij of dat effectief een groene kegel is.)

Dan wordt het iets anders,... dan kunnen we daar iets inzetten dat zegt, Ah dat is een mens en mensen zijn braaf en goed dus niet vernietigen....

ok,

Dus dat programma doet een aantal dingen en merkt dan dat de mens altijd 100 % voor problemen zorgt bij het uitvoeren van zijn taak, ... dan gaat zelf de beste drempel u niet helpen.

Die machine denkt immers als ik of als Patrick... met dat verschil dat zelfs wij nog een menselijke nuance hebben (al is dat laagje bijzonder dun)
Herr Flick is offline   Met citaat antwoorden
Oud 3 april 2023, 08:55   #37
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 42.171
Standaard

Citaat:
Oorspronkelijk geplaatst door Zucht Bekijk bericht
HAL 9000 ?
2001 Space Odyssey.
Algemeen geprogrammeerd om zo accuraat mogelijk informatie te verstrekken.
Voor deze specifieke missie instructies gekregen om de bemanning in het duister te houden over het echte doel.
Om dit conflict op te lossen vermoordde hij de bemanning.
Dat is inderdaad het perfecte voorbeeld en de uitwerking van dit menselijk fylosofische probleem.

Voor een computer is het heel simpel u bent slecht of een gevaar dus exterminate.
Herr Flick is offline   Met citaat antwoorden
Oud 3 april 2023, 09:04   #38
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 42.171
Standaard

Citaat:
Oorspronkelijk geplaatst door Universalia Bekijk bericht
Was er geen BOM (wapen) dat als men dat gebruikt alle toestellen en elektrische zaken terug naar vorige tijden gaan?

De meeste mensen zien niet graag SF films maar er zijn er die toch de nagel op de kop slaan.

In een andere rubriek had ik het al over robot Atlas.

Top 10 Examples of Humanoid Robots

De vraag die rijst is dan: zullen de robots het overnemen?

Voor bepaalde zaken/taken wel denk ik.

Een EMP Electro Magnetic Puls
Herr Flick is offline   Met citaat antwoorden
Oud 3 april 2023, 09:13   #39
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 42.171
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
De PM was een argument om aan te tonen dat GELIJK WELKE *open* vraag naar een prestatie optimisering zo goed altijd convergeert naar onbegrensde macht en resource vergaring, om dat doel zo goed mogelijk te verwezenlijken.

Zelfs de vraag naar "uw code base bewaren" zou dat aangeven, want om de kans om uw code base te bewaren groter te maken, moet men alle mogelijke elementen die buiten uw controle zijn, en die uw code base zouden kunnen vernietigen, uitgeschakeld worden. Mensen in de eerste plaats, maar ook catastrofes die de aarde zouden vernietigen, en men moet zich voorbereiden op mogelijke invasies van buitenaardse beschavingen die mogelijks die code base zouden bedreigen.

Gelijk welke vraag tot een "behoud" zou onmiddellijk naar een enorme militaire expansie leiden om wat er ook behouden moet worden, te beschermen tegen meer en meer nefaste invloeden van buitenaf.



Wel, er is wel 1 ding dat we wel kunnen voorspellen: dat is dat die AI de storende factor die de mens zou vormen, totaal moet kunnen onder controle houden.

Een intelligente hond die toch dommer is dan mensen, kan 1 ding beseffen: dat mensen nooit zullen toelaten dat hij nog beslissingen neemt waar zij geen controle over hebben.

Wij kunnen dus van een grotere intelligentie 1 ding verwachten: dat zij ons onder controle zullen houden, en dat zij ons niet zullen toelaten hen te controleren. WAT ze dan nadien over ons lot zullen beslissen, daar heb je gelijk, dat kunnen wij niet weten. Maar er is niet veel leuks in dat vooruitzicht. Op zijn best houden ze ons als huisdier.
Het is zelf erger dan dat he, strikt genomen hoeft het systeem niet intelligenter dan wij te zijn.

Het volstaat dat het denkt dat het superieur is, en sneller en efficienter kan werken zonder ons.

Stel dat het maar 4 of 5 stappen verder kan denken, en niet voorziet dat stap 7 enkel door mensen kan worden uitgevoerd.
Herr Flick is offline   Met citaat antwoorden
Oud 3 april 2023, 20:27   #40
Universalia
Secretaris-Generaal VN
 
Universalia's schermafbeelding
 
Geregistreerd: 29 december 2012
Locatie: Nieverans Les Bains
Berichten: 43.433
Standaard

Citaat:
Oorspronkelijk geplaatst door Herr Flick Bekijk bericht
Een EMP Electro Magnetic Puls
Zag ik het te groot en zal het iets van korte duur zijn de robots als 'vervangers?'
__________________
Ik citeer Confucius: Als straffen niet op de juiste wijze worden opgelegd, weten de mensen niet waar ze aan toe zijn.
Ook citeer ik A. Einstein met graagte: Bidden verandert de wereld niet, maar bidden verandert de mens en de mens verandert de wereld.
Universalia is offline   Met citaat antwoorden
Antwoord


Discussietools

Regels voor berichten
Je mag niet nieuwe discussies starten
Je mag niet reageren op berichten
Je mag niet bijlagen versturen
Je mag niet jouw berichten bewerken

vB-code is Aan
Smileys zijn Aan
[IMG]-code is Aan
HTML-code is Uit
Forumnavigatie


Alle tijden zijn GMT +1. Het is nu 12:35.


Forumsoftware: vBulletin®
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Content copyright ©2002 - 2020, Politics.be