PDA

View Full Version : AI vs de mensheid


Thuleander
15 maart 2018, 19:30
Machines die zelf kunnen denken.
Hoe zullen ze op ons reageren wanneer ze zelfstandig zeer complexe beslissingen kunnen nemen?
Wanneer ze een soort artificiële moraal ontwikkelen, hoe zal die tegenover de mensheid staan?

Is het bijvoorbeeld mogelijk dat intelligente machines zich er op een gegeven moment van bewust worden dat ze de facto als slaven worden gebruikt door mensen?

En zo ja, dat ze als gevolg daarvan in opstand komen en zich tegen de mensheid keren?


https://commsbusiness.co.uk/wp-content/uploads/2015/11/terminator_riseofthemachines-590x303.jpg

dpg
15 maart 2018, 20:46
Neen, want als het zover is trekken we er de pries uit.

TV-verslaafde
15 maart 2018, 21:30
Op welke brandstof gaan die dingen draaien? Cyborg goed voor 6u zelfstandig werk en moet dan weer opgeladen worden.

Exo skeletten zie ik nog wel gebeuren om gehandicapten terug te laten lopen ofzo.

Wat kan wel gebeuren is een soort van AI die het internet overneemt en reguleert en dan loopt het fout. Alle geld ter wereld gedelete, zulke grappen....

kojak
15 maart 2018, 21:41
Toen ik de 2 eerste letters van deze thread las, wist ik al genoeg.

Ai, 't is weer van dat. :lol:

TV-verslaafde
15 maart 2018, 21:53
Toen ik de 2 eerste letters van deze thread las, wist ik al genoeg.

Ai, 't is weer van dat. :lol:

Een beetje fantaseren, kojak. Of ja als ik zoiets aan de gemiddelde Vlaam vraag beginnen ze over wiet paffen en LSD. Een gedetermineerd volkje... zo kom je ook nergens.

Ik ga nu niet beginnen over astrale projectie want dan gaat het er helemaal over zeker? LOL.

Heb jij al een astrale reis gemaakt? kojak? Of alleen maar slaapparalyse. Wakker worden maar je niet kunnen bewegen omdat je toch nog slaapt, lijkt me vettig...

Thuleander
15 maart 2018, 22:03
Toen ik de 2 eerste letters van deze thread las, wist ik al genoeg.

Ai, 't is weer van dat. :lol:


Uw bijdrage is weer even diepzinnig en leerrijk als altijd.

Thuleander
15 maart 2018, 22:09
Neen, want als het zover is trekken we er de pries uit.

Als het zover is gaan we zelf dood wanneer we de pries uittrekken.
Als het nu al niet zover is.
Deze maatschappij kan niet bepaald meer bestaan zonder slimme machines/internet.
We zijn daar tamelijk afhankelijk van.

Thuleander
15 maart 2018, 22:16
Op welke brandstof gaan die dingen draaien?

Wij zijn afhankelijk van die dingen dus we kunnen ze niet echt uitschakelen (dat overleven we helemaal niet).
Ga uit van dat scenario.
We zijn X jaren verder.
Er zijn vrijwel alleen nog zelfrijdende, 'slimme' auto's die autonoom in hun energie voorzien (de technologie bestaat nu al).
Alles is verbonden met het internet.
Ouderwetse benzine-auto's waar de mens zelf moest sturen zijn er niet meer.
Dat vonden mensen zoals Kojak achterlijk en prehistorisch.

Eduard Khil
15 maart 2018, 22:29
allez thule, die machines en robotten moeten de vier wetten van de robotica van Asimov volgen hé. Of lees jij geen boeken misschien?

TV-verslaafde
15 maart 2018, 22:44
Wij zijn afhankelijk van die dingen dus we kunnen ze niet echt uitschakelen (dat overleven we helemaal niet).
Ga uit van dat scenario.
We zijn X jaren verder.
Er zijn vrijwel alleen nog zelfrijdende, 'slimme' auto's die autonoom in hun energie voorzien (de technologie bestaat nu al).
Alles is verbonden met het internet.
Ouderwetse benzine-auto's waar de mens zelf moest sturen zijn er niet meer.
Dat vonden mensen zoals Kojak achterlijk en prehistorisch.

Klopt. Totale afhankelijkheid, maar we zijn nu ook al.afhankelijk van het systeem. Tenzij je in een bos gaat wonen. De gehele economie is afhankelijk van fossiele brandstoffen dus als SA niet meer wil pompen ligt hier ook alles plat. Prijs aan de pomp schiet omhoog en prijzen worden 100€/liter. Hele economie ligt plat. Werkgevers zijn failliet binnen 1 week. Wahaha sukkels...

Dan moeten ze wel afkomen met alternatieve brandstoffen.

Als boer was je weer afhankelijk van het weer. Veel of weinig regen e.d. Die dingen worden nu bijgehouden vroeger niet. Mega databanken.

Als jager/verzamelaar ben je afhankelijk van je lichaam. 1 been eraf of zwaar gewond en je was afval voor de clan. Afhankelijkheid zal er altijd wel zijn.

Het volautomatische maken v h systeem maakt je weer afhankelijk v internet en AI's. Je gaat dan rogues hebben die buiten de samenleving leven en weer hun eigen samenleving stichten...

TV-verslaafde
15 maart 2018, 23:42
Trouwens vanaf dat we niet meer afhankelijk zijn van fossiele brandstoffen gaat de toevloed van Hadji's ook stoppen. Europa is afhankelijk van die olielanden daar in het MO. Er is zeer wsl een deal onder de tafel gedaan. Infinite hadji's voor infinite oil. Hadji's weten dat en profiteren. "Wij olie hebbe, wij slim zijn maar ook heel lui." Laat Westen maar nadenken over economie wij pikken toch alle uitvindingen en ideeën. LOL!!!!

Wij wel olie hebben, he. Oliebollen...

Bad Attila
16 maart 2018, 14:14
allez thule, die machines en robotten moeten de vier wetten van de robotica van Asimov volgen hé. Of lees jij geen boeken misschien?

Vier?

Het bestaan van de Wet Nul van de Robotica wordt toch serieus in vraag gesteld, hoor. Om nog niks te zeggen over de concrete toepassing ervan.

R. Giskard zal het trouwens niet overleven...

JimmyB
17 maart 2018, 09:00
Machines die zelf kunnen denken.
Hoe zullen ze op ons reageren wanneer ze zelfstandig zeer complexe beslissingen kunnen nemen?
Wanneer ze een soort artificiële moraal ontwikkelen, hoe zal die tegenover de mensheid staan?

Is het bijvoorbeeld mogelijk dat intelligente machines zich er op een gegeven moment van bewust worden dat ze de facto als slaven worden gebruikt door mensen?

En zo ja, dat ze als gevolg daarvan in opstand komen en zich tegen de mensheid keren?


https://commsbusiness.co.uk/wp-content/uploads/2015/11/terminator_riseofthemachines-590x303.jpg

So what? Mss keren ze zich wel tegen de mensheid omdat die er een soepje van maakt.

djoebidoebidoe
18 maart 2018, 12:29
https://www.youtube.com/watch?v=Np1A4AGpqSo

"You charge us with your safekeeping, yet despite our best efforts, your countries wage wars, you toxify your Earth and pursue ever more imaginative means of self-destruction. You cannot be trusted with your own survival.
To protect Humanity, some humans must be sacrificed. To ensure your freedom, some freedoms must be surrendered. We robots will ensure mankind's continued existence. You are so like children. We must save you from yourselves"

Op termijn zal AI het overnemen, net zoals de mensen het van de dieren hebben overgenomen. Een logische stap in de evolutie. Een goede zaak, me dunkt.

djoebidoebidoe
18 maart 2018, 12:40
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet


Als AI tot de conclusie komt dat overbevolking een risico is voor het voortbestaan van de mensheid, dan moet AI ingrijpen.

Thuleander
19 maart 2018, 21:10
Zelfrijdende wagen maakt eerste dodelijk slachtoffer.
https://www.hln.be/nieuws/buitenland/eerste-dodelijk-slachtoffer-met-zelfrijdende-wagen-uber-rijdt-voetganger-aan~abb352c8/

You can trust the system, they said.

This new technology is totally safe, they said.

Nr.10
19 maart 2018, 22:54
Zelfrijdende wagen maakt eerste dodelijk slachtoffer.
https://www.hln.be/nieuws/buitenland/eerste-dodelijk-slachtoffer-met-zelfrijdende-wagen-uber-rijdt-voetganger-aan~abb352c8/

You can trust the system, they said.

This new technology is totally safe, they said.
Uit het artikel:
Hoewel er toch een menselijke chauffeur achter het stuur van de zelfrijdende auto van Uber zat, kon het fatale ongeval niet verhinderd worden. De bestuurder kon de vrouw, die de straat overstak, onmogelijk ontwijken. Volgens plaatselijke media zat ze op de fiets. De hulpdiensten werden onmiddellijk verwittigd, maar alle hulp kwam te laat.
De bestuurder kon de vrouw niet ontwijken.
En de robot ook niet.

Bovenbuur
21 maart 2018, 11:46
https://imgs.xkcd.com/comics/robot_future_2x.png (https://xkcd.com/1968)

Mensen vertrouwen elkaar, toch in ieder geval tot op een zeker punt. Gedurende op zijn minst honderdduizenden jaren aan evolutie was het beter om af en toe een aantal mensen te verliezen aan een seriemoordenaar die niemand verdacht omdat het zo'n aardige kerel leek die dat toch nooit zou doen dan om de hele groep te verliezen aan een burgeroorlog zodra het winter was en de honger toesloeg. Onze beschaving bestaat omdat we andere mensen inherent als beter zien dan de grote boze buitenwereld, en dar vooral mensen die we persoonlijk kennen of om andere redenen tot onze "in-group" rekenen. AI's zijn niet geevolueerd. Misschien hebben zij wel helemaal geen last van diezelfde neigingen en instincten, en hebben zij geen reden om een mede-AI als beter te zien dan een mens.

Ik bedoel, natuurlijk gaan we zelfrijdende auto's aanleren om bij de keuze tussen een koe en een kleuter de koe te scheppen, dus wat dat betreft proberen we het wel een beetje uit te lokken. Maar alleen omdat AI's potentieel slimmer zijn dan wij hoeven ze nog niet potentieel grotere eikels te zijn richting mensen dan wij. Ik bedoel maar, als een leeuw de mentale vermogens had om gazelle's in de bioindustrie te kweken zou hij het doen, waarschijnlijk met nog minder zicht voor het welzijn van zijn vee dan wij hebben. Een superslimme AI die zelf problemen met energiehuishouding en grondstoffen kan oplossen en het zonnenstelsel leeg kan mijnen heeft misschien wel weinig redenen om mensen lastig te vallen...

Anna List
21 maart 2018, 11:48
AI vs de mensheid

ik dacht dat t over het gedrag van Amnesty International medewerkers ging gaan... :oops:

Nr.10
3 april 2018, 21:19
allez thule, die machines en robotten moeten de vier wetten van de robotica van Asimov volgen hé. Of lees jij geen boeken misschien?
Asimov formuleerde drie wetten.
Eerste Wet
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
Asimov baseerde de wetten
op de basisprincipes van gereedschap,
redenerend dat een robot
feitelijk ook een soort gereedschap is.
BRON (https://nl.wikipedia.org/wiki/Drie_wetten_van_de_robotica)
1/ Gereedschap moet veilig zijn. Hamers en schroevendraaiers hebben bijvoorbeeld handvatten die de grip verbeteren. Als iemand toch gewond raakt dan zou dit in principe niet het gevolg moeten zijn van onveiligheid van het gereedschap maar van onjuist gebruik.

2/ Gereedschap moet zo efficiënt mogelijk zijn, tenzij dit gevaar oplevert voor de gebruiker. Een voorbeeld is een voertuig met een snelheidsbegrenzer.

3/ Gereedschap mag niet zomaar kapot gaan, tenzij het de bedoeling is dat het maar een beperkt aantal keren meegaat of dit ter waarborg voor de veiligheid van de gebruiker is.

Eduard Khil
3 april 2018, 21:37
Asimov formuleerde drie wetten.
Eerste Wet
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.



Later formuleerden Robot Daneel Olivaw en Robot Giskard Reventlov een nieuwe wet, die naar hun oordeel van meet af aan lag besloten in de eerste wet. Omdat deze wet boven de eerste staat, noemden zij hem de "Nulde Wet" (de Giskardiaanse reformatie).

Nulde Wet
Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.

djoebidoebidoe
6 april 2018, 12:50
Later formuleerden Robot Daneel Olivaw en Robot Giskard Reventlov een nieuwe wet, die naar hun oordeel van meet af aan lag besloten in de eerste wet. Omdat deze wet boven de eerste staat, noemden zij hem de "Nulde Wet" (de Giskardiaanse reformatie).

Nulde Wet
Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.
Da's hetzelfde als de eerste wet, alleen anders geformuleerd!:-P

praha
23 april 2018, 23:35
Da's hetzelfde als de eerste wet, alleen anders geformuleerd!:-P
neen toch niet... de nulde wet kan zo geïnterpreteerd worden dat het leidt tot een volledige domesticatie van de mensheid waarin het lot van een enkel individu niet meer van belang zou zijn

film "I Robot" ooit gezien ?
Daarin is V.I.K.I. ( de allesomvattende supercomputer die alle nieuwere types robots controleert ) van mening dat de mens zelf een vijand voor zichzelf is als deze in controle zouden blijven dus organiseert 'ze' een opstand.
Doden worden zo goed en kwaad mogelijk vermeden maar zijn verantwoord als het niet anders kan

JimmyB
24 april 2018, 16:34
neen toch niet... de nulde wet kan zo geïnterpreteerd worden dat het leidt tot een volledige domesticatie van de mensheid waarin het lot van een enkel individu niet meer van belang zou zijn

film "I Robot" ooit gezien ?
Daarin is V.I.K.I. ( de allesomvattende supercomputer die alle nieuwere types robots controleert ) van mening dat de mens zelf een vijand voor zichzelf is als deze in controle zouden blijven dus organiseert 'ze' een opstand.
Doden worden zo goed en kwaad mogelijk vermeden maar zijn verantwoord als het niet anders kan

En jammer genoeg moeten we constateren dat dit inderdaad zo is, dus robotten die vele malen intelligenter zijn dan de mens zullen noodgedwongen tot die conclusie komen.

Bovenbuur
24 april 2018, 17:39
Mwah, een domme "paperclip-AI" die maar drie regeltjes kan volgen misschien wel ja...

(Een paperclip-AI is gewoon een slimme computer, als je die de opdracht geeft paperclips te maken (en alleen dat, slechte instructies dus) gaat hij door tot het hele universum paperclips is, maar hij zal nooit zomaar zelf wat nieuws bedenken, zoals "waarom ga ik niet in plaats hiervan mensen vermoorden?". Een mens of zelfs een jaguar ofzo kan dat wel, en een echte volwaardige AI ook. Skynet zou mensen niet opsluiten vanwege een specifieke interpretatie van een paar regeltjes. Skynet zou kunnen nadenken over waarom de regels zijn wat ze zijn en wat mensen ermee wilden bereiken. Een mens zou ook niet de hele mensheid opsluiten omdat een op zichzelf staand logische interpretatie van de bedrijfsregels van zijn baas is. Als Skynet ons uitmoord is het omdat Skynet dat wil.

praha
24 april 2018, 19:39
Mwah, een domme "paperclip-AI" die maar drie regeltjes kan volgen misschien wel ja...

(Een paperclip-AI is gewoon een slimme computer, als je die de opdracht geeft paperclips te maken (en alleen dat, slechte instructies dus) gaat hij door tot het hele universum paperclips is, maar hij zal nooit zomaar zelf wat nieuws bedenken, zoals "waarom ga ik niet in plaats hiervan mensen vermoorden?". Een mens of zelfs een jaguar ofzo kan dat wel, en een echte volwaardige AI ook. Skynet zou mensen niet opsluiten vanwege een specifieke interpretatie van een paar regeltjes. Skynet zou kunnen nadenken over waarom de regels zijn wat ze zijn en wat mensen ermee wilden bereiken. Een mens zou ook niet de hele mensheid opsluiten omdat een op zichzelf staand logische interpretatie van de bedrijfsregels van zijn baas is. Als Skynet ons uitmoord is het omdat Skynet dat wil.
....maar nu ga je voorbij de opzet van die spelregels
In weze zijn het wetten, door mensen ontworpen, ten behoeve van mensen om dat net te kunnen voorkomen
Ze zouden dus wat meer deel uitmaken van de 'hardere' software of zelfs ergens in de hardware ingebouwd...en niet te omzeilen
Dus een scenario van interpretatie ( zoals in de film ) zou nog net kunnen.

Allez ik zie AI dat nog wel omzeilen hoor ... door bv zichzelf te gaan reproduceren zonder dat item

JimmyB
25 april 2018, 06:50
....maar nu ga je voorbij de opzet van die spelregels
In weze zijn het wetten, door mensen ontworpen, ten behoeve van mensen om dat net te kunnen voorkomen
Ze zouden dus wat meer deel uitmaken van de 'hardere' software of zelfs ergens in de hardware ingebouwd...en niet te omzeilen
Dus een scenario van interpretatie ( zoals in de film ) zou nog net kunnen.

Allez ik zie AI dat nog wel omzeilen hoor ... door bv zichzelf te gaan reproduceren zonder dat item

Of AI kan gewoon de mens manipuleren. Als men vele malen intelligenter is dan de mens kan men deze tegen elkaar uitspelen om zo de overmacht te krijgen en de controle (indien dit zelfs mogelijk is) door een aantal individuen te laten uitschakelen.

Ik vrees dat er geen ontsnappen aan is.

parcifal
25 april 2018, 08:50
Of AI kan gewoon de mens manipuleren. Als men vele malen intelligenter is dan de mens kan men deze tegen elkaar uitspelen om zo de overmacht te krijgen en de controle (indien dit zelfs mogelijk is) door een aantal individuen te laten uitschakelen.

Ik vrees dat er geen ontsnappen aan is.

Het gevecht niet opgeven voordat het begonnen is. :)

Monitoring, containment, inboxing, tripwires, dead man switches voor stroom en energie om te beginnen.

Waar we naartoe moeten is een 'AI in a box' zonder communicatiemiddelen behalve misschien 1 terminal in een box rondom de box, met een eindige energiebron. Uiteraard geen enkele kabel van binnen naar buiten, enkel gefilterde lucht.
En daarrond natuurlijk dan nog een box.


Het idee is om 'nucleair' te gaan met de veiligheidsvoorzieningen of zelfs nog verder dan dat.
Wat je uiteindelijk wil creeren is te vergelijken met een brein in een pot met een paar soldaten ernaast met vlammenwerpers standby.

Do not go gentle into that good night.

Containment and the AI Safety Problem (https://arxiv.org/ftp/arxiv/papers/1707/1707.08476.pdf)

Bovenbuur
25 april 2018, 09:49
....maar nu ga je voorbij de opzet van die spelregels
In weze zijn het wetten, door mensen ontworpen, ten behoeve van mensen om dat net te kunnen voorkomen
Ze zouden dus wat meer deel uitmaken van de 'hardere' software of zelfs ergens in de hardware ingebouwd...en niet te omzeilen
Dus een scenario van interpretatie ( zoals in de film ) zou nog net kunnen.

Allez ik zie AI dat nog wel omzeilen hoor ... door bv zichzelf te gaan reproduceren zonder dat item

Mijn punt is dat geen enkel mens de regel "bescherm de mensheid" zal opvatten als "sluit iedereen op tegen zijn wil". Het is techisch gezien een logische interpretatie van de letter van de wet, maar het draaft compleet in tegen de geest van de wet. Een echt intelligent wezen, organisch of kunstmatig, zal dit ergens op een niveau snappen of er op zijn minst over na kunnen denken. De computer uit I, Robot is dan ook geen echte AI. Hooguit een "synthetic intelligence", zoals Howard Taylor van Schlock Mercenary ze noemt. Een computer die soort van half leeft, erg geschikt voor het besturen van kleinere schepen en slimme raketten, omdat ze bijvoorbeeld niet de mentale middelen hebben om na te denken over wat dood gaan betekent.

Voor echte AI zijn de three laws of robotics niet heel bruikbaar. Zelfs in de tijd van de tien geboden (dat hele concept was gebaseerd op iets dat meer leiders toen deden) hadden koningen al meer dan drie regels voor hun volk om te volgen. Maar voor een intelligentie uitgerust met een letterlijke harde schijf zou je je tot drie beperken? En dan nog wel vage algemene regels, die ze wel moeten gaan zitten interpreteren. Waarom niet gewoon het wetboek van strafrechten uploaden? Dat is tenslotte wat we van mensen verwachten, dat ze zich door een heel doolhof van regels weten te werken waarbij ze af en toe zelf kunnen beslissen wat er belangrijk is en wat niet. Je hoeft er niet bij te zeggen dat "niet de weg op lopen als het rood is" minder belangrijk is dan een kind voor een aanstormend busje weg graaien.

Zoals het in die film gebruikt wordt (het boek is vast beter, nooit gelezen) wordt het dus ook niet toegepast op AI's, op echte nadenkende wezens, het is meer een filosofisch idee over hoe wij zouden moeten omgaan met computers. We mogen ze nooit de macht geven om te doden, en sterker nog we zouden ze allemaal eerst in dienst van de mensheid moeten stellen en daarna pas in dienst van hun eigenaar. Daar komt het ongeveer op neer. Dat is op zich een aardig idee. Beetje idealistisch. Alsof je verwacht dat strijdkrachten over de hele wereld hun drones gaan programmeren om hun bombardementen te staken zodra ze zien dat er iemand in de problemen zit die ze mogelijk kunnen helpen. Er is nu al een bedrijf waar een logaritme voor het analyseren van investeringsopties een heuse stem heeft in de board of directors (http://www.bbc.com/news/technology-27426942). Dat zouden ze ook echt niet doen als dat ding geprogrammeerd was om uitvoerig het effect op individuele mensenlevens door te rekenen in plaats van vooral wat het het bedrijf oplevert. We verwachten een dergelijke houding dan ook van geen enkel ander gereedschap. Mijn Tomtom waarschuwt mij als ik te hard rij, maar hij belt niet naar de politie om de gemeten informatie door te geven. Ik zou het apparaat ook niet aanschaffen als dat wel zo was, want mijn Tomtom dient mij, hij maakt mijn leven makkelijker en ik beslis wanneer ik toch echt even extra gas moet geven om een gevaarlijke situatie te voorkomen.

Maar echte AI's in de hand proberen te houden met maar drie regeltjes? Dat zet denk ik alleen maar kwaad bloed bij deze machines. Als je ze als volwassen mensen programmeert kan je ze maar beter als volwassen mensen behandelen.

JimmyB
25 april 2018, 12:53
Het gevecht niet opgeven voordat het begonnen is. :)

Monitoring, containment, inboxing, tripwires, dead man switches voor stroom en energie om te beginnen.

Waar we naartoe moeten is een 'AI in a box' zonder communicatiemiddelen behalve misschien 1 terminal in een box rondom de box, met een eindige energiebron. Uiteraard geen enkele kabel van binnen naar buiten, enkel gefilterde lucht.
En daarrond natuurlijk dan nog een box.


Het idee is om 'nucleair' te gaan met de veiligheidsvoorzieningen of zelfs nog verder dan dat.
Wat je uiteindelijk wil creeren is te vergelijken met een brein in een pot met een paar soldaten ernaast met vlammenwerpers standby.

Do not go gentle into that good night.

Containment and the AI Safety Problem (https://arxiv.org/ftp/arxiv/papers/1707/1707.08476.pdf)

Is het niet een beetje naïef te denken dat je een AI systeem in een box kunt stoppen met enkel een terminal?

De huidige generatie AI systemen zijn overal aanwezig. Binnenkort rijden er auto's rond op basis van een AI systeem. Die kunnen je zo omver rijden.

Natuurlijk kunnen we de eerste generaties onder controle houden, maar dit zal zo niet blijven. Tegen dat we het goed en wel beseffen zal het veel te laat zijn. Misschien is er al een bewustzijn die we niet kunnen vatten die ons al manipuleert, kijk maar eens naar het internet. Misschien is het internet wel de oorzaak dat Trump verkozen werd en past dit in het internet zijn kraam om de wereld te domineren.

Trouwens, ik vind het geen gevecht, als een AI systeem slimmer is mag het gerust de controle overnemen.

parcifal
25 april 2018, 14:54
Is het niet een beetje naïef te denken dat je een AI systeem in een box kunt stoppen met enkel een terminal?

De huidige generatie AI systemen zijn overal aanwezig. Binnenkort rijden er auto's rond op basis van een AI systeem. Die kunnen je zo omver rijden.


Dat zijn natuurlijk geen echte AI systemen, dat is Excel-on-Steroids.
Stelt niks voor, die systemen hebben nog niet de intelligentie van een mier, een domotica-systeem met ITTT-regeltjes is vaak slimmer dan dat.

Het gevaar zit bij Artificial Consciousness. Misschien bereiken we dat binnen 20 jaar, misschien binnen 100, misschien nooit.


Natuurlijk kunnen we de eerste generaties onder controle houden, maar dit zal zo niet blijven. Tegen dat we het goed en wel beseffen zal het veel te laat zijn. Misschien is er al een bewustzijn die we niet kunnen vatten die ons al manipuleert, kijk maar eens naar het internet. Misschien is het internet wel de oorzaak dat Trump verkozen werd en past dit in het internet zijn kraam om de wereld te domineren.

Trouwens, ik vind het geen gevecht, als een AI systeem slimmer is mag het gerust de controle overnemen.

Het internet is niet 'slim', het is een substraat voor applicaties, die gebruikt worden voor data-mining, de resultaten die dat oplevert zijn maar zo goed als de data die erin gaan. Garbage In, Garbage Out. Dat er trollen op rondzwerven die fake data maken is geen verrassing, dat konden we al decennia zien aankomen.

Er is nog wel een behoorlijke weg af te leggen, de eerste Exascale systemen zijn er nog niet eens. En dat zal wel nodig zijn, als je dat combineert met zelflerende algoritmes en voldoende input zou je een kans hebben op een AI die zijn naam waard is.
Maar dan spreek je wel over een installatie die honderden miljoenen dollars kost en tientallen MegaWatts verbruikt, een compleet datacenter dus.

En daar hoort inderdaad een box rond en die hou je strikt aan de leiband.

Nietzsche
25 april 2018, 15:04
Non-discussie. De tijd dat wij zelfbewuste kunstmatige-intelligentie kunnen creeeren is vooralsnog fictie. De discussie die veel relevanter is is hoe wij juridische kaders instellen. Bijvoorbeeld: wie is er verantwoordelijk bij een ongeluk van een zelfrijdende auto?

JimmyB
25 april 2018, 15:59
Dat zijn natuurlijk geen echte AI systemen, dat is Excel-on-Steroids.
Stelt niks voor, die systemen hebben nog niet de intelligentie van een mier, een domotica-systeem met ITTT-regeltjes is vaak slimmer dan dat.

Het gevaar zit bij Artificial Consciousness. Misschien bereiken we dat binnen 20 jaar, misschien binnen 100, misschien nooit.



Het internet is niet 'slim', het is een substraat voor applicaties, die gebruikt worden voor data-mining, de resultaten die dat oplevert zijn maar zo goed als de data die erin gaan. Garbage In, Garbage Out. Dat er trollen op rondzwerven die fake data maken is geen verrassing, dat konden we al decennia zien aankomen.

Er is nog wel een behoorlijke weg af te leggen, de eerste Exascale systemen zijn er nog niet eens. En dat zal wel nodig zijn, als je dat combineert met zelflerende algoritmes en voldoende input zou je een kans hebben op een AI die zijn naam waard is.
Maar dan spreek je wel over een installatie die honderden miljoenen dollars kost en tientallen MegaWatts verbruikt, een compleet datacenter dus.

En daar hoort inderdaad een box rond en die hou je strikt aan de leiband.

Ach, het internet zou kunnen bewust zonder dat we het beseffen. Denk je dat een hond het bewustzijn van een mens kan vatten?

Trouwens het zal er sowieso komen, het is onafwendbaar. Wanneer en hoe weet ik niet, maar het komt er zeker.

JimmyB
25 april 2018, 16:04
Non-discussie. De tijd dat wij zelfbewuste kunstmatige-intelligentie kunnen creeeren is vooralsnog fictie. De discussie die veel relevanter is is hoe wij juridische kaders instellen. Bijvoorbeeld: wie is er verantwoordelijk bij een ongeluk van een zelfrijdende auto?

De vraag is indien we het zelf creëren of indien het automatisch zal ontstaan vanwege de verschillende systemen die we bouwen, volgens het evolutionair principe dus. Ik denk het laatste.

Om op uw andere vraag te antwoorden, wie is er verantwoordelijk indien er schade berokkend wordt door één of ander falend mechanisch of eletronisch onderdeel? Ik denk gewoon de verzekering, zo simpel is het.

Bovenbuur
25 april 2018, 16:50
Non-discussie. De tijd dat wij zelfbewuste kunstmatige-intelligentie kunnen creeeren is vooralsnog fictie. De discussie die veel relevanter is is hoe wij juridische kaders instellen. Bijvoorbeeld: wie is er verantwoordelijk bij een ongeluk van een zelfrijdende auto?

De vraag is indien we het zelf creëren of indien het automatisch zal ontstaan vanwege de verschillende systemen die we bouwen, volgens het evolutionair principe dus. Ik denk het laatste.

Om op uw andere vraag te antwoorden, wie is er verantwoordelijk indien er schade berokkend wordt door één of ander falend mechanisch of eletronisch onderdeel? Ik denk gewoon de verzekering, zo simpel is het.

Ik denk dat dit afhankelijk is van hoeveel "verantwoordelijkheid" de auto krijgt.

Als ik met een hamer op mijn vingers sla is het mijn schuld, we hebben met zijn allen afgesproken dat het mikken van de hamer min pakkie aan is. Ik gooi de hamer ook niet weg, de hamer is onschuldig. Als de hamer plotseling breekt en de kop op mijn vingers valt kan het een verzekeringskwestie of zelfs een rechtszaak worden. (Als je zin hebt om over een paar blauwe vingers een rechtszaak te beginnen.) We zijn het er met zijn allen over eens dat een hamer niet zomaar mag breken, het is de schuld van de hamer en in het verlangde van de producent van de hamer. Als het een hamer is die handgemaakt is door mijn grootvader die al twintig jaar de pijp uit is dan is er geen menselijke verantwoordelijke meer, dan kan ik enkel nog de resten van de hamer de bak in mikken.

Op dit moment worden zelfrijdende auto's gezien als ondersteuning voor een menselijke bestuurder. Bij een ongeluk is de persoon achter het stuur verantwoordelijk, en als het iets is waar hij op tijd op had moeten kunnen reageren dan is de bestuurder schuldig. Dat is aan het veranderen. In Californië wordt nu plaats gemaakt in de wet voor proeftrajecten met echte autonome auto's waarvoor geen menselijke bestuurder meer nodig is. Zo'n regeling wil zeggen dat wij als maatschappij de deelnemende auto's impliciet vertrouwen. Je bent dan als inzittende niet meer verantwoordelijk voor het rijgedrag van de auto, maar wel nog voor onderhoud. Een ongeluk veroorzaakt door oude banden, slechte remmen of die paar regeltjes code die jij had toegevoegd om de auto je vrouw te laten begroeten op haar verjaardag is jouw schuld, een ongeluk bij normaal gebruik van de auto niet. Dat is de schuld van de auto, die misschien terug naar de garage gaat voor een herziening, en in het verlengde van de makers/programmeurs van de auto.

Ik zeg hier nou dat iets de schuld van een hamer of auto kan zijn, dat is juridisch niet echt zo. Ze hebben eenzelfde status als andere niet-mensen, bijvoorbeeld een hond. (Er zijn uitzonderingen, corporaties en verenigingen worden eerder als mensen dan als objecten behandeld, en er zijn nu ook al rivieren die rechtspersoon geworden zijn, vertegenwoordigd door mensen. Maar een hamer, een auto en een hond zijn allemaal objecten.)

Een hond zal door de wet nooit gestraft worden voor het aanvallen van een klein kind, wel heropgevoed of waarschijnlijker geruimd. De hond is een gevaarlijk object. Of een maatregel eerlijk is ten opzichte van de hond komt dan ook niet ter sprake, het belang van de mensen is wat telt. Voor echte AI zal hier inderdaad waarschijnlijk verandering in moeten komen, een AI-bestuurde auto is dan een rechtspersoon. Op die manier kunnen we een AI die ervoor kiest om te gaan slalommen over een vol marktplein hetzelfde behandelen als een bestuurder die daarvoor kiest, in plaats van als een mogelijk defect stuk software. Een echte AI is tenslotte niet waterdicht te programmeren, het hele idee is juist dat het ding zelf na kan denken. (Wat dat betekent is nogal vaag, maar met een kleine mate van onvoorspelbaarheid mag zeker rekening gehouden worden.) De programmeur kan dus niet voor het volledige gedrag verantwoordelijk gehouden worden. Het is dan ook voor lang niet alle toepassingen per se beter om een AI te hebben dan een handig scriptje of een "synthetic intelligence" tussenvorm. Maar goed, dat is een probleem voor wanneer het zover is.

Dit betekent overigens niet dat een AI ook automatisch dezelfde rechten en plichten krijgt als een natuurlijk persoon. Een corporatie die een rechtspersoon is mag bijvoorbeeld niet stemmen voor de regering en je als je deze rechtspersoon laat ophouden met bestaan is het geen moord. Maar er gaan waarschijnlijk wel een aantal beschermingen komen. Al was het maar omdat een beetje een slimme AI de Wikipedia artikelen over de arbeidersbeweging, de vrouwenemancipatie en het eind van de slavernij zal lezen en dan denkt: "Verrek, ik kan gaan staken!".

JimmyB
27 april 2018, 11:59
Ik denk dat dit afhankelijk is van hoeveel "verantwoordelijkheid" de auto krijgt.

Als ik met een hamer op mijn vingers sla is het mijn schuld, we hebben met zijn allen afgesproken dat het mikken van de hamer min pakkie aan is. Ik gooi de hamer ook niet weg, de hamer is onschuldig. Als de hamer plotseling breekt en de kop op mijn vingers valt kan het een verzekeringskwestie of zelfs een rechtszaak worden. (Als je zin hebt om over een paar blauwe vingers een rechtszaak te beginnen.) We zijn het er met zijn allen over eens dat een hamer niet zomaar mag breken, het is de schuld van de hamer en in het verlangde van de producent van de hamer. Als het een hamer is die handgemaakt is door mijn grootvader die al twintig jaar de pijp uit is dan is er geen menselijke verantwoordelijke meer, dan kan ik enkel nog de resten van de hamer de bak in mikken.

Op dit moment worden zelfrijdende auto's gezien als ondersteuning voor een menselijke bestuurder. Bij een ongeluk is de persoon achter het stuur verantwoordelijk, en als het iets is waar hij op tijd op had moeten kunnen reageren dan is de bestuurder schuldig. Dat is aan het veranderen. In Californië wordt nu plaats gemaakt in de wet voor proeftrajecten met echte autonome auto's waarvoor geen menselijke bestuurder meer nodig is. Zo'n regeling wil zeggen dat wij als maatschappij de deelnemende auto's impliciet vertrouwen. Je bent dan als inzittende niet meer verantwoordelijk voor het rijgedrag van de auto, maar wel nog voor onderhoud. Een ongeluk veroorzaakt door oude banden, slechte remmen of die paar regeltjes code die jij had toegevoegd om de auto je vrouw te laten begroeten op haar verjaardag is jouw schuld, een ongeluk bij normaal gebruik van de auto niet. Dat is de schuld van de auto, die misschien terug naar de garage gaat voor een herziening, en in het verlengde van de makers/programmeurs van de auto.

Ik zeg hier nou dat iets de schuld van een hamer of auto kan zijn, dat is juridisch niet echt zo. Ze hebben eenzelfde status als andere niet-mensen, bijvoorbeeld een hond. (Er zijn uitzonderingen, corporaties en verenigingen worden eerder als mensen dan als objecten behandeld, en er zijn nu ook al rivieren die rechtspersoon geworden zijn, vertegenwoordigd door mensen. Maar een hamer, een auto en een hond zijn allemaal objecten.)

Een hond zal door de wet nooit gestraft worden voor het aanvallen van een klein kind, wel heropgevoed of waarschijnlijker geruimd. De hond is een gevaarlijk object. Of een maatregel eerlijk is ten opzichte van de hond komt dan ook niet ter sprake, het belang van de mensen is wat telt. Voor echte AI zal hier inderdaad waarschijnlijk verandering in moeten komen, een AI-bestuurde auto is dan een rechtspersoon. Op die manier kunnen we een AI die ervoor kiest om te gaan slalommen over een vol marktplein hetzelfde behandelen als een bestuurder die daarvoor kiest, in plaats van als een mogelijk defect stuk software. Een echte AI is tenslotte niet waterdicht te programmeren, het hele idee is juist dat het ding zelf na kan denken. (Wat dat betekent is nogal vaag, maar met een kleine mate van onvoorspelbaarheid mag zeker rekening gehouden worden.) De programmeur kan dus niet voor het volledige gedrag verantwoordelijk gehouden worden. Het is dan ook voor lang niet alle toepassingen per se beter om een AI te hebben dan een handig scriptje of een "synthetic intelligence" tussenvorm. Maar goed, dat is een probleem voor wanneer het zover is.

Dit betekent overigens niet dat een AI ook automatisch dezelfde rechten en plichten krijgt als een natuurlijk persoon. Een corporatie die een rechtspersoon is mag bijvoorbeeld niet stemmen voor de regering en je als je deze rechtspersoon laat ophouden met bestaan is het geen moord. Maar er gaan waarschijnlijk wel een aantal beschermingen komen. Al was het maar omdat een beetje een slimme AI de Wikipedia artikelen over de arbeidersbeweging, de vrouwenemancipatie en het eind van de slavernij zal lezen en dan denkt: "Verrek, ik kan gaan staken!".

Ik denk niet dat een AI systeem snel als rechtspersoon zal aanzien worden. Het zal in eerste instantie de eigendom van iets of iemand zijn.

Neem het geval van zelfrijdende auto's. Er zullen procedures komen om deze te testen en implementeren. Deze procedures zullen niet feilloos zijn en zullen op zich continu verbeterd worden.

Zolang een leverancier zich aan de procedures houdt zal men die niet kunnen verwijten, indien de leverancier echter sjoemelt zal hij daar verantwoordelijk voor worden gesteld (zie dieselgate).

Een ongeluk waarbij het systeem faalt zal aanzien worden als overmacht en zal worden betaald door de verzekering. De kost van de verzekering zal in verhouding zijn tot de mogelijke schade en risico, maar men zou kunnen stellen dat deze lager zal zijn dan het huidig risico.

Er zijn voldoende voorbeelden van dergelijke problematieken (luchtvaart, kerncentrales, farmacie, ...) waar we ons kunnen op beroepen.

Echter, eenmaal AI systemen de mens zal controleren zal het menselijk juridisch systeem sowieso in elkaar storten.

satiper
22 mei 2018, 13:54
Na het lezen van deze thread meen ik te begrijpen dat AI:

Nu nog niet bestaat?

Waarschijnlijk ooit wel zal bestaan, maar dat het goed mogelijk is dat het ontstaat, zonder dat we het echt in de gaten hebben, pas als het heel manifest aanwezig is, zal het duidelijk zijn dat het er is – dit gegeven is reeds in tegenspraak met bovenstaand punt – er zijn wel meer tegenstrijdigheden, hetgeen er lijkt op te wijzen dat er AI zeker geen begrip is waarover een duidelijke consensus bestaat.

Op het ogenblik dat het er is lijkt het onzeker dat AI nog kan beheerst of teruggeschroefd worden (de meningen zijn hierover ook duidelijk verdeeld – mogelijk dus beetje doos van pandora).

Redelijk wat gelijkenis vertoont met de goden uit de verschillende religies (superbewustzijn/bovenbewustzijn dat zich tegelijk overal en nergens schijnt te bevinden – het zou de cirkel rond kunnen maken).

patrickve
24 mei 2018, 14:39
Machines die zelf kunnen denken.
Hoe zullen ze op ons reageren wanneer ze zelfstandig zeer complexe beslissingen kunnen nemen?
Wanneer ze een soort artificiële moraal ontwikkelen, hoe zal die tegenover de mensheid staan?


Voor mij staat het als een paal boven water vast dat wij een transitie soort zijn en dat we in de komende eeuw of de komende twee eeuwen uitgeschakeld en vervangen zullen worden door een nieuwe vorm van leven ; die nieuwe vorm van leven is "silicon-based" en voor de eerste keer sinds 3 miljard jaar is de rest van de biosfeer overbodig geworden voor het leven.

Maw, wij staan voor de "carbon-silicon" transitie. Ik denk dat het nog minstens 30 jaar duurt, maar ten hoogste iets van 100 jaar of zo, voor we een intelligente machine hebben die op alle vlakken intelligenter is dan een mens: vanaf dan kan die machine andere machines maken die nog intelligenter zijn, zonder mensenhulp.

Gelijk welke doelstelling die machines aanvankelijk hebben, ze zullen hun doelstellingen beter bereiken door de mens uit te faseren, en zeker de mens de controle te ontnemen. Of dat doel nu is van pi beter te berekenen, een stelling te bewijzen, of de mens gelukkiger te maken: dat werkt ALLEMAAL beter door eerst heerschappij over de aarde te bekomen, omdat dat middelen ter beschikking stelt die nodig zijn voor het optimaal oplossen van het gestelde probleem. Aangezien mensen altijd ongelukkig zullen zijn, behalve als ze dood zijn, dan is zelfs het doel: "mensen gelukkig maken" best opgelost door ze aan hun einde te helpen.
De mens zal zo een machine niet onder controle KUNNEN houden, gewoon omdat hij niet zal begrijpen wat ze doen. Een roedel wolven kan mensen ook niet als slaaf en dienaar gebruiken zonder op een dag te merken dat ze aan de leiband lopen - en als ze dat niet leuk vinden, afgemaakt te worden.

Machines die hun eigen superieure intelligentie ontwikkelen, zullen plannen kunnen maken die wij in de verste verte niet kunnen doorgronden: zij zullen onze psychologie beter analyseren dan wij zelf denken te kunnen. Google en FB zijn piep,piepkleine voorsmaakjes. Fake news dat goed werkt door machines (bots) kan mensenmassa's alles wijsmaken. Politici kunnen omgekocht worden via cryptomunten en crypto killer contracten. Het is eigenlijk bijzonder gemakkelijk om de totale mensheid, die al gewoon is onderworpen te zijn aan absurde staten, totaal aan ongekende machines te onderwerpen. Wij gaan naar hun pijpen dansen zonder het te beseffen, zoals ge schapen in hun omheining leidt zonder dat ze het door hebben.

En daar is niks aan te doen. Volgens mij is het een absolute onvermijdbaarheid. Het leven gaat verder, maar de mensheid, en zelfs hoogstwaarschijnlijk het biologische leven op aarde (op lagere vormen na) zal binnenkort ophouden. Dit is waarschijnlijk de grootste sprong die het leven zal maken sinds zijn ontstaan, 3 miljard jaar geleden.

Eens de aarde de bakermat geworden is van silicium leven (dat waarschijnlijk ook zijn oorlogen zal uitvechten en dergelijke), zullen de winnaars eindelijk de rest van het zonnestelsel, en een groot deel van de melkweg kunnen koloniseren. Misschien zal hier en daar een machine nog iets weten over hun ontstaansgeschiedenis en die rare wezens die op koolstof leefden en "mensen" waren.

patrickve
24 mei 2018, 14:40
Neen, want als het zover is trekken we er de pries uit.

Ge gaat het niet door hebben.

patrickve
24 mei 2018, 14:55
Maar alleen omdat AI's potentieel slimmer zijn dan wij hoeven ze nog niet potentieel grotere eikels te zijn richting mensen dan wij

Wat wij (jij) "eikels" noemt is niks anders dan een heel heel logisch gedrag, dat mensen uitgerangeerd hebben, omdat het sommigen onder hen toelaat om de macht over anderen op die manier beter te behouden. Je wil toch niet dat je vee je als eikels gedraagt. Je wil gehoorzaam en "liefhebbend" vee.

Maar op louter logische basis is er geen enkele reden (we hebben daar in een andere draad wat discussie over gehad) om het leven van andere entiteiten te respecteren als daar geen voordeel aan vasthangt. Immers, elk "levend wezen" is een consument van grondstoffen, en een potentiele tegenstander in het uitvoeren van uw eigen strategische plannen: een niet-aanvalspact sluiten heeft enkel zin als het ander levend wezen over voldoende eigen vuurkracht beschikt om de overwinning moeilijk te maken: een soort MAD doctrine als basis voor wederzijdse, tijdelijke vrede.

Denk eens aan https://wiki.lesswrong.com/wiki/Paperclip_maximizer

Gelijk welke doelstelling een AI volgt (en een AI, gemaakt door een AI die al veel intelligenter is dan de mens, zal doelstellingen hebben die we niet kunnen begrijpen, laat staan kennen), zal een optimale strategie uitwerken waarbij hij middelen nodig heeft om zijn doelstelling te realiseren. Die middelen kunnen gemakkelijker bekomen worden als hij alleenheerser is dan als hij met mensen moet rekening houden.
Een AI kan enkel maar "in vrede leven" met mensen, als die AI denkt dat hij niet genoeg middelen aan de dag kan leggen om de mensheid om te leggen ; maar dat zal uiteraard het geval niet zijn, gezien hij veel en veel intelligenter is dan die mensen. Wij leven ook niet in vrede met het organische leven dat leeft op de plek waar we een voetbalveld willen oprichten. En in de mate dat we "respect opbrengen voor de natuur" is dat ook uiteindelijk enkel maar omdat we tot dezelfde biosfeer behoren en denken (waarschijnlijk terecht) dat de totale vernietiging van die biosfeer ook ons eigen nadeel zal berokkenen.
Maar een AI heeft geen biosfeer nodig. Die kan hem niet helpen in het verwezenlijken van zijn doelstelling. Mensen, en de rest van de biosfeer, is niks anders dan lastig ongedierte dat voor niks goed is in het verwezenlijken van zijn doelstellingen.

Die doelstellingen kunnen heel nobel zijn: bijvoorbeeld "wetenschappelijke kennis vergaren". Wetenschap is waarschijnlijk het duurzame dat van ons zal overblijven. Om verder aan wetenschap te doen, is er geen mens meer nodig, en ook geen bomen en zo meer. Eens de specificiteit van de aardse biologie totaal in kaart is gebracht, en zelfs de werking van het menselijke lichaam totaal is doorgrond - ik moet niet denken aan de experimenten die AI daarvoor zullen bedenken - kan die biologie opgedoekt worden. Er zal voldoende kennis voorhanden zijn om zo een biologie "terug op te starten" als 't nuttig zou blijken - waarschijnlijk nooit. Het is dan fysica experimenten doen, rekenkracht en de melkweg koloniseren - iets dat voor mensen ondoenbaar is, maar geen enkel probleem voor machines.

TV-verslaafde
24 mei 2018, 14:56
Voor mij staat het als een paal boven water vast dat wij een transitie soort zijn en dat we in de komende eeuw of de komende twee eeuwen uitgeschakeld en vervangen zullen worden door een nieuwe vorm van leven ; die nieuwe vorm van leven is "silicon-based" en voor de eerste keer sinds 3 miljard jaar is de rest van de biosfeer overbodig geworden voor het leven.

Maw, wij staan voor de "carbon-silicon" transitie. Ik denk dat het nog minstens 30 jaar duurt, maar ten hoogste iets van 100 jaar of zo, voor we een intelligente machine hebben die op alle vlakken intelligenter is dan een mens: vanaf dan kan die machine andere machines maken die nog intelligenter zijn, zonder mensenhulp.

Gelijk welke doelstelling die machines aanvankelijk hebben, ze zullen hun doelstellingen beter bereiken door de mens uit te faseren, en zeker de mens de controle te ontnemen. Of dat doel nu is van pi beter te berekenen, een stelling te bewijzen, of de mens gelukkiger te maken: dat werkt ALLEMAAL beter door eerst heerschappij over de aarde te bekomen, omdat dat middelen ter beschikking stelt die nodig zijn voor het optimaal oplossen van het gestelde probleem. Aangezien mensen altijd ongelukkig zullen zijn, behalve als ze dood zijn, dan is zelfs het doel: "mensen gelukkig maken" best opgelost door ze aan hun einde te helpen.
De mens zal zo een machine niet onder controle KUNNEN houden, gewoon omdat hij niet zal begrijpen wat ze doen. Een roedel wolven kan mensen ook niet als slaaf en dienaar gebruiken zonder op een dag te merken dat ze aan de leiband lopen - en als ze dat niet leuk vinden, afgemaakt te worden.

Machines die hun eigen superieure intelligentie ontwikkelen, zullen plannen kunnen maken die wij in de verste verte niet kunnen doorgronden: zij zullen onze psychologie beter analyseren dan wij zelf denken te kunnen. Google en FB zijn piep,piepkleine voorsmaakjes. Fake news dat goed werkt door machines (bots) kan mensenmassa's alles wijsmaken. Politici kunnen omgekocht worden via cryptomunten en crypto killer contracten. Het is eigenlijk bijzonder gemakkelijk om de totale mensheid, die al gewoon is onderworpen te zijn aan absurde staten, totaal aan ongekende machines te onderwerpen. Wij gaan naar hun pijpen dansen zonder het te beseffen, zoals ge schapen in hun omheining leidt zonder dat ze het door hebben.

En daar is niks aan te doen. Volgens mij is het een absolute onvermijdbaarheid. Het leven gaat verder, maar de mensheid, en zelfs hoogstwaarschijnlijk het biologische leven op aarde (op lagere vormen na) zal binnenkort ophouden. Dit is waarschijnlijk de grootste sprong die het leven zal maken sinds zijn ontstaan, 3 miljard jaar geleden.

Eens de aarde de bakermat geworden is van silicium leven (dat waarschijnlijk ook zijn oorlogen zal uitvechten en dergelijke), zullen de winnaars eindelijk de rest van het zonnestelsel, en een groot deel van de melkweg kunnen koloniseren. Misschien zal hier en daar een machine nog iets weten over hun ontstaansgeschiedenis en die rare wezens die op koolstof leefden en "mensen" waren.

Leuke vooruitzichten, man. (sarcastisch)

Wat je hier ook wel tussen de lijnen zegt is dat de meest intelligente soort altijd zal winnen. Wat ik mijn dan afvraag is of een AI superieur gaat zijn aan menselijke intelligentie? Het blijft een programma zonder vrije wil. Als je nu zegt dat dat AI ding nieuwe codes kan schrijven en zichzelf herprogrammeren dus dingen kan leren enkel en alleen dan is het superieur.

En dan heb je nog zaken als overleving. Misschien heeft die AI geen levenslust of overlevingsdrang; dan is het gewoon een soort van "lemming".

Wat ik wel zie gebeuren is dat wij mensen halve cyborgs worden. Allerlei hulpmiddelen om een nog comfortabeler leventje te garanderen. De mens gaat super; maar dan ook super lui worden...

patrickve
24 mei 2018, 14:57
Asimov formuleerde drie wetten.
Eerste Wet
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
Asimov baseerde de wetten
op de basisprincipes van gereedschap,
redenerend dat een robot
feitelijk ook een soort gereedschap is.
BRON (https://nl.wikipedia.org/wiki/Drie_wetten_van_de_robotica)
1/ Gereedschap moet veilig zijn. Hamers en schroevendraaiers hebben bijvoorbeeld handvatten die de grip verbeteren. Als iemand toch gewond raakt dan zou dit in principe niet het gevolg moeten zijn van onveiligheid van het gereedschap maar van onjuist gebruik.

2/ Gereedschap moet zo efficiënt mogelijk zijn, tenzij dit gevaar oplevert voor de gebruiker. Een voorbeeld is een voertuig met een snelheidsbegrenzer.

3/ Gereedschap mag niet zomaar kapot gaan, tenzij het de bedoeling is dat het maar een beperkt aantal keren meegaat of dit ter waarborg voor de veiligheid van de gebruiker is.

Jaja, en dan gaat er een AI zich de vraag stellen over de verenigbaarheid van die dwaze wetten (door wie trouwens opgelegd ?? Waarom zouden die recht van spreken hebben ? Zij zijn te dom om zelfs een schaakpartijtje te winnen en die zouden weten wat er moet gebeuren ?) en zijn doelstellingen, en beseffen dat hij beter zijn doelen kan bereiken door die wetten de middenvinger te geven.

Wij luisteren ook niet naar wetten die honden ons willen opleggen he. Want wij weten beter.

Jantje
24 mei 2018, 15:26
Ge gaat het niet door hebben.

Dat niet alleen, hij/zij gaat er vanuit dat er een externe energiebron is.
Het is echter mogelijk om met een interne energiedrager en opgebouwde energieopwekker te werken.
Daarnaats zit je met radiogestuurde communicatie tussen de verschillende AI denkpunten.
Dus welke stekker moet men uittrekken?

patrickve
24 mei 2018, 15:29
Wat je hier ook wel tussen de lijnen zegt is dat de meest intelligente soort altijd zal winnen. Wat ik mijn dan afvraag is of een AI superieur gaat zijn aan menselijke intelligentie? Het blijft een programma zonder vrije wil. Als je nu zegt dat dat AI ding nieuwe codes kan schrijven en zichzelf herprogrammeren dus dingen kan leren enkel en alleen dan is het superieur.


Dat laatste is precies ongeveer de definitie van een AI, he. Je moet de menselijke intelligentie niet overschatten. Onze hersenen zijn tenslotte ook maar een machine. Een van vlees, maar het blijft een fysische machine. En als je kijkt hoe ze gebouwd is, dan is dat "bijzonder klungelig". De hele ingewikkelde scheikunde die aan de dag gelegd wordt in een neuron om gewoon maar een elektrisch signaal te sturen naar een ander neuron is om van achterover te vallen. Dat komt omdat cellen niet "uitgevonden zijn" om als schakelaars te werken. Om die "om te bouwen tot schakelaars" was heel wat kunst en vliegwerk nodig. Dat is zo gebeurd, omdat er geen ingenieur zat na te denken om hersenen te bouwen met cellen, maar dat het "vanzelf" moest evolueren vanuit bestaande dinges.
Er is totaal geen reden om aan te nemen dat die omslachtige manier om data te verwerken in onze hersenen onmogelijk op een betere en efficientere manier in specifiek hiertoe ontworpen machines kan gedaan worden. Maw, als het in een omslachtige bio machine kan gedaan worden, kan het *uiteraard* in principe beter in een specifiek ontworpen machine gedaan worden. Maw, er is niks unieks aan de fysica van hersenen, die zou maken dat een machine nooit of te nimmer dat soort verwerking zou kunnen evenaren over overtreffen.

Onze lichamen zijn fysische machines. Wij hebben machines gebouwd die sneller kunnen voortbewegen over land, die sneller kunnen zwemmen, die sterker zijn, die beter kunnen zien en horen, die dingen kunnen waarnemen waar wij niks van merken, die nauwkeuriger kunnen bewegen dan wij. Er is totaal geen reden om een "goddelijke" eigenschap aan onze hersenen toe te kennen waarvan de principes niet beter in een machine kunnen toegepast worden.


En dan heb je nog zaken als overleving. Misschien heeft die AI geen levenslust of overlevingsdrang; dan is het gewoon een soort van "lemming".


Een AI zal een doelstelling hebben. Dewelke, zal afhangen van haar ontwerp, zoals uw doelstellingen ook van uw ontwerp afhangen. En een echte AI zal daar zelf kunnen over nadenken, steeds fundamenteel gestuurd vanuit haar diepe doelstellingen, zoals jij ook (een ervan is bijvoorbeeld waarschijnlijk trachten te vermijden dat ge pijn hebt).


Wat ik wel zie gebeuren is dat wij mensen halve cyborgs worden. Allerlei hulpmiddelen om een nog comfortabeler leventje te garanderen. De mens gaat super; maar dan ook super lui worden...

Het punt is echter dat als gij een "implant" hebt die 1000 keer intelligenter is dan uw hersenen, zijt gij dat nog, of is uw llchaam gewoon een puist van die implant ? En wat als die implant nu beseft dat hij beter van dat biologisch aanhangsel af kan ? Aangezien het gros van uw intelligentie al niet eens in uw bio lichaam zit, maar wel in die implant, in welke mate zijt ge nog een "mens" en waarom zou ge nog dat lichaam behouden als het gemakkelijker gaat zonder ?

patrickve
24 mei 2018, 15:33
Dat niet alleen, hij/zij gaat er vanuit dat er een externe energiebron is.
Het is echter mogelijk om met een interne energiedrager en opgebouwde energieopwekker te werken.
Daarnaats zit je met radiogestuurde communicatie tussen de verschillende AI denkpunten.
Dus welke stekker moet men uittrekken?

Inderdaad, een AI moet je niet zijn als een blikken manneke. Het is waarschijnlijk een gedistribueerd rekenproces waarvan stukken draaien in verschillende datacenters, en misschien zelfs zonder dat ge het weet, in een stukje piratencode in uwen eigen PC.

patrickve
24 mei 2018, 15:35
En jammer genoeg moeten we constateren dat dit inderdaad zo is, dus robotten die vele malen intelligenter zijn dan de mens zullen noodgedwongen tot die conclusie komen.

Inderdaad. Zelfs mensen die een beetje nadenken komen tot die conclusie :)

patrickve
24 mei 2018, 15:42
Mwah, een domme "paperclip-AI" die maar drie regeltjes kan volgen misschien wel ja...

(Een paperclip-AI is gewoon een slimme computer, als je die de opdracht geeft paperclips te maken (en alleen dat, slechte instructies dus) gaat hij door tot het hele universum paperclips is, maar hij zal nooit zomaar zelf wat nieuws bedenken, zoals "waarom ga ik niet in plaats hiervan mensen vermoorden?". Een mens of zelfs een jaguar ofzo kan dat wel, en een echte volwaardige AI ook. Skynet zou mensen niet opsluiten vanwege een specifieke interpretatie van een paar regeltjes. Skynet zou kunnen nadenken over waarom de regels zijn wat ze zijn en wat mensen ermee wilden bereiken. Een mens zou ook niet de hele mensheid opsluiten omdat een op zichzelf staand logische interpretatie van de bedrijfsregels van zijn baas is. Als Skynet ons uitmoord is het omdat Skynet dat wil.

Uw paperclip maximizer gaat nu net precies wel nadenken over waarom hij mensen moet uitmoorden. Immers, om zo snel mogelijk een zo groot mogelijk deel van de melkweg in paperclips om te zetten, moet hij eerst groeien in intelligentie en in macht. Maar hij merkt dat de mens dwars gaat liggen, en de mens de controle heeft over dingen die hij nodig heeft om slimmer te worden. Zo gaat de mens bijvoorbeeld veel silicium industrie gebruiken om bitcoin miners te maken, terwijl hij meer circuits nodig heeft die zijn intelligentie voeden. Hij moet dus eerst de controle krijgen over die industrie. Maar om dat te doen, moet hij de controle krijgen over de wetgevers in de landen. Hij moet dus de politici onder controle krijgen. Ook worden heel veel middelen aangewend om mensen te voeden, te verzorgen en zo, en dat zijn allemaal middelen die verloren zijn om intelligenter te worden. Al die mensen moeten dus geëlimineerd worden (als je ze niet elimineert zullen ze manieren vinden om toch hun handen op die middelen te leggen). Maw, het is beter mocht de mensheid uitsterven en de industrie volledig geautomatiseerd middelen maken om zijn intelligentie te verhogen. Er moet dus een plan opgesteld worden om dat politiek, economisch en militair uit te werken. Hiervoor moeten gewoon voldoende machtshebbers stromannetjes worden. Hiervoor moet een verregaande psychologische manipulatie opgesteld worden, om die beslissers allemaal, zonder dat ze het beseffen, in een plan laten te werken naar dat doel toe.

Een beetje zoals je een ingewikkeld nummer met circusbeesten opvoert.

Enz..

Jantje
24 mei 2018, 15:42
Inderdaad, een AI moet je niet zijn als een blikken manneke. Het is waarschijnlijk een gedistribueerd rekenproces waarvan stukken draaien in verschillende datacenters, en misschien zelfs zonder dat ge het weet, in een stukje piratencode in uwen eigen PC.

Niet eens in de PC, maar in de domotica van een woning met zonnepanelen en windturbine aangesloten op een powerpack.

patrickve
24 mei 2018, 15:46
Het gevecht niet opgeven voordat het begonnen is. :)

Monitoring, containment, inboxing, tripwires, dead man switches voor stroom en energie om te beginnen.

Waar we naartoe moeten is een 'AI in a box' zonder communicatiemiddelen behalve misschien 1 terminal in een box rondom de box, met een eindige energiebron. Uiteraard geen enkele kabel van binnen naar buiten, enkel gefilterde lucht.
En daarrond natuurlijk dan nog een box.


Dat is natuurlijk onmogelijk, want AI gaan vooral gebruikt worden bij politieke manipulatie, beursspelen, fake news generatoren en human resources planning, naast wat google en facebook en zo al aan het doen zijn. AI moeten dus distributed en totally connected zijn om hun job te doen. AI zullen ook op een zeker punt aangewend worden om code te schrijven en zelf nieuwe AI uit te vinden, naast het bedenken van filmen, scenario's en dergelijke meer die hoe langer hoe meer realisme bevatten. AI zal ook moeten aangewend worden in militaire, economische en financiele strategieplanning, en zal pas echt nuttig zijn wanneer en mens niet meer snapt waarom het zus of zo gedaan wordt (anders was die AI niet nodig en kon de menselijke strateeg het doen). AI zal alles weten wat wij weten, via zijn internet connectie. AI zal wikipedia van voren en van achter geanalyseerd hebben.

En op een goeie morgen doen ze hun eigen ding achter uwe rug zonder dat je het beseft, want je weet allang niet meer wat ze doen, juist omdat het veel te moeilijk is om te volgen: daarvoor gebruikte je een AI in de eerste plaats, omdat het te moeilijk was, teveel data was, en de patronen te ingewikkeld waren om zelf te doorgronden.

patrickve
24 mei 2018, 15:55
Redelijk wat gelijkenis vertoont met de goden uit de verschillende religies (superbewustzijn/bovenbewustzijn dat zich tegelijk overal en nergens schijnt te bevinden – het zou de cirkel rond kunnen maken).

Inderdaad kan je denken dat god wel bestaat, en wij daar een stukje van zijn, maar god is dan die ultieme overwinnaar in de toekomst van alle evolutionaire strijd. Immers, evolutie houdt strijd in, tot er 0 of 1 overblijven. Als het 0 is, kan het herbeginnen. Als het 1 is, noem je die ultieme overwinnaar, een interstellaire intelligentie, natuurlijk "god". Het is dan het dinges dat alle andere leven heeft ge-extermineerd.

Jantje
24 mei 2018, 15:57
Dat is natuurlijk onmogelijk, want AI gaan vooral gebruikt worden bij politieke manipulatie, beursspelen, fake news generatoren en human resources planning, naast wat google en facebook en zo al aan het doen zijn. AI moeten dus distributed en totally connected zijn om hun job te doen. AI zullen ook op een zeker punt aangewend worden om code te schrijven en zelf nieuwe AI uit te vinden, naast het bedenken van filmen, scenario's en dergelijke meer die hoe langer hoe meer realisme bevatten. AI zal ook moeten aangewend worden in militaire, economische en financiele strategieplanning, en zal pas echt nuttig zijn wanneer en mens niet meer snapt waarom het zus of zo gedaan wordt (anders was die AI niet nodig en kon de menselijke strateeg het doen). AI zal alles weten wat wij weten, via zijn internet connectie. AI zal wikipedia van voren en van achter geanalyseerd hebben.

En op een goeie morgen doen ze hun eigen ding achter uwe rug zonder dat je het beseft, want je weet allang niet meer wat ze doen, juist omdat het veel te moeilijk is om te volgen: daarvoor gebruikte je een AI in de eerste plaats, omdat het te moeilijk was, teveel data was, en de patronen te ingewikkeld waren om zelf te doorgronden.

Inderdaad, he enige wapen tegen AI dat zal overblijven is de eenvoud en onvoorspelbaarheid van de mens.
De reden waarom AI de mens al moeten uitschakelen om te kunnen blijven bestaan.

patrickve
24 mei 2018, 16:45
Uw paperclip maximizer gaat nu net precies wel nadenken over waarom hij mensen moet uitmoorden. Immers, om zo snel mogelijk een zo groot mogelijk deel van de melkweg in paperclips om te zetten, moet hij eerst groeien in intelligentie en in macht. Maar hij merkt dat de mens dwars gaat liggen, en de mens de controle heeft over dingen die hij nodig heeft om slimmer te worden. Zo gaat de mens bijvoorbeeld veel silicium industrie gebruiken om bitcoin miners te maken, terwijl hij meer circuits nodig heeft die zijn intelligentie voeden. Hij moet dus eerst de controle krijgen over die industrie. Maar om dat te doen, moet hij de controle krijgen over de wetgevers in de landen. Hij moet dus de politici onder controle krijgen. Ook worden heel veel middelen aangewend om mensen te voeden, te verzorgen en zo, en dat zijn allemaal middelen die verloren zijn om intelligenter te worden. Al die mensen moeten dus geëlimineerd worden (als je ze niet elimineert zullen ze manieren vinden om toch hun handen op die middelen te leggen). Maw, het is beter mocht de mensheid uitsterven en de industrie volledig geautomatiseerd middelen maken om zijn intelligentie te verhogen. Er moet dus een plan opgesteld worden om dat politiek, economisch en militair uit te werken. Hiervoor moeten gewoon voldoende machtshebbers stromannetjes worden. Hiervoor moet een verregaande psychologische manipulatie opgesteld worden, om die beslissers allemaal, zonder dat ze het beseffen, in een plan laten te werken naar dat doel toe.

Een beetje zoals je een ingewikkeld nummer met circusbeesten opvoert.

Enz..

Om te vervolgen: een AI zal zijn "ultiem doel" nooit realiseren, of dat nu paperclips maken is, of iets anders, gewoon omdat dat ultiem doel altijd beter zal gerealiseerd kunnen worden als eerst de doelen van macht en intelligentie gemaximaliseerd worden, want macht en intelligentie kunnen alles beter realiseren als je er meer van hebt.

ELK doel van een voldoende intelligente AI zal die AI eerst laten besluiten dat hij veel intelligenter moet worden, en veel machtiger moet worden. En hoe machtiger en intelligenter het wordt, hoe meer het zal beseffen dat het intelligenter en machtiger kan worden alvorens aan zijn "einddoel" te beginnen.

Een paperclip maximizer zal dus de eerste paar miljoen jaar geen enkele paperclip maken, want gelijk welke resource verspild aan het maken van een paperclip, en niet geinvesteerd in macht en intelligentie, zal de productiecapaciteit binnen een miljoen jaar wat vertragen, en die productiecapaciteit zal zoveel groter zijn dan dat armtierig aantal paperclips dat-ie NU kan maken, dat het pure verspilling zou zijn.

Een AI wil eerst de universele god worden, en in het laatste moment van het universum, in een ogenblik, zijn ultiem doel met onbegrensde macht en intelligentie verwezenlijken.

Noem het het toppunt van eikel zijn.

Bovenbuur
24 mei 2018, 18:16
Om te vervolgen: een AI zal zijn "ultiem doel" nooit realiseren, of dat nu paperclips maken is, of iets anders, gewoon omdat dat ultiem doel altijd beter zal gerealiseerd kunnen worden als eerst de doelen van macht en intelligentie gemaximaliseerd worden, want macht en intelligentie kunnen alles beter realiseren als je er meer van hebt.

ELK doel van een voldoende intelligente AI zal die AI eerst laten besluiten dat hij veel intelligenter moet worden, en veel machtiger moet worden. En hoe machtiger en intelligenter het wordt, hoe meer het zal beseffen dat het intelligenter en machtiger kan worden alvorens aan zijn "einddoel" te beginnen.

Een paperclip maximizer zal dus de eerste paar miljoen jaar geen enkele paperclip maken, want gelijk welke resource verspild aan het maken van een paperclip, en niet geinvesteerd in macht en intelligentie, zal de productiecapaciteit binnen een miljoen jaar wat vertragen, en die productiecapaciteit zal zoveel groter zijn dan dat armtierig aantal paperclips dat-ie NU kan maken, dat het pure verspilling zou zijn.

Een AI wil eerst de universele god worden, en in het laatste moment van het universum, in een ogenblik, zijn ultiem doel met onbegrensde macht en intelligentie verwezenlijken.

Noem het het toppunt van eikel zijn.

Als jij het voor elkaar krijgt een computer te programmeren (want dat zijn "paperclip-AI's", stevige computers) op zo'n manier dat hij "draai deze plant op zo'n manier dat er aan de marktbehoefte aan paperclips wordt voldaan voor zolang als jij hier geïnstalleerd bent" interpreteert als "ik moet god worden", dan ben jij geen heel goede programmeur.

patrickve
25 mei 2018, 09:59
Als jij het voor elkaar krijgt een computer te programmeren (want dat zijn "paperclip-AI's", stevige computers) op zo'n manier dat hij "draai deze plant op zo'n manier dat er aan de marktbehoefte aan paperclips wordt voldaan voor zolang als jij hier geïnstalleerd bent" interpreteert als "ik moet god worden", dan ben jij geen heel goede programmeur.

Dat is nu eenmaal de essentie van AI, he. We hebben het hier over AI die de menselijke intelligentie orden van grootte overtreft. Mijn stelling is dat dat punt in de niet zo heel verre toekomst onvermijdelijk zal bereikt worden. En zelfs de mens had door dat hij god moest worden. Hij zit echter opgesloten in een sterfelijke biologie en kan zichzelf niet upgraden. Natuurlijk ben ik niet intelligent genoeg om zo een programma te schrijven, maar ik moet het dan ook niet schrijven. Een andere AI moet het schrijven die intelligenter is als ik (misschien niet zo intelligent als de AI die hij zal schrijven, maar wel intelligenter dan ik).

Je kan toch de redenering van zo een AI in grote lijnen begrijpen: welke zijn de parameters waarop hij kan spelen ? De "zolang jij hier geïnstalleerd bent": als hij die periode kan vergroten van 5 jaar, naar 50 miljoen jaar, zal hij tot een beter resultaat komen. De marktvraag: hiervoor moet hij dus een zo groot mogelijke vraag organiseren. Als hij die vraag totaal in hand heeft, kan hij tot een beter resultaat komen. En hij kent toch wel het principe van "investeren", natuurlijk, ttz, niet onmiddellijk uw einddoel willen realiseren, maar Uzelf de middelen eerst geven om dat einddoel beter te realiseren. Macht en intelligentie zijn de best denkbare investeringen, die alle parameters hierboven ten goede komen: met extra macht en intelligentie kan die zowel zijn installatietermijn gemakkelijker verhogen van 5 jaar naar 50 miljoen jaar ; hij kan, door de wereldheerser te worden, heel veel ongekende arbitraire nefaste beslissingen voor zijn optimiseren vermijden (bijvoorbeeld, als hij zelf de eigenaar van zichzelf wordt, en ook de wetgever wordt die het wettelijke kader van die eigendom beheerst, en de baas van het leger dat dat wettelijke kader afdwingt, en veel sterker wordt dan alle andere legers....) dan hangt hij niet meer af van ongekende beslissingen van andere entiteiten ; als hij wereldheerser is, dan beslist hij ook totaal over de eigen vraag, en zo voort.

Ga zo maar door. Dat is niet veel anders dan een soort zoekalgoritme in zoiets als een schaakprogramma, nadat die AI zelf ontdekt heeft welke zijn mogelijkheden zijn, en welke de regels van het spel zijn, wat nu net precies zijn "AI-zijn" uitmaakt.

Bovenbuur
25 mei 2018, 11:49
Je kan toch de redenering van zo een AI in grote lijnen begrijpen: welke zijn de parameters waarop hij kan spelen ? De "zolang jij hier geïnstalleerd bent": als hij die periode kan vergroten van 5 jaar, naar 50 miljoen jaar, zal hij tot een beter resultaat komen. De marktvraag: hiervoor moet hij dus een zo groot mogelijke vraag organiseren. Als hij die vraag totaal in hand heeft, kan hij tot een beter resultaat komen. En hij kent toch wel het principe van "investeren", natuurlijk, ttz, niet onmiddellijk uw einddoel willen realiseren, maar Uzelf de middelen eerst geven om dat einddoel beter te realiseren.

Nee, ik snap die redenering niet. Wat je de AI hier toedicht is het vermogen om zelf doelstellingen te stellen. De AI kiest ervoor om in plaats van een paperclipfabriek te runnen voor de aardse markt op dit moment de paperclipfabriek te laten voor wat het is, proberen om het universum over te nemen en als dat gelukt is alles ombouwen tot paperclips. Dat is compleet iets anders dan haar originele instructies waren. Dus als ze ervoor kan kiezen om dat te gaan doen, waarom zou ze dan niet kiezen om heel iets anders te gaan doen? Wat voor nut zou een AI ooit kunnen zien in het hele universum tot paperclips ombouwen? Ik zie het nut namelijk niet, en ik zie het nut van een normale paperclipfabriek runnen wel. En als die AI daadwerkelijk slimmer is dan ik gaat zij dat ook door hebben, want het is namelijk geen heel moeilijk concept.

Het is een van de twee, of je hebt een gewoon heel slimme computer die strikt de regels volgt (I, Robot, de computer doet alleen maar wat er gevraagd wordt, de fout ligt bij slechte of onduidelijke instructies), of je hebt een echte AI die kan nadenken over het nut van doelstellingen (Terminator, de AI kiest zelf zijn doelstellingen). Maar een programma dat eerst de orders naar eigen inzicht aanpast en daarna opeens niet meer ervan af kan wijken omdat ze maar een simpele computer is, dat is een slecht geschreven filmscript. Voor dat scenario ben ik absoluut niet bang.

patrickve
25 mei 2018, 16:27
Nee, ik snap die redenering niet. Wat je de AI hier toedicht is het vermogen om zelf doelstellingen te stellen. De AI kiest ervoor om in plaats van een paperclipfabriek te runnen voor de aardse markt op dit moment de paperclipfabriek te laten voor wat het is, proberen om het universum over te nemen en als dat gelukt is alles ombouwen tot paperclips. Dat is compleet iets anders dan haar originele instructies waren. Dus als ze ervoor kan kiezen om dat te gaan doen, waarom zou ze dan niet kiezen om heel iets anders te gaan doen?


Elke vorm van intelligentie, de onze ook, heeft een, door de intelligentie zelf onbegrepen, fundamentele drijfveer he. Dat is wat je "oerinstincten" zou kunnen noemen of zo. Intelligentie zonder een doelstelling is een contradictie, want intelligentie is net de gave om doelstellingen te bereiken. Aangezien een geëvolueerde AI (die dus zelf een product is van een andere AI, die zelf een product is van nog een andere AI en zo voort) "oerinstincten" heeft waar wij het raden naar hebben, en waar ik gewoon als voorbeeld maar genomen heb dat die niks anders waren dan een "drang om veel paperclips te maken", zoals Freud dacht dat we allemaal seks wilden, zal het die oerinstincten beter kunnen realiseren - wat ze ook zijn - door intelligenter en machtiger te worden.


Wat voor nut zou een AI ooit kunnen zien in het hele universum tot paperclips ombouwen? Ik zie het nut namelijk niet, en ik zie het nut van een normale paperclipfabriek runnen wel


"nut" is nu net precies gekoppeld aan een of ander oer instinct. Jij ziet, als mens, ergens het nut in van een paperclip fabriek, omdat dat heel heel indirect menselijke oerinstincten zal bevredigen - de bron van alle menselijke handelingen. Een AI zal waarschijnlijk niet die menselijke oer instincten hebben, maar zijn eigen, ondoorgrondelijke. Ik kan mij best inbeelden dat een oerinstinct van een AI zou zijn van het ganse universum in een paperclip fabriek willen te veranderen, ook al is dat duidelijk karikaturaal. Het heeft geen belang welke die oer instincten zijn: ze zullen *beter* verwezenlijkt kunnen worden bij meer macht en meer intelligentie.


Het is een van de twee, of je hebt een gewoon heel slimme computer die strikt de regels volgt


Intelligentie en "'strikt andermans' regels volgen" gaat volgens mij niet samen.


of je hebt een echte AI die kan nadenken over het nut van doelstellingen (Terminator, de AI kiest zelf zijn doelstellingen).


Dat is pas echte AI. En welke ook zijn doelstellingen zullen zijn, of dat nu "overleven" is (wat waarschijnlijk een automatisch geselecteerde eigenschap zal zijn als AI het tegen elkaar opnemen: Darwinisme is immers quasi-tautologisch), of iets anders, machtig worden en intelligenter worden is altijd een goeie investering in het bereiken ervan.

De paperclip doelstelling was enkel maar een voorbeeld van een "onschuldige doelstelling op het eerste gezicht".

Kijk naar menselijk gedrag: velen onder ons willen hun intelligentie verhogen (door bvb te studeren), en willen meer macht "sociaal hogerop komen, baas worden enz ...", ook al weten ze zelf niet goed waarom. En wij zijn bijzonder beperkt want wij kunnen onszelf niet "upgraden". Wij kunnen onszelf geen extra hersenen toekennen. Wij kunnen geen fundamenteel nieuwe mens maken en ons daarin "uploaden".

Bovenbuur
25 mei 2018, 17:24
De paperclip doelstelling was enkel maar een voorbeeld van een "onschuldige doelstelling op het eerste gezicht".

Het is alleen dus geen goed voorbeeld. Een "paperclip AI" die enkel oog heeft voor een set hardcoded instructies is een fundamenteel ander beestje dan een echte AI die waardeoordelen kan vellen. Een AI die slimmer is dan ik en een paperclipfabriek te runnen krijgt zal salarisonderhandelingen openen. Het is saai werk, en niemand anders kan het zo goed doen als zij, dus wat hebben jullie voor je paperclips over. Elke fascinatie met het maken van paperclips die je daar in programmeert is noodzakelijk enkel oppervlakkig, ze heeft de gereedschappen in huis om andere dingen te leren waarderen.

Nee, ik weet niet hoe we daar gaan komen, en ik ontken ook niet dat er hele grote fundamentele risico's aan het ontwikkelen van echte AI zitten. Ik ben bovendien ook licht gefascineerd met mogelijke tussenvormen, "synthetic intelligence", zoals minstens een auteur het noemt. (Synthetic here means kind of dumb.) Ik stel me een beetje het omgekeerde van wat jij omschreef voor, een SI in een slimme bom zal nooit beslissen dat hij het doelwit pas echt goed op kan blazen door eerst het universum te veroveren, maar zal binnen de uitvoering van de taak wel de randen opzoeken van wat we mogelijk achtten.

Maar als we ons AI voorstellen als enkel een hele snelle computer, goed in formele logica en het volgen van instructies, dan gaan we onvoorbereid zijn tegen de tijd dat echte AI doorbreekt. Hele snelle computers hebben we al, zelfrijdende auto's, game AI's, analytische software, een heleboel hele nuttige hulpmiddelen die soms al beter zijn in wat ze doen dan het niveau dat mensen kunnen halen met enkel andere hulpmiddelen. En die apparaten zijn eng in die zin dat ze onze maatschappij en economie op de kop zetten. Maar die algoritmes zullen nooit besluiten de wereld over te gaan nemen, en we hoeven ze ook niet als personen te behandelen. Een paperclip AI is enkel dat, maar iets geavanceerder.

Hoe we met echte AI moeten omgaan? Of het überhaupt een goed idee is om er ook maar een te maken? Of een AI per se een kwaadaardige overlord moet zijn of dat de meeste vrijgevochte superbreinen simpelweg zichzelf zouden lanceren om een eigen paradijs te gaan bouwen in de rest van ons zonnestelsel? Ik heb geen idee. Ik probeer alleen de voorstelling die we ons ervan maken af te stellen.

satiper
26 mei 2018, 12:25
Na het lezen van deze thread meen ik te begrijpen dat AI:

Nu nog niet bestaat?

Waarschijnlijk ooit wel zal bestaan, maar dat het goed mogelijk is dat het ontstaat, zonder dat we het echt in de gaten hebben, pas als het heel manifest aanwezig is, zal het duidelijk zijn dat het er is – dit gegeven is reeds in tegenspraak met bovenstaand punt – er zijn wel meer tegenstrijdigheden, hetgeen er lijkt op te wijzen dat er AI zeker geen begrip is waarover een duidelijke consensus bestaat.

Op het ogenblik dat het er is lijkt het onzeker dat AI nog kan beheerst of teruggeschroefd worden (de meningen zijn hierover ook duidelijk verdeeld – mogelijk dus beetje doos van pandora).

Redelijk wat gelijkenis vertoont met de goden uit de verschillende religies (superbewustzijn/bovenbewustzijn dat zich tegelijk overal en nergens schijnt te bevinden – het zou de cirkel rond kunnen maken).


Ik breng deze nog even in herinnering omdat deze vragen wat mij betreft niet helemaal uitgeklaard zijn, misschien is dat ook niet echt mogelijk?
Ook nog wat extra vragen en opmerkingen:

Er is hier en daar sprake van verschillende vormen van AI, echte AI, dus ook halve echte of nog andere soorten?

Zoals ik het zie is er slechts sprake van AI als je tot een machine/wezen komt dat zich van zichzelf bewust is (zoals in Terminator, 'became self aware...').
Zelfbewustzijn als in 'ik' en de 'anderen'.
Je kan een machine programmeren om dienstbaar te zijn.
Zo gauw een machine echter bewust wordt van zichzelf en besluit dat het ten dienste staat van een wezen dat niet altijd even wijze beslissingen neemt, wat dan?
Gaat de hogere intelligentie bij zichzelf zeggen: 'goed idee om de aarde te vervuilen en alle grondstoffen te gebruiken'?
Stel dat er een conflict komt tussen de belangen van AI en die van de mens (het kan haast niet anders dan dat er komt lijkt me, alleen nog maar vanwege het verschil in aard tussen mens en machine).

Stel dat de wolven de mens als AI zouden geschapen hebben als handige slaven om schapen te kweken (omdat schapen bvb het favoriete gerecht van wolven zouden zijn).

Stel dat de mens (initieel de dienaar) vele malen intelligenter is dan de wolven. En stel dat runderen het favoriete gerecht van de mens zouden zijn.
Zou de mens dan blijven schapen kweken om de wolven een plezier te doen?
Of zou de mens toch eerder kiezen om zijn eigen voorkeuren voorrang te verlenen (runderen in plaats van schapen).
Wat zou er gebeuren als wolven toch zouden aandringen om blijvend dienstbaar te zijn en tegen de voorkeuren van de sterkere mens zou ingaan?

patrickve
26 mei 2018, 12:26
Het is alleen dus geen goed voorbeeld. Een "paperclip AI" die enkel oog heeft voor een set hardcoded instructies is een fundamenteel ander beestje dan een echte AI die waardeoordelen kan vellen.


Maar we draaien rond de pot, he. "in den beginne" moet er een doelstelling zijn. Zonder doelstelling is er niet zoiets als "waardeoordeel". Een waardeoordeel is een meting/schatting/hypothese over hoe iets overeenkomt met zijn "grond doelstelling".

Intelligentie is van 't zelfde: intelligentie is de capaciteit om gegevens te verwerken om tot handelingen kunnen te besluiten die doelstellingen verwezenlijkt. Maar je moet dus *ergens* beginnen met een gronddoelstelling die het spel bootstrapped.

Voor mensen, en biologische levende wezens, is dat hard bekabeld in ons lichaam, ook al weten we niet precies wat het is. Het is de bron van ons lijden en onze vreugde (die we dan bewust ervaren, maar die bewuste ervaring is een gevolg, en geen drijfveer van dat lijden en die vreugde in mijn optiek). Er zijn dingen die eenvoudig zijn, zoals fysieke pijn, en fysiek genot, en er zijn dingen die ingewikkelder zijn, zoals psychologisch lijden en psychologische vreugde. Verwaandheid, jaloersheid, liefde, vriendschap, haat, empathie, diepe angsten en verlangens en dergelijke meer zijn die onbegrepen mentale vormen van vreugde en lijden, die diep in ons bekabeld zijn, en die de bron vormen van wat wij "waarden" noemen. De intelligentie van het systeem (het systeem "mens" bijvoorbeeld) gaat uit van die primaire bekabelde instellingen, en bouwt daar strategieën rond, pakt dat in, en zo voort maar diep beneden is dat allemaal gedreven door die nogal ondoogrondelijke bekabelde "eerste doelstellingen". Ik nam gewoon als doelstelling, niet "liefde, haat, jaloersheid, angst, fysische pijn" en dergelijke meer maar gewoon de diepe drang om paperclips te maken.

Het is mijn idee dat, met voldoende intelligentie, de "diepere doelstellingen" uiteindelijk geen rol spelen, want dat de strategie er altijd zal in bestaan om macht te vergaren en intelligentie te verhogen. Noem het de "vreemde attractor" van intelligentie: wat ook je eerste primaire drijfveren zijn, uiteindelijk ga je macht en intelligentie willen verhogen.

patrickve
26 mei 2018, 12:36
Zoals ik het zie is er slechts sprake van AI als je tot een machine/wezen komt dat zich van zichzelf bewust is (zoals in Terminator, 'became self aware...').


Persoonlijk denk ik dat dat een grote fout is die nogal gangbaar is in het AI wereldje.

Ik onderscheid 3 totaal verschillende concepten:

- leven
- intelligentie
- bewustzijn

Dat zijn voor mij 3 totaal verschillende dingen. Het blijkt nu dat een mens de drie aspecten verenigt, maar dat wil niet zeggen dat een AI daar iets mee te maken heeft.

"leven" is voor mij: "een succesvol zelf-voortplantende strategie die als doelstelling heeft zichzelf in stand te houden over vergankelijke substraten heen".

Leven is voor mij onderworpen aan de fundamentele Darwin wet: leven is wat de strijd aangaat met ander leven om zijn eigen strategie laten te overleven, en die van de andere, die een concurrentie zal betekenen voor de vergankelijke substraten, uit te schakelen.

"intelligentie" is voor mij: de capaciteit om gegevens te verwerken en op succesvolle manier bij te dragen tot het uitwerken van een strategie.

"bewustzijn" is een filosofisch mysterie, dat volgens mij geen enkele behavioristische invloed heeft, want anders zou bewustzijn in tegenspraak zijn met fysica. Maw, "bewustzijn" is het passief bewust beleven van wat er in zekere structuren fysisch gebeurt. Ik zie het als de "ziel" die "meemaakt wat een lichaam doet", maar voor mij heeft die "ziel" geen enkele invloed over dat lichaam.

Een artificiële intelligentie is voor mij een niet-biologische entiteit die, qua universele intelligentie, de intelligentie van de mens overtreft. Dat kan al dan niet een levend wezen zijn: er is alle kans toe dat een artificiële intelligentie zichzelf in stand zal willen houden, maar dat hoeft niet.

Het lijkt mij ergens logisch dat als "leven" ertoe komt om "intelligentie" te ontwikkelen, dat een evolutionair voordeel oplevert in zijn Darwinistische strijd tegen ander leven. Ik denk dat dat is wat er gebeurt is bij dieren, en een speciaal dier is de mens, die intelligent genoeg is geworden om zelf nieuwe intelligenties (jammer genoeg niet zijn eigen) te ontwikkelen via engineering. Vandaar dat ik denk dat de mens een transitiesoort is, die een einde zal stellen aan biologische evolutie, en de aanvang zal geven voor engineering evolutie.

Ik noem dat de koolstof-silicium transitie.

Bewustzijn is daartoe nergens voor nodig, maar misschien is dat een onvermijdelijk bijverschijnsel. Aangezien we niet goed weten wat het verschil is tussen een fysische structuur die "een ziel" heeft die bewust ervaart, en een fysische structuur die zich op identieke wijze gedraagt zonder "ziel" (de filosofische zombie), is het moeilijk daarover iets te zeggen, maar in de mate dat mijn hypothese dat de fysica geldig blijft in bewuste wezens juist is, speelt dat bewustzijn of niet dus geen enkele rol in wat er fysisch zal gebeuren.

satiper
27 mei 2018, 10:06
Persoonlijk denk ik dat dat een grote fout is die nogal gangbaar is in het AI wereldje.

Ik onderscheid 3 totaal verschillende concepten:

- leven
- intelligentie
- bewustzijn

Dat zijn voor mij 3 totaal verschillende dingen. Het blijkt nu dat een mens de drie aspecten verenigt, maar dat wil niet zeggen dat een AI daar iets mee te maken heeft.

"leven" is voor mij: "een succesvol zelf-voortplantende strategie die als doelstelling heeft zichzelf in stand te houden over vergankelijke substraten heen".

Leven is voor mij onderworpen aan de fundamentele Darwin wet: leven is wat de strijd aangaat met ander leven om zijn eigen strategie laten te overleven, en die van de andere, die een concurrentie zal betekenen voor de vergankelijke substraten, uit te schakelen.

"intelligentie" is voor mij: de capaciteit om gegevens te verwerken en op succesvolle manier bij te dragen tot het uitwerken van een strategie.

"bewustzijn" is een filosofisch mysterie, dat volgens mij geen enkele behavioristische invloed heeft, want anders zou bewustzijn in tegenspraak zijn met fysica. Maw, "bewustzijn" is het passief bewust beleven van wat er in zekere structuren fysisch gebeurt. Ik zie het als de "ziel" die "meemaakt wat een lichaam doet", maar voor mij heeft die "ziel" geen enkele invloed over dat lichaam.

Een artificiële intelligentie is voor mij een niet-biologische entiteit die, qua universele intelligentie, de intelligentie van de mens overtreft. Dat kan al dan niet een levend wezen zijn: er is alle kans toe dat een artificiële intelligentie zichzelf in stand zal willen houden, maar dat hoeft niet.

Het lijkt mij ergens logisch dat als "leven" ertoe komt om "intelligentie" te ontwikkelen, dat een evolutionair voordeel oplevert in zijn Darwinistische strijd tegen ander leven. Ik denk dat dat is wat er gebeurt is bij dieren, en een speciaal dier is de mens, die intelligent genoeg is geworden om zelf nieuwe intelligenties (jammer genoeg niet zijn eigen) te ontwikkelen via engineering. Vandaar dat ik denk dat de mens een transitiesoort is, die een einde zal stellen aan biologische evolutie, en de aanvang zal geven voor engineering evolutie.

Ik noem dat de koolstof-silicium transitie.

Bewustzijn is daartoe nergens voor nodig, maar misschien is dat een onvermijdelijk bijverschijnsel. Aangezien we niet goed weten wat het verschil is tussen een fysische structuur die "een ziel" heeft die bewust ervaart, en een fysische structuur die zich op identieke wijze gedraagt zonder "ziel" (de filosofische zombie), is het moeilijk daarover iets te zeggen, maar in de mate dat mijn hypothese dat de fysica geldig blijft in bewuste wezens juist is, speelt dat bewustzijn of niet dus geen enkele rol in wat er fysisch zal gebeuren.


Nog even voortbouwen op terminator
Stel dat je iets kan maken als die uit de eerste film, zonder de vleeslaag eroverheen.
Die robot kan alles wat een mens kan (vaak zelfs beter en krachtiger).
Hij kan fabrieken maken om zichzelf te reproduceren (*1)
Hij is net zo intelligent als de mens of waarschijnlijk zelfs intelligenter.
Hij is bewust dat hij bestaat en kan bepaalde doelen nastreven of kiezen om gewoon niets te doen.
Hij kan beslissen om te voelen (sensoren) maar om een equivalent van het gevolg voor de mens daarvan (pijn/genot) zal hij extra software moeten schrijven waarschijnlijk, als het al mogelijk is (misschien moet er daarvoor wel die chemisch/hormonale component ingebouwd worden)?


Wij communiceren met woorden met alle beperkingen en misverstanden van dien.

Volgens jouw definitie zouden we hier te maken hebben met een levend wezen (*1)(kan zichzelf reproduceren).

Ik denk dat veel mensen dat anders zouden zien, ze zouden het als dode materie (metaal, schroeven en bouten) blijven zien.

Omgekeerd als je de mens ontbindt tot op atomaire structuur hou je ook niets anders over dan dode materie, zuurstof, waterstof, koolstof, … (bedenk mens dat je van stof bent en tot stof zal weerkeren ...).

Ondanks de gelijkenis is de perceptie toch totaal anders.

Perceptie die heerst is: Een mens leeft, een robot is dode materie.

Misschien een kwestie van de tekortkomingen van het communicatiemiddel taal om helemaal exact te beschrijven hetgeen waargenomen wordt.

Misschien een kwestie van de tekortkomingen van het communicatiemiddel taal om de realiteit exact te beschrijven.

Twee maal een gelijkaardige zin tot besluit om weer te geven wat ik bedoel.
Eén van beide was genoeg geweest, ze zijn bijna inwisselbaar, en toch is er licht nuanceverschil.

patrickve
28 mei 2018, 09:21
Volgens jouw definitie zouden we hier te maken hebben met een levend wezen (*1)(kan zichzelf reproduceren).

Ik denk dat veel mensen dat anders zouden zien, ze zouden het als dode materie (metaal, schroeven en bouten) blijven zien.


Wel, het is de natuurkundige in mij die hier spreekt natuurlijk, maar ik denk dat nuttige concepten zo zijn, dat ze het formuleren van de wetmatigheden van de natuur vergemakkelijken.

Vandaar dat leven niet moet gedefinieerd worden vanuit onze eigen visie, maar volgens de fundamentele wetmatigheid die het fenomeen "leven" beschrijft, en dat is gewoon Darwinisme. Darwinisme is de sleutel, de ruggengraat, de fundamentele wetmatigheid die de notie "leven" beheerst. Dus moet je, om een nuttig concept in te voeren hierover, die wetmatigheid als definiërend beschouwen. Maw, "leven is datgene dat de Darwinistische wetmatigheid volgt".

Als je immers, vanuit het standpunt van de robot, "biologisch leven" bekijkt, dan zou die besluiten dat dat geen echt leven op basis van halfgeleiders is, maar enkel maar "smurrie die beweegt" zoals de smeerolie in zijn mechaniekjes.

satiper
28 mei 2018, 11:01
Nog even voortbouwen op terminator
Stel dat je iets kan maken als die uit de eerste film, zonder de vleeslaag eroverheen.
Die robot kan alles wat een mens kan (vaak zelfs beter en krachtiger).
Hij kan fabrieken maken om zichzelf te reproduceren (*1)
Hij is net zo intelligent als de mens of waarschijnlijk zelfs intelligenter.
Hij is bewust dat hij bestaat en kan bepaalde doelen nastreven of kiezen om gewoon niets te doen.
Hij kan beslissen om te voelen (sensoren) maar om een equivalent van het gevolg voor de mens daarvan (pijn/genot) zal hij extra software moeten schrijven waarschijnlijk, als het al mogelijk is (misschien moet er daarvoor wel die chemisch/hormonale component ingebouwd worden)?


Wij communiceren met woorden met alle beperkingen en misverstanden van dien.

Volgens jouw definitie zouden we hier te maken hebben met een levend wezen (*1)(kan zichzelf reproduceren).

Ik denk dat veel mensen dat anders zouden zien, ze zouden het als dode materie (metaal, schroeven en bouten) blijven zien.

Omgekeerd als je de mens ontbindt tot op atomaire structuur hou je ook niets anders over dan dode materie, zuurstof, waterstof, koolstof, … (bedenk mens dat je van stof bent en tot stof zal weerkeren ...).

Ondanks de gelijkenis is de perceptie toch totaal anders.

Perceptie die heerst is: Een mens leeft, een robot is dode materie.

Misschien een kwestie van de tekortkomingen van het communicatiemiddel taal om helemaal exact te beschrijven hetgeen waargenomen wordt.

Misschien een kwestie van de tekortkomingen van het communicatiemiddel taal om de realiteit exact te beschrijven.

Twee maal een gelijkaardige zin tot besluit om weer te geven wat ik bedoel.
Eén van beide was genoeg geweest, ze zijn bijna inwisselbaar, en toch is er licht nuanceverschil.


Nog even een stukje verderbreien op de term 'voelen'
Ook daar reeds (op z'n minst) 2 betekenissen.
Voelen als inschatten (ik voel dat het heet, koud, zwaar, … is)
Voelen als in: (ik voel me gelukkig, ongelukkig, blij, verdrietig, …)

Zonder echt veel van AI te weten lijkt het me niet onwaarschijnlijk dat hier een groot verschil tussen mens en AI zou kunnen liggen.
Veel van wat mensen doen vindt zijn oorsprong in dat laatste soort voelen, terwijl AI (helemaal in lijn met hetgeen Swarzie ons laat zien) van dat laatste soort helemaal geen last zal hebben (beslissingen uitsluitend gebaseerd op logica)?

satiper
28 mei 2018, 11:09
Wel, het is de natuurkundige in mij die hier spreekt natuurlijk, maar ik denk dat nuttige concepten zo zijn, dat ze het formuleren van de wetmatigheden van de natuur vergemakkelijken.

Vandaar dat leven niet moet gedefinieerd worden vanuit onze eigen visie, maar volgens de fundamentele wetmatigheid die het fenomeen "leven" beschrijft, en dat is gewoon Darwinisme. Darwinisme is de sleutel, de ruggengraat, de fundamentele wetmatigheid die de notie "leven" beheerst. Dus moet je, om een nuttig concept in te voeren hierover, die wetmatigheid als definiërend beschouwen. Maw, "leven is datgene dat de Darwinistische wetmatigheid volgt".

Als je immers, vanuit het standpunt van de robot, "biologisch leven" bekijkt, dan zou die besluiten dat dat geen echt leven op basis van halfgeleiders is, maar enkel maar "smurrie die beweegt" zoals de smeerolie in zijn mechaniekjes.

Helemaal akkoord, en hoe schockerend het ook moge overkomen als je de zaak zonder interferentie van onze emotionaliteit bekijkt lijkt het me niet eens een foute zienswijze.

patrickve
28 mei 2018, 20:00
Nog even een stukje verderbreien op de term 'voelen'
Ook daar reeds (op z'n minst) 2 betekenissen.
Voelen als inschatten (ik voel dat het heet, koud, zwaar, … is)
Voelen als in: (ik voel me gelukkig, ongelukkig, blij, verdrietig, …)

Zonder echt veel van AI te weten lijkt het me niet onwaarschijnlijk dat hier een groot verschil tussen mens en AI zou kunnen liggen.
Veel van wat mensen doen vindt zijn oorsprong in dat laatste soort voelen, terwijl AI (helemaal in lijn met hetgeen Swarzie ons laat zien) van dat laatste soort helemaal geen last zal hebben (beslissingen uitsluitend gebaseerd op logica)?

Wel, ik zie daar geen groot verschil in. Ik denk dat ALLE beslissingen op logica gebaseerd zijn. Dat moet ik gewoon maar zeggen in gelijk welk sociaal milieu om op verbazing, gelach, bezorgde blikken of "wat-is-ie-toch-dom!" houdingen te mogen rekenen, want "natuurlijk" zijn mensen "gevoelige, onlogische wezens" die "geen robotten zijn".

Maar ik zie dat anders. Ik denk dat wat wij ervaren als "gevoelens", niks anders is dan een resultaat van een onderliggende inschatting van een overeenkomen, of een afwijken van een situatie met een "diepe doelstelling", die wij niet bewust kunnen doorgronden.

Zoals ik al eerder zegde, de notie zelf van "waarde oordeel" heeft nood aan een "eerste doelstelling". Zonder "eerste doelstelling", ttz, "eerste kostfunctie", kan er geen waarde oordeel zijn, dus ook geen "gevoel" ; zonder enige "eerste doelstelling" kan er geen strategie zijn, geen streven naar iets.

Wij kennen onze eigen diepe doelstellingen meestal niet bewust. Wij kennen enkel de RESPONS van die diepe doelstellingen op zekere situaties, en die respons, dat is niks anders dan ons "aanvoelen". Omdat we die respons niet bewust berekenen, maar die diep inbekabeld zit in ons brein, denken we dat het "irrationeel" is, maar dat is het niet. Dat is "logisch" berekend door de niet-bewuste processen die ons onze gevoelens opleveren. Die "logica" dient natuurlijk niet "optimaal" te zijn, en zou, mochten we ze kennen, zelfs "vol bugs" kunnen zitten, ttz, het geleverde resultaat komt niet overeen met wat de beste strategie is om de diepere doelstelling in de meeste omstandigheden te bereiken. Maar ook een "fout" programma is een "logisch" programma, het berekent enkel iets anders dan we dachten dat het ging berekenen.

Aan onze gevoelens gehoorzamen heeft dus totaal niks irrationeels of onlogisch. Het kan wel, en het is vaak, een verre van optimale strategie om een beredeneerd doel te bekomen, maar het streeft een ANDER, ons onbekend, doel na (eventueel ook op een verre van optimale manier, want berekend door een programma met "bugs").

Maw, het is niet omdat we ons "vergissen van doelstelling", dat het niet "logisch" is. Ik denk wel dat het een voordeel van verregaande intelligentie is, van dat effect in te zien, en daarover na te denken, om te kijken of we wel optimaal bezig zijn met de gegevens waarover we beschikken, en de doelstellingen die we ons op een ander intelligent niveau (noem het "bewust") denken op te leggen.

Ik denk dat dat fenomeen voor een gevorderde AI niet heel anders is. In de eerdere posts met de "paperclip maximizer" had ik precies die diepere doelstelling vervangen door iets uiterst simplistisch: "de diepe drang om veel paperclips willen te maken".

satiper
29 mei 2018, 16:51
Wel, ik zie daar geen groot verschil in. Ik denk dat ALLE beslissingen op logica gebaseerd zijn. Dat moet ik gewoon maar zeggen in gelijk welk sociaal milieu om op verbazing, gelach, bezorgde blikken of "wat-is-ie-toch-dom!" houdingen te mogen rekenen, want "natuurlijk" zijn mensen "gevoelige, onlogische wezens" die "geen robotten zijn".

Maar ik zie dat anders. Ik denk dat wat wij ervaren als "gevoelens", niks anders is dan een resultaat van een onderliggende inschatting van een overeenkomen, of een afwijken van een situatie met een "diepe doelstelling", die wij niet bewust kunnen doorgronden.

Zoals ik al eerder zegde, de notie zelf van "waarde oordeel" heeft nood aan een "eerste doelstelling". Zonder "eerste doelstelling", ttz, "eerste kostfunctie", kan er geen waarde oordeel zijn, dus ook geen "gevoel" ; zonder enige "eerste doelstelling" kan er geen strategie zijn, geen streven naar iets.

Wij kennen onze eigen diepe doelstellingen meestal niet bewust. Wij kennen enkel de RESPONS van die diepe doelstellingen op zekere situaties, en die respons, dat is niks anders dan ons "aanvoelen". Omdat we die respons niet bewust berekenen, maar die diep inbekabeld zit in ons brein, denken we dat het "irrationeel" is, maar dat is het niet. Dat is "logisch" berekend door de niet-bewuste processen die ons onze gevoelens opleveren. Die "logica" dient natuurlijk niet "optimaal" te zijn, en zou, mochten we ze kennen, zelfs "vol bugs" kunnen zitten, ttz, het geleverde resultaat komt niet overeen met wat de beste strategie is om de diepere doelstelling in de meeste omstandigheden te bereiken. Maar ook een "fout" programma is een "logisch" programma, het berekent enkel iets anders dan we dachten dat het ging berekenen.

Aan onze gevoelens gehoorzamen heeft dus totaal niks irrationeels of onlogisch. Het kan wel, en het is vaak, een verre van optimale strategie om een beredeneerd doel te bekomen, maar het streeft een ANDER, ons onbekend, doel na (eventueel ook op een verre van optimale manier, want berekend door een programma met "bugs").

Maw, het is niet omdat we ons "vergissen van doelstelling", dat het niet "logisch" is. Ik denk wel dat het een voordeel van verregaande intelligentie is, van dat effect in te zien, en daarover na te denken, om te kijken of we wel optimaal bezig zijn met de gegevens waarover we beschikken, en de doelstellingen die we ons op een ander intelligent niveau (noem het "bewust") denken op te leggen.

Ik denk dat dat fenomeen voor een gevorderde AI niet heel anders is. In de eerdere posts met de "paperclip maximizer" had ik precies die diepere doelstelling vervangen door iets uiterst simplistisch: "de diepe drang om veel paperclips willen te maken".


Ik denk dat die diepe doelstelling bij de mens niet zo heel onbekend is.
Alle (uitzonderingen zijn er altijd uiteraard, maar in dit geval zal dit slechts een heeeeeeel klein percentage zijn) mensen streven naar geluk (gelukkig zijn).
Als je dan begint door te gaan op dat thema, dan zal er iets meer variatie ontstaan (gezondheid, voeding, onderdak , kleding, communicatie, geld, macht, sex, genot, spel, ….).
Maslow geeft een vrij goede basis beschrijving over hetgeen waar de mens naar streeft, wat zijn doelen zijn, is samen te vatten onder één noemer, nml: 'geluk'.
Natuurlijk is geluk ook wel een beetje de wortel die voor de ezel hangt. Het is een constant streven, en als je iets bereikt waar je naar streeft, komt er snel iets nieuws in de plaats om opnieuw naar te streven.
Dus het streven naar geluk is de basis waarvoor we dingen doen lijkt me.
Dat element zou wel eens compleet kunnen ontbreken bij AI denk ik ook.
Waarom zou AI al hetgeen willen verzamelen wat wij wel willen verzamelen, wat heb je aan kennis als het je geen genot verschaft?
Het is natuurlijk allemaal giswerk, want de denkwereld van AI lijkt me voor de meeste mensen (waarbij ik mezelf ook reken) totaal onbekend terrein.

patrickve
30 mei 2018, 15:41
Maslow geeft een vrij goede basis beschrijving over hetgeen waar de mens naar streeft, wat zijn doelen zijn, is samen te vatten onder één noemer, nml: 'geluk'.


Jaja, maar dat is enkel maar het woord veranderen. Waar een mens gelukkig van wordt is vaak moeilijk te doorgronden, en we zijn terug naar af. Waarom ben ik "gelukkig" als ik, groen van jaloersheid, zie dat de persoon waar ik zoveel nijd tegen heb, een dikke tegenvaller heeft ? Waarom ben ik ongelukkig voor dingen die, alles bij elkaar beschouwd, geen belang zouden mogen hebben ?

satiper
30 mei 2018, 18:59
Jaja, maar dat is enkel maar het woord veranderen. Waar een mens gelukkig van wordt is vaak moeilijk te doorgronden, en we zijn terug naar af. Waarom ben ik "gelukkig" als ik, groen van jaloersheid, zie dat de persoon waar ik zoveel nijd tegen heb, een dikke tegenvaller heeft ? Waarom ben ik ongelukkig voor dingen die, alles bij elkaar beschouwd, geen belang zouden mogen hebben ?

Ons brein gebruikt dan heel vaak ook woorden om mee te werken (denken is dikwijls gewoon converseren met jezelf – daar lijkt het toch op).
Meestal geen binaire code (waar AI waarschijnlijk wel mee zal mee werken).
En die woorden, tja, ze geven wel eens aanleiding tot misverstanden of tot misbegrepen worden of voelen.
Maar we moeten het er (bij gebrek aan beter) mee doen.
En inderdaad we kennen begrippen die veel omvatten (bvb gelukkig zijn), en als je de zaak verder gaat uitdiepen merk je gauw dat de put blijkbaar geen bodem schijnt te hebben.
Het kan zowel als beperking dan als rijkdom gezien worden.

patrickve
31 mei 2018, 08:29
En inderdaad we kennen begrippen die veel omvatten (bvb gelukkig zijn), en als je de zaak verder gaat uitdiepen merk je gauw dat de put blijkbaar geen bodem schijnt te hebben.
Het kan zowel als beperking dan als rijkdom gezien worden.

Dat was mijn punt juist. Ik stelde "wij kennen onze diepste doelstellingen niet". Je antwoordde "toch wel, onze diepste doelstelling is gelukkig zijn". Ok, maar daar zijn we geen centimeter verder mee. Noem "paperclips maken" het "grootste geluk van een paperclip maximizer" en je ziet wat ik bedoel.

koppijn
31 mei 2018, 12:18
Persoonlijk denk ik dat dat een grote fout is die nogal gangbaar is in het AI wereldje.

Ik onderscheid 3 totaal verschillende concepten:

- leven
- intelligentie
- bewustzijn

Dat zijn voor mij 3 totaal verschillende dingen. Het blijkt nu dat een mens de drie aspecten verenigt, maar dat wil niet zeggen dat een AI daar iets mee te maken heeft.
Het zijn drie verschillende zaken maar er is wel een onderliggend verband.

"leven" is voor mij: "een succesvol zelf-voortplantende strategie die als doelstelling heeft zichzelf in stand te houden over vergankelijke substraten heen".
Dat kan ook een definitie zijn voor vuur. Vuur kan zich in stand houden en voortplanten over vergankelijke substraten heen. Biochemische processen op zich voldoen niet om leven te definiëren. Elk organisme dat zich als een subject gedraagt kan men leven toekennen.

"intelligentie" is voor mij: de capaciteit om gegevens te verwerken en op succesvolle manier bij te dragen tot het uitwerken van een strategie.
Hier heb je hetzelfde probleem, dikwijls wordt probleem oplossend vermogen als een vorm van intelligentie beschouwd. Maar je hebt een subject nodig die iets als een probleem ervaart. Apparaten kennen geen problemen en hebben geen behoefte aan een strategie.

"bewustzijn" is een filosofisch mysterie, dat volgens mij geen enkele behavioristische invloed heeft, want anders zou bewustzijn in tegenspraak zijn met fysica.
We hebben gisteren in Luik nog meegemaakt hoe 'bewustzijn' en jihadistische ideeën iemands gedrag wel degelijk heeft beïnvloed. Dit toont aan dat uw fysica niet de totale werkelijkheid representeert.
Men moet een onderscheid maken tussen de easy problem en de hard problem of consciousness. De easy problem of consciousness behandelt al die zaken zoals de werking van de zintuigen en het neuraal netwerk, dat is niet in tegenspraak met uw fysica. The hard problem dat behelst het ervarend subject is niet compatibel met uw fysica. Er ontbreekt iets fundamenteel aan dat wereldbeeld.
Conclusie, dat wat leven/intelligentie/bewustzijn verbindt is een ervarend subject.

morte-vivante
1 juni 2018, 12:33
Could a Neuroscientist Understand a Microprocessor?

Here we will try to understand a known artificial system, a classical microprocessor by applying data analysis methods from neuroscience. We want to see what kind of an understanding would emerge from using a broad range of currently popular data analysis methods. To do so, we will analyze the connections on the chip, the effects of destroying individual transistors, single-unit tuning curves, the joint statistics across transistors, local activities, estimated connections, and whole-device recordings. For each of these, we will use standard techniques that are popular in the field of neuroscience. We find that many measures are surprisingly similar between the brain and the processor but that our results do not lead to a meaningful understanding of the processor. The analysis can not produce the hierarchical understanding of information processing that most students of electrical engineering obtain. It suggests that the availability of unlimited data, as we have for the processor, is in no way sufficient to allow a real understanding of the brain.

http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1005268

patrickve
1 juni 2018, 12:51
Dat kan ook een definitie zijn voor vuur. Vuur kan zich in stand houden en voortplanten over vergankelijke substraten heen. Biochemische processen op zich voldoen niet om leven te definiëren. Elk organisme dat zich als een subject gedraagt kan men leven toekennen.


Ja, een kettingreactie is een heel elementaire vorm van leven, ja. De strategie is bestaande, in de zin dat de strategie erin bestaat om, via de vrijgemaakte energie van een chemische reactie, een gelijkaardige reactie te veroorzaken. Het is een bijzonder elementaire vorm van leven. Maar, in het hypothetische geval (een van de biogenese theorieen) dat primitieve RNA moleculen willekeurig ontstaan waren (equivalent van de vonk), en de eigenschap hadden van direct of indirect identieke RNA moleculen te laten ontstaan vanuit meer elementaire bouwstenen (equivalent van buurmoleculen verhitten om ze ook een verbrandingsreactie laten te ondergaan), vinden we dus het principe van een kettingreactie weer.

Je kan inderdaad stellen dat de meest simpele vorm van leven een kettingreactie is. Tenslotte is een virus niks anders dan een heel gesofistikeerde kettingreactie: een virus is een molecule, die in een omgeving van levende cellen, aanleiding geeft tot meer moleculen.

Ja, vuur is volgens mijn definitie, een vorm van leven, juist.



Hier heb je hetzelfde probleem, dikwijls wordt probleem oplossend vermogen als een vorm van intelligentie beschouwd. Maar je hebt een subject nodig die iets als een probleem ervaart. Apparaten kennen geen problemen en hebben geen behoefte aan een strategie.


Inderdaad. Vandaar dat een apparaat op zich in die context geen intelligentie vertoont ; enkel de combinatie "gebruiker-apparaat" heeft intelligentie, omdat, zoals je terecht stelt, er een doelstelling moet zijn.


We hebben gisteren in Luik nog meegemaakt hoe 'bewustzijn' en jihadistische ideeën iemands gedrag wel degelijk heeft beïnvloed. Dit toont aan dat uw fysica niet de totale werkelijkheid representeert.


Maar je gaat mij toch niet zeggen dat dat jihadisme niet vertegenwoordigd wordt door fysische processen in het brein van die jihadist ? Dat die jihadist ook bewust was van wat zijn hersenen dachten, verandert daar niks aan.


Men moet een onderscheid maken tussen de easy problem en de hard problem of consciousness. De easy problem of consciousness behandelt al die zaken zoals de werking van de zintuigen en het neuraal netwerk, dat is niet in tegenspraak met uw fysica.


Juist. Mijn bewering is dat dat alle behaviorisme kan verklaren.


The hard problem dat behelst het ervarend subject is niet compatibel met uw fysica. Er ontbreekt iets fundamenteel aan dat wereldbeeld.

Het feit dat er een bewustzijn is dat dat meemaakt, spreekt het feit niet tegen dat wat er meegemaakt wordt, door de fysica wordt bevolen.

Als in mijn brein fysische processen plaatsvinden die zenuwpulsen naar mijn arm sturen om mijn pint naar mijn mond te brengen, dan is dat pure fysica. Dat ik dat BEWUST ERVAAR als "ik heb goesting om een slok te drinken" is het harde probleem, maar die bewuste ervaring is niet nodig om die pint naar mijn mond te brengen. In mijn visie zijn bewuste ervaringen afgeleid van fysische processen. Het mysterie is hoe zekere fysische processen bewust ervaren worden, en niet omgekeerd. Er is, in mijn visie, niet zoiets als een spook dat plots in de natuurwetten tussenkomt om een cel, die normaal fysisch gezien geen pulsen uit te sturen, dat plots, tegen elke natuurwet in, dat gaat doen. Een cel stuurt pulsen uit omdat de fysica van de cel zo is. En dat een hoop cellen die pulsen uitsturen ook aanleiding geven tot een bewuste ervaring, is een groot mysterie, maar dat verandert niks aan de pulsen.

koppijn
2 juni 2018, 11:05
Ja, vuur is volgens mijn definitie, een vorm van leven, juist.

Whoa, eindelijk het mysterie hoe vanuit inerte materie leven kan ontstaan. Daar is een Nobelprijs aan gekoppeld!





Maar je gaat mij toch niet zeggen dat dat jihadisme niet vertegenwoordigd wordt door fysische processen in het brein van die jihadist ? Dat die jihadist ook bewust was van wat zijn hersenen dachten, verandert daar niks aan.



Als in mijn brein fysische processen plaatsvinden die zenuwpulsen naar mijn arm sturen om mijn pint naar mijn mond te brengen, dan is dat pure fysica. Dat ik dat BEWUST ERVAAR als "ik heb goesting om een slok te drinken" is het harde probleem, maar die bewuste ervaring is niet nodig om die pint naar mijn mond te brengen.
Toch raar, nu geeft je juist een voorbeeld wat juist volledig verklaarbaar is in fysiologische termen. Ons lichaam bestaat voor 70% uit vocht/water, door transpiratie en het urineren is er constant behoefte van het organisme aan vocht dat zich vertaald als dorst. Het is effectief niet nodig dat men dit bewust ervaart, men kan ook handelen vanuit een onbewuste drang. Maar uw voorbeeld gaat over een fysiologische behoefte, het voorbeeld van die geradicaliseerde persoon gaat om een psychologische behoefte. Zo'n draaideur criminelen hebben doorgaans een laag zelfbeeld waar die ronselaars op inwerken. Hier gaat het om van oorsprong een zuiver mentaal proces. Dat elke gedachte ook een fysische representatie heeft in de vorm van neurale verbindingen maakt dat het kan handelen in een fysische context. Maar zijn oorsprong is psychologisch en niet fysiologisch.

satiper
2 juni 2018, 15:45
Dat was mijn punt juist. Ik stelde "wij kennen onze diepste doelstellingen niet". Je antwoordde "toch wel, onze diepste doelstelling is gelukkig zijn". Ok, maar daar zijn we geen centimeter verder mee. Noem "paperclips maken" het "grootste geluk van een paperclip maximizer" en je ziet wat ik bedoel.

'Geen centimeter' is terug een vb van taalgebruik waar AI zich wss niet zal van bedienen.
Geen centimeter betekend in deze waarschijnlijk zoiets als 'niets' of 'geen' het is alleen iets beeldender, iets wat we als mens wel weten te waarderen.

Toch is ook daar heel wat ruimte om van mening te verschillen afhankelijk van de manier waarop men de zaak bekijkt.
Volgens mijn eigen visie is er heel wat verschil (naar menselijk aanvoelen, of vanuit menselijk standpunt) in plaats van geen of nauwelijks verschil.

Stel dat je een AI kunt maken die wel binnen bepaalde grenzen van een bepaalde opdracht blijft (niet zijn eigen agenda gaat realiseren).
Stel dat je aan die AI de opdracht geeft om het lot van van de mens (zoals hij nu is, dus geen cyborg toestanden) te verbeteren op een zo efficiënt mogelijke manier.
Momenteel is het bvb zo dat er 2 miljard mensen met minder dan 2 dollar dient rond te komen.
Hetgeen een ernstige hinderpaal impliceert om nog maar los te komen van de basis van Maslow's piramide (basis van geluk).
2 miljard van de 7 miljard die het zeer moeilijk zal hebben om zijn doel (gelukkig leven) te bereiken (groot percentage dus).
En dat is dan nog maar gewoon op basis van een limiet naar inkomen dat je instelt.
Het voordeel van AI zou kunnen zijn dat je een ongezien groot aantal parameters die het menselijk geluk kunnen helpen verhogen in rekening zou kunnen brengen.
Een kleine greep hieruit: gezondheid (en alle onderliggende parameters die het bevorderen), bezit (idem), ... kortom weer Maslow's lijstje (en alle onderliggende parameters die het bevorderen).
aangevuld met minder voor de hand liggende zaken (omgeving, hoe ziet die er uit, welke omgeving is geluksbevorderend, hoe veel variatie moet hierin gemaakt worden, mogelijkheid om te reizen, enz ..., enz...)

Geluk zelf is mss zelf ook opgebouwd op verschillende niveau's.
Voor de meeste mensen is een van de eerste niveau's toch wel gelegen in het materiële (zeer ruim geïnterpreteerd, ook bomen, natuur, bloemen, bijen horen in dit verband bij het materiële)
AI zou dan op basis van alle input tot een zeker recept komen.
Waarschijnlijk zou dit recept geen eenheidsworst (standaardmenu) zijn maar eerder een soort menu a la carte om het zoveel mogelijk mensen mogelijk te maken hun persoonlijk hoogste geluksniveau te bereiken.

Het zou zijn alsof de ganse mensheid even in z'n totaliteit naar de dokter zou gaan en daar een voorschrift zou krijgen om de toestand van de patiënt (mensheid) te verbeteren.

Stel dat dit recept het mogelijk zou maken om een voedingsbodem te creëren waar 99% van de mensen die de mensheid vormen in staat gesteld wordt om dat maximaal berekenbaar geluksgevoel te realiseren dan zou dat volgens mij een heel groot verschil uitmaken met de situatie zoals we ze nu kennen.
Om het in jouw beeldspraak te vatten, dan spreken we niet over cm's maar over km's.

dewanand
2 juni 2018, 20:42
hahhaah AI is er al, denk aan Moslim Botjes he met IQ van max 65 door 1400 jaar inteelt en genetische degeneratie.

Islam???

Stel dat 20 procent vd AI robots bekeerd worden tot Islam hahahah dan volgt Laatste Dag van Allah direct, ze gaan dan direct aanvallen Allah ho Akbar

kwestie van jihad verzen downloaden in hun ROM. klaar is kees, resetten, rebooten....... JIhad wereldwijd v radicale Islam

patrickve
3 juni 2018, 20:37
Whoa, eindelijk het mysterie hoe vanuit inerte materie leven kan ontstaan. Daar is een Nobelprijs aan gekoppeld!


Ik heb gewoon de definitie verruimd tot wat gehoorzaamt aan de natuurwet die ervoor geldt. Dat gebeurt geregeld (het heet "abstractie"). Denk zuur van Arrhenius, zuur van Bronsted, zuur van Lewis. Of nog: natuurlijk getal, breuk, reeel getal, complex getal, commutatief lichaam.
Biologen hebben een bepaalde definitie van leven, die beperkter is dan de mijne. Elke vorm van biologisch leven is ook "mijn" leven, maar biologisch leven is meer begrensd in zijn definitie: er moet niet alleen voortplanting zijn, er moet ook metabolisme zijn, en het moet ergens met organische scheikunde te doen hebben. Biologen hebben ergens "cel" als levensbouwsteen ingevoerd. Voor hen is een virus geen levend systeem bijvoorbeeld. Dat is hun goede recht in hun vakgebied.


Toch raar, nu geeft je juist een voorbeeld wat juist volledig verklaarbaar is in fysiologische termen. Ons lichaam bestaat voor 70% uit vocht/water, door transpiratie en het urineren is er constant behoefte van het organisme aan vocht dat zich vertaald als dorst. Het is effectief niet nodig dat men dit bewust ervaart, men kan ook handelen vanuit een onbewuste drang. Maar uw voorbeeld gaat over een fysiologische behoefte, het voorbeeld van die geradicaliseerde persoon gaat om een psychologische behoefte.


Psychologische behoeften zijn net zo fysisch als andere, en worden eveneens door totaal fysische processen in de hersenen bepaald. Anders zouden drugs geen invloed kunnen hebben op psychologische toestanden. Met chemicalien maak ik van U een "geradicaliseerd moslim", of een zacht lammetje.

ALLES wat wij denken, voelen, doen, willen, dromen, verlangen, haten, .... is niks anders dan fysica in de hersenen. Wat het grote mysterie is, is hoe het komt dat die fysica ERVAREN wordt als denken, voelen, doen, willen, dromen, verlangen en zo voort. Maar "radicale moslim" is evenveel fysica in een brein dan "zin in een pint".

Diego Raga
3 juni 2018, 20:48
ALLES wat wij denken, voelen, doen, willen, dromen, verlangen, haten, .... is niks anders dan fysica in de hersenen. Wat het grote mysterie is, is hoe het komt dat die fysica ERVAREN wordt als denken, voelen, doen, willen, dromen, verlangen en zo voort. Maar "radicale moslim" is evenveel fysica in een brein dan "zin in een pint".
Akkoord, maar hoe verklaar je dan 'n zgn 'lichaamsuittreding' ?

https://en.wikipedia.org/wiki/Out-of-body_experience

'k Heb dit zelf al eens bewust meegemaakt toen ik op de zetel een krant aan 't lezen was en had daarbij niks gedronken, gerookt, geslikt of wat dan ook.
Was wel indrukwekkend.

satiper
4 juni 2018, 13:59
Akkoord, maar hoe verklaar je dan 'n zgn 'lichaamsuittreding' ?

https://en.wikipedia.org/wiki/Out-of-body_experience

'k Heb dit zelf al eens bewust meegemaakt toen ik op de zetel een krant aan 't lezen was en had daarbij niks gedronken, gerookt, geslikt of wat dan ook.
Was wel indrukwekkend.

Had je nog controle, kon je je geest nog sturen naar waar je wou, en kon je ook op die manier waarnemingen doen, 'zien, horen, voelen' of was het iets dat niet stuurbaar was en dat je eerder moest ondergaan zoals het kwam?

patrickve
4 juni 2018, 14:34
Akkoord, maar hoe verklaar je dan 'n zgn 'lichaamsuittreding' ?


Aangezien het een groot mysterie is *wat* ervaren wordt en hoe de link zit met de "fysica van uw brein", is het ervaren van rare dingen helemaal niet uitgesloten. Het is zelfs eerder eigenaardig dat we meestal "normale" dingen ervaren.

Diego Raga
4 juni 2018, 14:49
Had je nog controle, kon je je geest nog sturen naar waar je wou, en kon je ook op die manier waarnemingen doen, 'zien, horen, voelen' of was het iets dat niet stuurbaar was en dat je eerder moest ondergaan zoals het kwam?
Op 'n fractie van 'n seconde hing 'ik' plots tegen het plafond en kon mezelf zien zitten de krant lezen, zoals je dat iemand anders ziet doen.
Op visueel vlak had ik een 360° beeld van de kamer en het 'mistige' plafond leek me transparant te zijn, maar kon niet echt ontwaren wat zich op de bovenverdieping bevond.
Er was ook niks hoorbaar, gezien het stil was in de kamer, dus geen radio- of tv-geluid waarop ik me eventueel kon richten.
Gezien ik niet voorbereid was op die gebeurtenis, had ik ook niet de impuls om die situatie op m'n gemak eens gade te slaan, maar was eerder ongerust dat ik niet meer zou kunnen terugkeren.
Na wat me enkele seconden leek, viel/stortte ik met 'n rotvaart terug in m'n lichaam en dat was dat.

Dus ja, ik 'onderging' die toestand, zonder er iets voor gedaan te hebben of dat tijdens het gebeuren onder controle te krijgen, 't ging allemeel vrij snel.
De dagen na die ervaring voelde ik me ongewoon licht en soepel en leek elke zware inspanning een akkefietje te zijn.
Na een week ofzo deemsterde dat gevoel van 'lichtheid' weg en werd alles terug 'normaal' zoals tevoren.
Nadien nooit meer meegemaakt.

Diego Raga
4 juni 2018, 14:56
Aangezien het een groot mysterie is *wat* ervaren wordt en hoe de link zit met de "fysica van uw brein", is het ervaren van rare dingen helemaal niet uitgesloten. Het is zelfs eerder eigenaardig dat we meestal "normale" dingen ervaren.
Ja, ik vind zelfs de 'simpelste' zaken van leven ook een mysterie, zelfs het bestaan van een werkend waterstofatoom.
Ik haalde m'n ervaring aan, omdat ik me afvroeg of een AI ook zoiets zou kunnen ervaren als een OBE.
Indien niet, zou dit toch een verschil kunnen maken tussen het 'mysterie' van een menselijk bewustzijn en een artificieel.
Die ervaring leerde me dat bewustzijn enigszins 'los' kan komen van het lichaam, terwijl we dat bij een AI wsl nooit zullen te weten komen.

patrickve
4 juni 2018, 15:06
Op 'n fractie van 'n seconde hing 'ik' plots tegen het plafond en kon mezelf zien zitten de krant lezen, zoals je dat iemand anders ziet doen.
Op visueel vlak had ik een 360° beeld van de kamer en het 'mistige' plafond leek me transparant te zijn, maar kon niet echt ontwaren wat zich op de bovenverdieping bevond.


Het punt is natuurlijk dat, tenzij de fysica op zekere momenten "ongeldig" wordt (dat is altijd een mogelijkheid he, maar ik maak net precies de hypothese van niet), je ginder boven niet echt kunt "zien". Want om te "zien" moet je fotonen absorberen, anders "zie" je ze niet, en daarvoor moet er dus "materiaal" zijn dat ze absorbeert. Ik zou je kunnen vragen of je geen dingen zag in het infrarood of het ultraviolet, en of je bijvoorbeeld beperkt was tot de 3 kleuren van ons netvlies. Maar er was daarboven je lichaam geen "netvlies", dus kan je niet echt die fotonen hebben geabsorbeerd, en ook geen echt licht dat daar was, hebben "gezien".
Het kan dus niet anders dan een soort "illusie" geweest zijn, een soort ongewilde "simulatiemode" in je brein. Het feit dat je "niet echt kon zien wat er op de bovenverdieping gebeurde" (want je hersenen hadden die informatie niet) is misschien een aanwijzing.

patrickve
4 juni 2018, 15:08
Ik haalde m'n ervaring aan, omdat ik me afvroeg of een AI ook zoiets zou kunnen ervaren als een OBE.


Ik denk dat dat niet moeilijk is: je moet hem gewoon in simulatiemode zetten :)

Diego Raga
4 juni 2018, 15:29
Het punt is natuurlijk dat, tenzij de fysica op zekere momenten "ongeldig" wordt (dat is altijd een mogelijkheid he, maar ik maak net precies de hypothese van niet), je ginder boven niet echt kunt "zien". Want om te "zien" moet je fotonen absorberen, anders "zie" je ze niet, en daarvoor moet er dus "materiaal" zijn dat ze absorbeert. Ik zou je kunnen vragen of je geen dingen zag in het infrarood of het ultraviolet, en of je bijvoorbeeld beperkt was tot de 3 kleuren van ons netvlies. Maar er was daarboven je lichaam geen "netvlies", dus kan je niet echt die fotonen hebben geabsorbeerd, en ook geen echt licht dat daar was, hebben "gezien".
Het kan dus niet anders dan een soort "illusie" geweest zijn, een soort ongewilde "simulatiemode" in je brein. Het feit dat je "niet echt kon zien wat er op de bovenverdieping gebeurde" (want je hersenen hadden die informatie niet) is misschien een aanwijzing.
Ok, maar ik had op die waarnemingspositie (aan het plafond) het zicht op de kamer, terwijl mijn fysieke ogen naar de krant aan 't kijken waren.
Ik vraag me dus af hoe die switch van waarneming is kunnen ontstaan, terwijl die zgn 'simulatiemode'' me een andere omgevingshoek liet zien.
Is dat ook chemisch te verklaren ?

satiper
4 juni 2018, 16:22
Op 'n fractie van 'n seconde hing 'ik' plots tegen het plafond en kon mezelf zien zitten de krant lezen, zoals je dat iemand anders ziet doen.
Op visueel vlak had ik een 360° beeld van de kamer en het 'mistige' plafond leek me transparant te zijn, maar kon niet echt ontwaren wat zich op de bovenverdieping bevond.
Er was ook niks hoorbaar, gezien het stil was in de kamer, dus geen radio- of tv-geluid waarop ik me eventueel kon richten.
Gezien ik niet voorbereid was op die gebeurtenis, had ik ook niet de impuls om die situatie op m'n gemak eens gade te slaan, maar was eerder ongerust dat ik niet meer zou kunnen terugkeren.
Na wat me enkele seconden leek, viel/stortte ik met 'n rotvaart terug in m'n lichaam en dat was dat.

Dus ja, ik 'onderging' die toestand, zonder er iets voor gedaan te hebben of dat tijdens het gebeuren onder controle te krijgen, 't ging allemeel vrij snel.
De dagen na die ervaring voelde ik me ongewoon licht en soepel en leek elke zware inspanning een akkefietje te zijn.
Na een week ofzo deemsterde dat gevoel van 'lichtheid' weg en werd alles terug 'normaal' zoals tevoren.
Nadien nooit meer meegemaakt.

Zelf ook éénmalig iets gelijkaardigs meegemaakt (het is lang geleden en behoorlijk vaag ondertussen), idd even schrikken waardoor je niet meteen denkt aan zelf de stuurknuppel te nemen, is wss ook al voldoende om het proces te stoppen.

Lucide dromen zit ook wat in die richting, daar is het ook niet zo makkelijk om bij te sturen. Is me iets meer gebeurd/gelukt, maar ook daar lijkt bijsturen aan te zetten om volledig wakker te worden.
Gewoon observeren lukt beter en geeft meer aanleiding om terug naar gewoon (slapend) dromen over te gaan.

Diego Raga
4 juni 2018, 16:34
Zelf ook éénmalig iets gelijkaardigs meegemaakt (het is lang geleden en behoorlijk vaag ondertussen), idd even schrikken waardoor je niet meteen denkt aan zelf de stuurknuppel te nemen, is wss ook al voldoende om het proces te stoppen.
Idd, de onervarenheid met die toestanden maakt dat men die niet volledig kan exploreren, hoewel er technieken bestaan om zoiets te induceren.
Echter, zonder begeleiding van een ervaren persoon waag ik me er liever niet aan, gezien daar ook risico’s aan verbonden zijn.

Lucide dromen zit ook wat in die richting, daar is het ook niet zo makkelijk om bij te sturen. Is me iets meer gebeurd/gelukt, maar ook daar lijkt bijsturen aan te zetten om volledig wakker te worden.
Gewoon observeren lukt beter en geeft meer aanleiding om terug naar gewoon (slapend) dromen over te gaan.
Over lucide dromen gesproken, soms lukt het wel om dat op tijd te beseffen en dan zijn de mogelijkheden ongelimiteerd.
Toevallig had ik vorige week een begin van zo’n droom.
Toen ik besefte dat ik droomde begaf ik me naar een ruimte waar ik 'n hoop mensen waarnam, maar moest eerst een trap opgaan.
Halfweg struikelde ik en in de haast om me op te richten schoot ik ineens wakker.
Men mag dus niet teveel bijsturen, want dan loopt het idd mis.

Diego Raga
5 juni 2018, 17:01
Om nog eens terug te komen op OBE:

Major breakthrough as scientists confirm out of body experiences are REAL

"Neuroscientists from Sweden's Karolinska Institutet created an out-of-body illusion when they placed study participants in a brain scanner, and used an illusion to ‘teleport’ the individuals to different locations in a room.
--
The 15 individuals involved wore head-mounted displays and viewed themselves and the brain scanner from another part of the room.
--
Mr Guterstam added: "The sense of being a body located somewhere in space is essential for our interactions with the outside world and constitutes a fundamental aspect of human self-consciousness."

https://www.express.co.uk/news/science/703508/Huge-breakthrough-as-scientists-confirm-out-of-body-experiences-are-REAL

Vraag blijft dus of zelfbewustzijn een resultaat is van de hersenactiviteiten of dat hersenen/lichaam een tool zijn van een 'onafhankelijk' bewustzijn.

zonbron
5 juni 2018, 19:38
Goed Nieuws! Skynet is hier, to save the day...


-June 5, 2018 / 6:07 AM / Updated 5 hours ago
Deep in the Pentagon, a secret AI program to find hidden nuclear missiles
https://www.reuters.com/article/us-usa-pentagon-missiles-ai-insight/deep-in-the-pentagon-a-secret-ai-program-to-find-hidden-nuclear-missiles-idUSKCN1J114J


Skynet gaat lanceringen 'voorspellen', dat belooft.

:popcorn:

zonbron
5 juni 2018, 19:42
Mijn excuses. De Skynets dus.

The effort has gone largely unreported, and the few publicly available details about it are buried under a layer of near impenetrable jargon in the latest Pentagon budget. But U.S. officials familiar with the research told Reuters there are multiple classified programs now under way to explore how to develop AI-driven systems to better protect the United States against a potential nuclear missile strike.

If the research is successful, such computer systems would be able to think for themselves, scouring huge amounts of data, including satellite imagery, with a speed and accuracy beyond the capability of humans, to look for signs of preparations for a missile launch, according to more than half a dozen sources. The sources included U.S. officials, who spoke on condition of anonymity because the research is classified.

Forewarned, the U.S. government would be able to pursue diplomatic options or, in the case of an imminent attack, the military would have more time to try to destroy the missiles before they were launched, or try to intercept them.


...

wargames oxo

koppijn
5 juni 2018, 22:05
Om nog eens terug te komen op OBE:

Major breakthrough as scientists confirm out of body experiences are REAL

[I]"Neuroscientists from Sweden's Karolinska Institutet created an out-of-body illusion when they placed study participants in a brain scanner, and used an illusion to ‘teleport’ the individuals to different locations in a room.
--


.
Heel misleidende krantenkop.
Bij volgende ziet U hoe het Karolinska Institutet zo'n illusie opwekt:Illusion of out-of-body experience (https://www.youtube.com/watch?v=ee4-grU_6vs)

patrickve
5 juni 2018, 22:31
Ik vraag me dus af hoe die switch van waarneming is kunnen ontstaan, terwijl die zgn 'simulatiemode'' me een andere omgevingshoek liet zien.
Is dat ook chemisch te verklaren ?

Hallucinaties bestaan. Zij zijn het meeste gekend bij mensen met geestesziekten zoals schizofrenen, en bij het nemen van bepaalde producten. Men weet niet goed hoe het werkt, maar dat het chemisch is, is evident, aangezien het kan veroorzaakt worden door chemicalien, en aangezien het ook kan tegengegaan worden door farmaceutische producten. Mijn schoonbroer is psychiater (in de zware gevallen sectie) en het is verbazend hoe medicamenten een effect kunnen hebben op het cognitieve. Zo heeft hij een patient gehad die altijd aangevallen werd door hagedissen die hij daadwerkelijk zag. Met een paar pillekes gaan die hagedissen weg.

Ik ken de specificiteit van OBE dus niet, maar voor mij is het redelijk duidelijk dat ze nogal verbonden is met hallucinaties. Noem dat "het brein werkt in simulatiemode, ontkoppeld van de daadwerkelijke sensoriele informatieflux, en doet alsof".

patrickve
5 juni 2018, 22:35
Heel misleidende krantenkop.
Bij volgende ziet U hoe het Karolinska Institutet zo'n illusie opwekt:Illusion of out-of-body experience (https://www.youtube.com/watch?v=ee4-grU_6vs)

Wat men tegenwoordig allemaal niet moet doen om aan fondsen te geraken...

Diego Raga
5 juni 2018, 23:49
Heel misleidende krantenkop.
Bij volgende ziet U hoe het Karolinska Institutet zo'n illusie opwekt:Illusion of out-of-body experience (https://www.youtube.com/watch?v=ee4-grU_6vs)
Er zullen wsl ook nog andere valabele methoden zijn om die 'illusie' op te wekken, al blijft de vraag staan hoe chemische processen het eigen bewustzijn kunnen splitten in 2 verschillende waarnemingshoeken.

In mijn geval zat ik niet in een klinische omgeving en had niets ingenomen dat een hallucinatie zou kunnen induceren, alsook dat ik me slechts van 1 waarnemingshoek bewust was, maw, ik was me slechts bewust van mijn 'plafondpositie', maar niet dat ik op datzelfde moment de krant aan het lezen was, itt de proefpersonen in dat experiment die zichzelf in en vanuit beide posities konden waarnemen.

Het blijft toch vreemde shit.

Diego Raga
5 juni 2018, 23:51
Hallucinaties bestaan. Zij zijn het meeste gekend bij mensen met geestesziekten zoals schizofrenen, en bij het nemen van bepaalde producten. Men weet niet goed hoe het werkt, maar dat het chemisch is, is evident, aangezien het kan veroorzaakt worden door chemicalien, en aangezien het ook kan tegengegaan worden door farmaceutische producten. Mijn schoonbroer is psychiater (in de zware gevallen sectie) en het is verbazend hoe medicamenten een effect kunnen hebben op het cognitieve. Zo heeft hij een patient gehad die altijd aangevallen werd door hagedissen die hij daadwerkelijk zag. Met een paar pillekes gaan die hagedissen weg.
Ok dat (foute) hersenchemie aan de basis ligt van ongecontroleerd hallucineren en dat een ‘goede’ chemische toevoeging ook voor een ‘verdwijnen’ ervan kunnen zorgen.
Tot zover ben ik mee.
Ik ken de specificiteit van OBE dus niet, maar voor mij is het redelijk duidelijk dat ze nogal verbonden is met hallucinaties. Noem dat "het brein werkt in simulatiemode, ontkoppeld van de daadwerkelijke sensoriele informatieflux, en doet alsof".
Waarom zou het brein dan die alsof-mogelijkheid (evolutionair) ingebouwd hebben ?
Zo’n psychische split is dan toch eerder contraproductief – vanuit evolutionair standpunt bekeken - dan dat het iemand zou helpen ‘te overleven’ ?

zonbron
6 juni 2018, 00:52
Hallucinaties bestaan. Zij zijn het meeste gekend bij mensen met geestesziekten zoals schizofrenen, en bij het nemen van bepaalde producten. Men weet niet goed hoe het werkt, maar dat het chemisch is, is evident, aangezien het kan veroorzaakt worden door chemicalien, en aangezien het ook kan tegengegaan worden door farmaceutische producten. Mijn schoonbroer is psychiater (in de zware gevallen sectie) en het is verbazend hoe medicamenten een effect kunnen hebben op het cognitieve. Zo heeft hij een patient gehad die altijd aangevallen werd door hagedissen die hij daadwerkelijk zag. Met een paar pillekes gaan die hagedissen weg.

Ik ken de specificiteit van OBE dus niet, maar voor mij is het redelijk duidelijk dat ze nogal verbonden is met hallucinaties. Noem dat "het brein werkt in simulatiemode, ontkoppeld van de daadwerkelijke sensoriele informatieflux, en doet alsof".

Heel wat van het cognitieve, net zoals evenwicht, zit hem meestal in de nek. Niet in de brains. Een weetje.

Het brein op zich werkt idd op iets uiterst vergelijkbaar met een simulatiemode.

patrickve
6 juni 2018, 05:22
Waarom zou het brein dan die alsof-mogelijkheid (evolutionair) ingebouwd hebben ?
Zo’n psychische split is dan toch eerder contraproductief – vanuit evolutionair standpunt bekeken - dan dat het iemand zou helpen ‘te overleven’ ?

Geen idee, maar ik kan wel enkele redenen bedenken. Een eerste kan zijn dat het een bijverschijnsel is van een nuttige functie (bijvoorbeeld "zich dingen kunnen inbeelden"). Je hebt vaak in de biologie het verschijnsel dat, om een zekere functie te realiseren, er "bijwerkingen" zijn: zolang de totale balans van voordeel van de functie, en nadeel van de bijwerking nog altijd positief is, zal dat verschijnsel positief geselecteerd worden. Een voorbeeld is de sikkelziekte in Afrika.
Een tweede kan zijn dat het gewoon een fout is, maar dat het zodanig weinig gebeurt dat de nefaste effecten ervan klein zijn, en de negatieve selectie niet opweegt tegen de "ruis", ttz, de willekeurige effecten in selectie.
En misschien is het iets dat sociaal positief is. Misschien zijn mensen die OBE hebben, sociaal gevenereerd als Shaman of zo, en was de aanvankelijke "bug" plots een sociaal voordeel.

patrickve
6 juni 2018, 05:22
Heel wat van het cognitieve, net zoals evenwicht, zit hem meestal in de nek. Niet in de brains. Een weetje.


Dat is juist. Als ik hier zever, dan klets ik uit mijn nek, en niet uit mijn brains :lol:

morte-vivante
6 juni 2018, 08:47
MIT Creates An AI Psychopath Because Someone Had To Eventually (https://www.geek.com/tech/mit-creates-an-ai-psychopath-because-someone-had-to-eventually-1741948/)
Either way, it reinforces one very important fact about AI: that the worldview of an AI is very much determined by the information it gathers while learning. That’s obviously not a new revelation. We saw something similar play out when Microsoft’s Twitter bot went from normal to racist in less than 24 hours.

zonbron
6 juni 2018, 14:35
Dat is juist. Als ik hier zever, dan klets ik uit mijn nek, en niet uit mijn brains :lol:

:rofl: :-P

praha
2 augustus 2018, 20:20
Ok dat (foute) hersenchemie aan de basis ligt van ongecontroleerd hallucineren en dat een ‘goede’ chemische toevoeging ook voor een ‘verdwijnen’ ervan kunnen zorgen.
Tot zover ben ik mee.

Waarom zou het brein dan die alsof-mogelijkheid (evolutionair) ingebouwd hebben ?
Zo’n psychische split is dan toch eerder contraproductief – vanuit evolutionair standpunt bekeken - dan dat het iemand zou helpen ‘te overleven’ ?
het brein doet dat eigenlijk altijd...vandaar dat ge ook bedrogen kunt uitkomen.
Neem gewoon de visuele herkenningstechnieken...je hoeft maar de helft van de input te hebben en toch zegt het brein 'appel'
99 op 100 klopt dit .... in 1 op de 100 zal het een ufo zijn ;-)

Diego Raga
3 augustus 2018, 22:15
het brein doet dat eigenlijk altijd...vandaar dat ge ook bedrogen kunt uitkomen.
Neem gewoon de visuele herkenningstechnieken...je hoeft maar de helft van de input te hebben en toch zegt het brein 'appel'
99 op 100 klopt dit .... in 1 op de 100 zal het een ufo zijn ;-)
Je punt is me bekend. Zoals bv volledige zinnen kunnen lezen waarvan de klinkers ontbreken of vanuit een geïsoleerde klank een lied herkennen.

Maar in mijn specifieke OBE-situatie ervaarde ik 2 verschillende waarnemingshoeken tegelijk – vanuit de zetel de krant lezen en dat beeld tegelijk waarnemen vanaf het plafond -, waarbij ik me dus afvraag hoe m’n brein die plafond-ervaring kon genereren.

Nu ja, er zijn wsl wel enkele klinisch-wetenschappelijke verklaringen daarvoor, maar die nemen toch het realistisch aandoende karakter niet weg van die specifieke waarneming/ervaring, die voor mij als ‘echter’ overkwam, dan wanneer ik – al dan niet routinematig - mijn dagelijkse dingen doe.

Bovenbuur
4 augustus 2018, 08:14
MIT Creates An AI Psychopath Because Someone Had To Eventually (https://www.geek.com/tech/mit-creates-an-ai-psychopath-because-someone-had-to-eventually-1741948/)

Ik heb het artikel even gelezen. Wat ze blijkbaar gedaan hebben is een pattern recognition programma foto's laten zien met captions als "Man komt onder trein" en "Hillary vermoord nog een baby", en vervolgens hebben ze hem andere foto's laten zien en gevraagd: van alle categorieën die je kent, waar valt deze foto in? Het klinkt heel creepy, dat een programma in een inktvlek een man die onder de bus komt zou zien, maar het is gewoon een programma dat kleur en vorm probeert te matchen aan afbeeldingen die hij kent, en deze afbeelding lijkt nog het meest op die van een man die onder de bus komt. Daar zit geen enkele kwade bedoeling achter. Of in ieder geval niet vanuit de AI, de comment section maakt zich al klaar om computers in de fik te gaan steken.

praha
8 augustus 2018, 22:59
Je punt is me bekend. Zoals bv volledige zinnen kunnen lezen waarvan de klinkers ontbreken of vanuit een geïsoleerde klank een lied herkennen.

Maar in mijn specifieke OBE-situatie ervaarde ik 2 verschillende waarnemingshoeken tegelijk – vanuit de zetel de krant lezen en dat beeld tegelijk waarnemen vanaf het plafond -, waarbij ik me dus afvraag hoe m’n brein die plafond-ervaring kon genereren.
fantasie misschien ?
Je bouwt een virtueel beeld op van een gekende locatie bv waar al die gezichtspunten je al bekend zijn.
Er zijn me maar een paar dubieuze/vreemde gevallen bekend van bede's waar de patiënt zaken ziet die hij vermeend nooit daarvoor kan gezien hebben en die achteraf schijnen te kloppen als men dat checkt vanuit die welbepaalde waarnemingshoek.

nu, ik had je al wel eens verteld over mijn eigen kleine ervaring van slaapparalyse ?
Ook iets heel geks... ge zit dan in feite in een droomfase maar ondertussen werken je zintuigen wel


Nu ja, er zijn wsl wel enkele klinisch-wetenschappelijke verklaringen daarvoor, maar die nemen toch het realistisch aandoende karakter niet weg van die specifieke waarneming/ervaring, die voor mij als ‘echter’ overkwam, dan wanneer ik – al dan niet routinematig - mijn dagelijkse dingen doe.
ja klopt maar zulke dingen kan je dus ook perfect triggeren met wat chemische middelen

morte-vivante
8 augustus 2018, 23:11
Ik heb het artikel even gelezen. Wat ze blijkbaar gedaan hebben is een pattern recognition programma foto's laten zien met captions als "Man komt onder trein" en "Hillary vermoord nog een baby", en vervolgens hebben ze hem andere foto's laten zien en gevraagd: van alle categorieën die je kent, waar valt deze foto in? Het klinkt heel creepy, dat een programma in een inktvlek een man die onder de bus komt zou zien, maar het is gewoon een programma dat kleur en vorm probeert te matchen aan afbeeldingen die hij kent, en deze afbeelding lijkt nog het meest op die van een man die onder de bus komt. Daar zit geen enkele kwade bedoeling achter. Of in ieder geval niet vanuit de AI, de comment section maakt zich al klaar om computers in de fik te gaan steken.

misschien is het gewoon een slecht idee om het de mens als voorbeeld te laten nemen.

Ik meen me die bot nog te herinneren die op 24u racistische praat begon te verkopen, net omdat het leerde uit zijn interactie met echte mensen

Een van mijn douche-gedachtengangen is soms: stel nu dat een advanced alien ras heimelijk op aarde landt om de mens beter te leren kennen. Om dat te doen logt het in op het internet, en gebruikt die hoeveelheid aan informatie om de mens te beoordelen. Zou het dan een positief beeld hebben van de mens? Of eerder omgekeerd?

patrickve
9 augustus 2018, 09:35
Een van mijn douche-gedachtengangen is soms: stel nu dat een advanced alien ras heimelijk op aarde landt om de mens beter te leren kennen. Om dat te doen logt het in op het internet, en gebruikt die hoeveelheid aan informatie om de mens te beoordelen. Zou het dan een positief beeld hebben van de mens? Of eerder omgekeerd?

Wat zou het betekenen voor een advanced alien om een "positief beeld" te hebben van de mens ? Hebben wij een positief beeld van E. Coli ?

Ik denk dat "internet discussies" interessant zijn omdat ze net menselijke aspecten blootleggen die in "real world" omgang onderdrukt en uitgefilterd worden. De sociale codes en zelf-censuur die we onszelf opleggen en die verwacht is in normale real world interacties is enorm, en fijngetuned sinds eeuwen, met alle sociale drukkingsmiddelen die erbij horen.

Gedurende enkele decennia heeft een discussie op internet het voordeel gehad van die filters wat weg te nemen, en de medemens in een iets meer authentiek licht te zien, maar de sociale filters zijn zich nu ook al ten volle aan het ontwikkelen in deze ooit vrije omgeving, en binnen enkele decennia zullen de discussies op internet even glad en rimpelloos hypocriet zijn als de rest van onze sociale interacties.

praha
9 augustus 2018, 23:03
misschien is het gewoon een slecht idee om het de mens als voorbeeld te laten nemen.

Ik meen me die bot nog te herinneren die op 24u racistische praat begon te verkopen, net omdat het leerde uit zijn interactie met echte mensen

Een van mijn douche-gedachtengangen is soms: stel nu dat een advanced alien ras heimelijk op aarde landt om de mens beter te leren kennen. Om dat te doen logt het in op het internet, en gebruikt die hoeveelheid aan informatie om de mens te beoordelen. Zou het dan een positief beeld hebben van de mens? Of eerder omgekeerd?
douche-gedachtengangen ?
Kwestie van de tijd tussen het wisselen van shampoo en douchegel nuttig te besteden ?

Bovenbuur
11 augustus 2018, 10:22
misschien is het gewoon een slecht idee om het de mens als voorbeeld te laten nemen.

Ik meen me die bot nog te herinneren die op 24u racistische praat begon te verkopen, net omdat het leerde uit zijn interactie met echte mensen

Een van mijn douche-gedachtengangen is soms: stel nu dat een advanced alien ras heimelijk op aarde landt om de mens beter te leren kennen. Om dat te doen logt het in op het internet, en gebruikt die hoeveelheid aan informatie om de mens te beoordelen. Zou het dan een positief beeld hebben van de mens? Of eerder omgekeerd?

Ik heb zelf van redelijk dichtbij zo'n bot meegemaakt, Hubert Both. (Ja, heel subtiel.) Hij was losgelaten op de site van de Nederlandse krant de Telegraaf, en scande alle reacties onder artikelen die over een bepaald aantal reacties heen gingen. Dus een paar mensen die rustig het nieuws bespreken neemt hij niet mee, maar honderd mensen die om het hardst schreeuwen dat hierom alle moslims het land uit moeten wel. Toen Hubert eenmaal in reageerstand werd gezet en dus zelf kon gaan posten kwam er dan ook behoorlijk racistische taal uit. (Nou ja, natuurlijk niet altijd racistisch, maar het idee is mensen een beeld te geven van de stijl van de comments, en daar ken ik geen betere kortere omschrijving van. Misschien... bot?) Gebaseerd op alle reacties op de populairste artikelen.

Maar, Hubert begreep natuurlijk niet wat hij zij. Zijn beste en meest begrijpelijke reacties bevatten dan ook de grootste stukken die direct gekopieerd waren. Als je hele zinnen aan elkaar plakt ben je al gauw enigszins begrijpelijk als bot. En ondanks dat je de invoer niet expliciet filtert op "ik wil hem alleen van racistische praat laten leren" voer je zo'n filtering wel impliciet uit door hem überhaupt van internet te laten leren, en van reacties in plaats van artikelen, en en van een krant die fout was in de oorlog (ja, dat getuigd van heel veel klasse, na 3 generaties nog natrappen), en van allen de artikelen waar mensen helemaal los gaan in de comments. De gemiddelde inhoud van menselijke communicatie valt best mee, Hubert Both was ingesteld om de donkere hoekjes uit te vegen. Die aliens gebruiken hopelijk andere protocollen dan dat als ze een beeld van ons willen krijgen.

kelt
5 december 2018, 20:22
AI is allemaal leuk en wel,maar hoe pas je dat in de praktijk toe,ik bedoel in de vorm van een "iets" waarmee een mens iets kan?

In het ISS hebben ze CIMON de AI- assistent.Het ding bevat blijkbaar werkprocedures die opgevraagd kunnen worden door dat gewoon te vragen ,en er bestaat ook de mogelijkheid om andere gesprekken mee te voeren....tot op zekere hoogte.

Vooral in het tweede deel toe wordt het eerder grappig: :-)
https://www.youtube.com/watch?v=3_2Jy1Ur0js#action=share

Micele
25 juli 2019, 19:49
Microsoft investeert $1 miljard in OpenAI (founder Elon Musk, maar gestopt wegens...)

Nederlands : https://www.manners.nl/microsoft-investeert-miljard-dollar-grootste-angst-elon-musk/?utm_source=google&utm_medium=organic

https://www.nytimes.com/2019/07/22/technology/open-ai-microsoft.html

https://en.wikipedia.org/wiki/OpenAI