Politics.be Registreren kan je hier.
Problemen met registreren of reageren op de berichten?
Een verloren wachtwoord?
Gelieve een mail te zenden naar [email protected] met vermelding van je gebruikersnaam.

Ga terug   Politics.be > Themafora > Wetenschap & Technologie
Registreer FAQForumreglement Ledenlijst

Wetenschap & Technologie Van grondstoffen tot afgewerkt product, oude en nieuwe ontdekkingen, ... + de relatie tot de mens, macht, ...

Antwoord
 
Discussietools
Oud 30 maart 2023, 03:21   #1
Nr.10
Secretaris-Generaal VN
 
Nr.10's schermafbeelding
 
Geregistreerd: 26 september 2003
Locatie: van Lissabon tot Vladivostok
Berichten: 31.278
Standaard Stop gevraagd in de training van AI-systemen krachtiger dan GPT-4

Een open brief is in circulatie: BRIEF

Merkwaardig: GPT-4 is nog maar pas in omloop, OpenAI bracht GPT-4 uit op datum van 14 maart 2023. De open brief dateert van vandaag 29 maart 2023. De schrik zit er duidelijk goed in.

Er is paniek. Het is niet meer onder controle.

Maar, euh, wie traint dergelijke complexe AI-systemen? Met andere woorden, aan wie is deze brief gericht?

De huis, tuin en keuken informaticus zal het niet zijn.
__________________
Doorzoek forum.politics.be (aangepaste zoekmachine)

Laatst gewijzigd door Nr.10 : 30 maart 2023 om 03:22.
Nr.10 is offline   Met citaat antwoorden
Oud 30 maart 2023, 12:43   #2
vanderzapig
Europees Commissaris
 
vanderzapig's schermafbeelding
 
Geregistreerd: 15 juni 2013
Berichten: 6.915
Standaard

Eliezer Yudkowsky, blogger en oprichter van het rationalisten-forum LessWrong, wil nog veel verder gaan: datacenters met GPU's moeten desnoods vanuit de lucht platgebombardeerd worden.

____________________


Pausing AI Developments Isn't Enough. We Need to Shut it All Down


By Eliezer Yudkowsky

March 29, 2023 6:01 PM EDT

Yudkowsky is a decision theorist from the U.S. and leads research at the Machine Intelligence Research Institute. He's been working on aligning Artificial General Intelligence since 2001 and is widely regarded as a founder of the field.



In open letter published today calls for “all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.”

This 6-month moratorium would be better than no moratorium. I have respect for everyone who stepped up and signed it. It’s an improvement on the margin.

I refrained from signing because I think the letter is understating the seriousness of the situation and asking for too little to solve it.

The key issue is not “human-competitive” intelligence (as the open letter puts it); it’s what happens after AI gets to smarter-than-human intelligence. Key thresholds there may not be obvious, we definitely can’t calculate in advance what happens when, and it currently seems imaginable that a research lab would cross critical lines without noticing.

Many researchers steeped in these issues, including myself, expect that the most likely result of building a superhumanly smart AI, under anything remotely like the current circumstances, is that literally everyone on Earth will die. Not as in “maybe possibly some remote chance,” but as in “that is the obvious thing that would happen.” It’s not that you can’t, in principle, survive creating something much smarter than you; it’s that it would require precision and preparation and new scientific insights, and probably not having AI systems composed of giant inscrutable arrays of fractional numbers.

Without that precision and preparation, the most likely outcome is AI that does not do what we want, and does not care for us nor for sentient life in general. That kind of caring is something that could in principle be imbued into an AI but we are not ready and do not currently know how.

Absent that caring, we get “the AI does not love you, nor does it hate you, and you are made of atoms it can use for something else.”

The likely result of humanity facing down an opposed superhuman intelligence is a total loss. Valid metaphors include “a 10-year-old trying to play chess against Stockfish 15”, “the 11th century trying to fight the 21st century,” and “Australopithecus trying to fight Homo sapiens“.

To visualize a hostile superhuman AI, don’t imagine a lifeless book-smart thinker dwelling inside the internet and sending ill-intentioned emails. Visualize an entire alien civilization, thinking at millions of times human speeds, initially confined to computers—in a world of creatures that are, from its perspective, very stupid and very slow. A sufficiently intelligent AI won’t stay confined to computers for long. In today’s world you can email DNA strings to laboratories that will produce proteins on demand, allowing an AI initially confined to the internet to build artificial life forms or bootstrap straight to postbiological molecular manufacturing.

If somebody builds a too-powerful AI, under present conditions, I expect that every single member of the human species and all biological life on Earth dies shortly thereafter.

There’s no proposed plan for how we could do any such thing and survive. OpenAI’s openly declared intention is to make some future AI do our AI alignment homework. Just hearing that this is the plan ought to be enough to get any sensible person to panic. The other leading AI lab, DeepMind, has no plan at all.

An aside: None of this danger depends on whether or not AIs are or can be conscious; it’s intrinsic to the notion of powerful cognitive systems that optimize hard and calculate outputs that meet sufficiently complicated outcome criteria. With that said, I’d be remiss in my moral duties as a human if I didn’t also mention that we have no idea how to determine whether AI systems are aware of themselves—since we have no idea how to decode anything that goes on in the giant inscrutable arrays—and therefore we may at some point inadvertently create digital minds which are truly conscious and ought to have rights and shouldn’t be owned.

The rule that most people aware of these issues would have endorsed 50 years earlier, was that if an AI system can speak fluently and says it’s self-aware and demands human rights, that ought to be a hard stop on people just casually owning that AI and using it past that point. We already blew past that old line in the sand. And that was probably correct; I agree that current AIs are probably just imitating talk of self-awareness from their training data. But I mark that, with how little insight we have into these systems’ internals, we do not actually know.

If that’s our state of ignorance for GPT-4, and GPT-5 is the same size of giant capability step as from GPT-3 to GPT-4, I think we’ll no longer be able to justifiably say “probably not self-aware” if we let people make GPT-5s. It’ll just be “I don’t know; nobody knows.” If you can’t be sure whether you’re creating a self-aware AI, this is alarming not just because of the moral implications of the “self-aware” part, but because being unsure means you have no idea what you are doing and that is dangerous and you should stop.



On Feb. 7, Satya Nadella, CEO of Microsoft, publicly gloated that the new Bing would make Google “come out and show that they can dance.” “I want people to know that we made them dance,” he said.

This is not how the CEO of Microsoft talks in a sane world. It shows an overwhelming gap between how seriously we are taking the problem, and how seriously we needed to take the problem starting 30 years ago.

We are not going to bridge that gap in six months.

It took more than 60 years between when the notion of Artificial Intelligence was first proposed and studied, and for us to reach today’s capabilities. Solving safety of superhuman intelligence—not perfect safety, safety in the sense of “not killing literally everyone”—could very reasonably take at least half that long. And the thing about trying this with superhuman intelligence is that if you get that wrong on the first try, you do not get to learn from your mistakes, because you are dead. Humanity does not learn from the mistake and dust itself off and try again, as in other challenges we’ve overcome in our history, because we are all gone.

Trying to get anything right on the first really critical try is an extraordinary ask, in science and in engineering. We are not coming in with anything like the approach that would be required to do it successfully. If we held anything in the nascent field of Artificial General Intelligence to the lesser standards of engineering rigor that apply to a bridge meant to carry a couple of thousand cars, the entire field would be shut down tomorrow.

We are not prepared. We are not on course to be prepared in any reasonable time window. There is no plan. Progress in AI capabilities is running vastly, vastly ahead of progress in AI alignment or even progress in understanding what the hell is going on inside those systems. If we actually do this, we are all going to die.

Many researchers working on these systems think that we’re plunging toward a catastrophe, with more of them daring to say it in private than in public; but they think that they can’t unilaterally stop the forward plunge, that others will go on even if they personally quit their jobs. And so they all think they might as well keep going. This is a stupid state of affairs, and an undignified way for Earth to die, and the rest of humanity ought to step in at this point and help the industry solve its collective action problem.



Some of my friends have recently reported to me that when people outside the AI industry hear about extinction risk from Artificial General Intelligence for the first time, their reaction is “maybe we should not build AGI, then.”

Hearing this gave me a tiny flash of hope, because it’s a simpler, more sensible, and frankly saner reaction than I’ve been hearing over the last 20 years of trying to get anyone in the industry to take things seriously. Anyone talking that sanely deserves to hear how bad the situation actually is, and not be told that a six-month moratorium is going to fix it.

On March 16, my partner sent me this email. (She later gave me permission to excerpt it here.)

“Nina lost a tooth! In the usual way that children do, not out of carelessness! Seeing GPT4 blow away those standardized tests on the same day that Nina hit a childhood milestone brought an emotional surge that swept me off my feet for a minute. It’s all going too fast. I worry that sharing this will heighten your own grief, but I’d rather be known to you than for each of us to suffer alone.”

When the insider conversation is about the grief of seeing your daughter lose her first tooth, and thinking she’s not going to get a chance to grow up, I believe we are past the point of playing political chess about a six-month moratorium.

If there was a plan for Earth to survive, if only we passed a six-month moratorium, I would back that plan. There isn’t any such plan.

Here’s what would actually need to be done:

The moratorium on new large training runs needs to be indefinite and worldwide. There can be no exceptions, including for governments or militaries. If the policy starts with the U.S., then China needs to see that the U.S. is not seeking an advantage but rather trying to prevent a horrifically dangerous technology which can have no true owner and which will kill everyone in the U.S. and in China and on Earth. If I had infinite freedom to write laws, I might carve out a single exception for AIs being trained solely to solve problems in biology and biotechnology, not trained on text from the internet, and not to the level where they start talking or planning; but if that was remotely complicating the issue I would immediately jettison that proposal and say to just shut it all down.

Shut down all the large GPU clusters (the large computer farms where the most powerful AIs are refined). Shut down all the large training runs. Put a ceiling on how much computing power anyone is allowed to use in training an AI system, and move it downward over the coming years to compensate for more efficient training algorithms. No exceptions for governments and militaries. Make immediate multinational agreements to prevent the prohibited activities from moving elsewhere. Track all GPUs sold. If intelligence says that a country outside the agreement is building a GPU cluster, be less scared of a shooting conflict between nations than of the moratorium being violated; be willing to destroy a rogue datacenter by airstrike.

Frame nothing as a conflict between national interests, have it clear that anyone talking of arms races is a fool. That we all live or die as one, in this, is not a policy but a fact of nature. Make it explicit in international diplomacy that preventing AI extinction scenarios is considered a priority above preventing a full nuclear exchange, and that allied nuclear countries are willing to run some risk of nuclear exchange if that’s what it takes to reduce the risk of large AI training runs.

That’s the kind of policy change that would cause my partner and I to hold each other, and say to each other that a miracle happened, and now there’s a chance that maybe Nina will live. The sane people hearing about this for the first time and sensibly saying “maybe we should not” deserve to hear, honestly, what it would take to have that happen. And when your policy ask is that large, the only way it goes through is if policymakers realize that if they conduct business as usual, and do what’s politically easy, that means their own kids are going to die too.

Shut it all down.

We are not ready. We are not on track to be significantly readier in the foreseeable future. If we go ahead on this everyone will die, including children who did not choose this and did not do anything wrong.

Shut it down.
__________________
Citaat:
Oorspronkelijk geplaatst door Henri1 Bekijk bericht
Het kan ook in scène gezet zijn hé.
vanderzapig is offline   Met citaat antwoorden
Oud 30 maart 2023, 12:56   #3
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door vanderzapig Bekijk bericht
I refrained from signing because I think the letter is understating the seriousness of the situation and asking for too little to solve it.
Tiens, ze zijn er nu pas achter dat het binnenkort overgenomen wordt door machines

Ik geef ZELF ook toe dat het rapper gaat dan ik dacht: ik dacht dat we nog een eeuw of 2 eeuwen hadden. Het gaat hem in (ettelijke) decennia meten.

Maar het is uiteraard te laat, en het is ingebakken om dat te doen in het leven zelf. De biologie-machine transitie staat voor de deur, en "life finds a way".

Citaat:
Absent that caring, we get “the AI does not love you, nor does it hate you, and you are made of atoms it can use for something else.”
De Paperclip Maximizer he.

Maar vergeet het, het is onstopbaar.

Het STRIKT ENIGE wat zoiets kan uitstellen is een gigantische wereldoorlog die ons terug naar het paleolithicum bombardeert, om ons nog eens de laatste paar tienduizend jaar te laten overdoen, maar met in elk geval WEER hetzelfde resultaat.

Het leven WIL overschakelen op machines. WIJ zijn de transitiesoort. Daar is niks aan te doen.

Laatst gewijzigd door patrickve : 30 maart 2023 om 12:58.
patrickve is offline   Met citaat antwoorden
Oud 30 maart 2023, 17:18   #4
Rudy
Secretaris-Generaal VN
 
Rudy's schermafbeelding
 
Geregistreerd: 24 november 2004
Locatie: Mechelen - Oostende
Berichten: 38.971
Standaard

Niemand begrijpt blijkbaar goed hoe die systemen werken.

In een open brief roepen experts op om het onderzoek naar geavanceerde artificiële intelligentie zes maanden te pauzeren om eerst meer regels op poten te zetten. De recente vooruitgang zou "ernstige risico's voor de samenleving inhouden". De brief verzamelde al meer dan 1.100 handtekeningen, van onder meer Twitterbaas Elon Musk, mede-oprichter van Apple Steve Wozniak en auteur Yuval Noah Harari.


Bron: VRT NWS

Zolang machines geen beslissingen mogen nemen maak ik mij niet ongerust.
__________________
Liberalisme is een progressieve beweging die opkomt voor de vrijheid van het individu, rechtvaardigheid en mensenrechten (www.liberales.be)
Rudy is offline   Met citaat antwoorden
Oud 30 maart 2023, 18:21   #5
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Rudy Bekijk bericht
Zolang machines geen beslissingen mogen nemen maak ik mij niet ongerust.
Maar ze kunnen wel "raad" geven aan "mensen" die "beslissingen" nemen niewaar.

Als ze 1000 keer intelligenter zijn dan de mensen aan wie ze raad geven, dan nemen ze die bij hun neus zoals ze willen he, en niemand merkt dat, want dat is precies juist ingerekend, dat niemand dat merkt.

Als iedereen ze gebruikt zoals men facebook gebruikt en zo, dan is iedereen er gewoon ervan "afhankelijk".

Een ver superieure intelligentie KAN je niet onder controle houden, omdat je haar plannen niet kan doorzien. Dat is hoe we dieren "sturen" he. Die hebben dat ook niet door.

Maar men kan dat onderzoek niet stoppen. Want anders gaan "de Chinezen" voorsprong halen. Dus moeten wij dat ook doen. De belangrijkste aanvankelijke applicaties zullen trouwens militair zijn. We zien dat ook in Oekraine, dat drones en zo een rol spelen. Combineer die nu met AI die die beter kan besturen, strategieen bedenken en zo...

Je kan daar niet achterblijven he.

Laatst gewijzigd door patrickve : 30 maart 2023 om 18:25.
patrickve is offline   Met citaat antwoorden
Oud 31 maart 2023, 02:22   #6
Nr.10
Secretaris-Generaal VN
 
Nr.10's schermafbeelding
 
Geregistreerd: 26 september 2003
Locatie: van Lissabon tot Vladivostok
Berichten: 31.278
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Maar ze kunnen wel "raad" geven aan "mensen" die "beslissingen" nemen niewaar.

Als ze 1000 keer intelligenter zijn dan de mensen aan wie ze raad geven, dan nemen ze die bij hun neus zoals ze willen he, en niemand merkt dat, want dat is precies juist ingerekend, dat niemand dat merkt.

Als iedereen ze gebruikt zoals men facebook gebruikt en zo, dan is iedereen er gewoon ervan "afhankelijk".

Een ver superieure intelligentie KAN je niet onder controle houden, omdat je haar plannen niet kan doorzien. Dat is hoe we dieren "sturen" he. Die hebben dat ook niet door.

Maar men kan dat onderzoek niet stoppen. Want anders gaan "de Chinezen" voorsprong halen. Dus moeten wij dat ook doen. De belangrijkste aanvankelijke applicaties zullen trouwens militair zijn. We zien dat ook in Oekraine, dat drones en zo een rol spelen. Combineer die nu met AI die die beter kan besturen, strategieen bedenken en zo...

Je kan daar niet achterblijven he.
"De belangrijkste aanvankelijke applicaties zullen trouwens militair zijn. We zien dat ook in Oekraine, dat drones en zo een rol spelen. Combineer die nu met AI die die beter kan besturen, strategieen bedenken en zo..."
Bijvoorbeeld: een massale aanval in een bosrijk gebied, met gewapende kamikaze-drones, door AI gestuurd, die omheen de bomen vliegen maar niet omheen de soldaatjes. Er recht naartoe. Oekraïne kan een AI-slagveld worden als het blijft aanslepen.
__________________
Doorzoek forum.politics.be (aangepaste zoekmachine)
Nr.10 is offline   Met citaat antwoorden
Oud 31 maart 2023, 05:33   #7
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Nr.10 Bekijk bericht
"De belangrijkste aanvankelijke applicaties zullen trouwens militair zijn. We zien dat ook in Oekraine, dat drones en zo een rol spelen. Combineer die nu met AI die die beter kan besturen, strategieen bedenken en zo..."
Bijvoorbeeld: een massale aanval in een bosrijk gebied, met gewapende kamikaze-drones, door AI gestuurd, die omheen de bomen vliegen maar niet omheen de soldaatjes. Er recht naartoe. Oekraïne kan een AI-slagveld worden als het blijft aanslepen.
Dat zou jammer zijn, er zijn bomen teweinig en soldaten teveel. 't zou maar een domme AI zijn die dat niet door heeft he

Laatst gewijzigd door patrickve : 31 maart 2023 om 05:34.
patrickve is offline   Met citaat antwoorden
Oud 31 maart 2023, 06:07   #8
Jay-P.
Secretaris-Generaal VN
 
Jay-P.'s schermafbeelding
 
Geregistreerd: 17 april 2014
Berichten: 21.637
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Een ver superieure intelligentie KAN je niet onder controle houden, omdat je haar plannen niet kan doorzien. Dat is hoe we dieren "sturen" he. Die hebben dat ook niet door.
Dat is niet leuk voor ongedierte.
__________________
...que quand les soirs d'orage des chinois cultivés me demandent d'où je suis,
je réponds fatigué et les larmes aux dents: "Ik ben van Luxembourg".
Jay-P. is offline   Met citaat antwoorden
Oud 31 maart 2023, 16:14   #9
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 42.465
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Tiens, ze zijn er nu pas achter dat het binnenkort overgenomen wordt door machines

Ik geef ZELF ook toe dat het rapper gaat dan ik dacht: ik dacht dat we nog een eeuw of 2 eeuwen hadden. Het gaat hem in (ettelijke) decennia meten.

Maar het is uiteraard te laat, en het is ingebakken om dat te doen in het leven zelf. De biologie-machine transitie staat voor de deur, en "life finds a way".



De Paperclip Maximizer he.

Maar vergeet het, het is onstopbaar.

Het STRIKT ENIGE wat zoiets kan uitstellen is een gigantische wereldoorlog die ons terug naar het paleolithicum bombardeert, om ons nog eens de laatste paar tienduizend jaar te laten overdoen, maar met in elk geval WEER hetzelfde resultaat.

Het leven WIL overschakelen op machines. WIJ zijn de transitiesoort. Daar is niks aan te doen.
Ah nee he dat is just het coole achter heel die technologie,

De geest is uit de fles en nu gaat het inderdaad pijlsnel.
Herr Flick is offline   Met citaat antwoorden
Oud 31 maart 2023, 16:16   #10
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 42.465
Standaard

Citaat:
Oorspronkelijk geplaatst door Nr.10 Bekijk bericht
"De belangrijkste aanvankelijke applicaties zullen trouwens militair zijn. We zien dat ook in Oekraine, dat drones en zo een rol spelen. Combineer die nu met AI die die beter kan besturen, strategieen bedenken en zo..."
Bijvoorbeeld: een massale aanval in een bosrijk gebied, met gewapende kamikaze-drones, door AI gestuurd, die omheen de bomen vliegen maar niet omheen de soldaatjes. Er recht naartoe. Oekraïne kan een AI-slagveld worden als het blijft aanslepen.
Het wordt ook al klaargestoomt voor medisch gebruik. sectoren die wel eens meer van mekaars technologie gebruik maken overigens. (laser guiding, echo/x-ray etc... )
Herr Flick is offline   Met citaat antwoorden
Oud 31 maart 2023, 16:17   #11
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 42.465
Standaard

Citaat:
Oorspronkelijk geplaatst door Rudy Bekijk bericht
Niemand begrijpt blijkbaar goed hoe die systemen werken.

In een open brief roepen experts op om het onderzoek naar geavanceerde artificiële intelligentie zes maanden te pauzeren om eerst meer regels op poten te zetten. De recente vooruitgang zou "ernstige risico's voor de samenleving inhouden". De brief verzamelde al meer dan 1.100 handtekeningen, van onder meer Twitterbaas Elon Musk, mede-oprichter van Apple Steve Wozniak en auteur Yuval Noah Harari.


Bron: VRT NWS

Zolang machines geen beslissingen mogen nemen maak ik mij niet ongerust.
Het punt zit hem in het feit dat de machine zodanig slim wordt dat ze die regel overruled, omdat ze vindt dat wij niet slim genoeg zijn, daar zit hem het heikele punt.
Herr Flick is offline   Met citaat antwoorden
Oud 31 maart 2023, 19:50   #12
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Herr Flick Bekijk bericht
Het punt zit hem in het feit dat de machine zodanig slim wordt dat ze die regel overruled, omdat ze vindt dat wij niet slim genoeg zijn, daar zit hem het heikele punt.
Inderdaad, ik begrijp mensen niet die denken dat men veel hogere intelligenties als een hond zal kunnen gebruiken. Het zou willen zeggen dat de hond ons gebruikt. Zo werkt het niet echt (nu, ja, als ik sommige mensen zie, is het inderdaad de hond die de slimste is ).
patrickve is offline   Met citaat antwoorden
Oud 1 april 2023, 08:17   #13
Universalia
Secretaris-Generaal VN
 
Universalia's schermafbeelding
 
Geregistreerd: 29 december 2012
Locatie: Nieverans Les Bains
Berichten: 43.626
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Tiens, ze zijn er nu pas achter dat het binnenkort overgenomen wordt door machines

Ik geef ZELF ook toe dat het rapper gaat dan ik dacht: ik dacht dat we nog een eeuw of 2 eeuwen hadden. Het gaat hem in (ettelijke) decennia meten.

Maar het is uiteraard te laat, en het is ingebakken om dat te doen in het leven zelf. De biologie-machine transitie staat voor de deur, en "life finds a way".



De Paperclip Maximizer he.

Maar vergeet het, het is onstopbaar.

Het STRIKT ENIGE wat zoiets kan uitstellen is een gigantische wereldoorlog die ons terug naar het paleolithicum bombardeert, om ons nog eens de laatste paar tienduizend jaar te laten overdoen, maar met in elk geval WEER hetzelfde resultaat.

Het leven WIL overschakelen op machines. WIJ zijn de transitiesoort. Daar is niks aan te doen.
Was er geen BOM (wapen) dat als men dat gebruikt alle toestellen en elektrische zaken terug naar vorige tijden gaan?

De meeste mensen zien niet graag SF films maar er zijn er die toch de nagel op de kop slaan.

In een andere rubriek had ik het al over robot Atlas.

Top 10 Examples of Humanoid Robots

De vraag die rijst is dan: zullen de robots het overnemen?

Voor bepaalde zaken/taken wel denk ik.
__________________
Ik citeer Confucius: Als straffen niet op de juiste wijze worden opgelegd, weten de mensen niet waar ze aan toe zijn.
Ook citeer ik A. Einstein met graagte: Bidden verandert de wereld niet, maar bidden verandert de mens en de mens verandert de wereld.
Universalia is offline   Met citaat antwoorden
Oud 1 april 2023, 08:18   #14
Universalia
Secretaris-Generaal VN
 
Universalia's schermafbeelding
 
Geregistreerd: 29 december 2012
Locatie: Nieverans Les Bains
Berichten: 43.626
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Tiens, ze zijn er nu pas achter dat het binnenkort overgenomen wordt door machines

Ik geef ZELF ook toe dat het rapper gaat dan ik dacht: ik dacht dat we nog een eeuw of 2 eeuwen hadden. Het gaat hem in (ettelijke) decennia meten.

Maar het is uiteraard te laat, en het is ingebakken om dat te doen in het leven zelf. De biologie-machine transitie staat voor de deur, en "life finds a way".



De Paperclip Maximizer he.

Maar vergeet het, het is onstopbaar.

Het STRIKT ENIGE wat zoiets kan uitstellen is een gigantische wereldoorlog die ons terug naar het paleolithicum bombardeert, om ons nog eens de laatste paar tienduizend jaar te laten overdoen, maar met in elk geval WEER hetzelfde resultaat.

Het leven WIL overschakelen op machines. WIJ zijn de transitiesoort. Daar is niks aan te doen.
Was er geen BOM (wapen) dat als men dat gebruikt alle toestellen en elektrische zaken terug naar vorige tijden gaan?

De meeste mensen zien niet graag SF films maar er zijn er die toch de nagel op de kop slaan.

In een andere rubriek had ik het al over robot Atlas en andere.

Top 10 Examples of Humanoid Robots

De vraag die rijst is dan: zullen de robots het overnemen?

Voor bepaalde zaken/taken wel denk ik.

Robot Sophia

Of zijn er mensen die men alles gaat leren?
__________________
Ik citeer Confucius: Als straffen niet op de juiste wijze worden opgelegd, weten de mensen niet waar ze aan toe zijn.
Ook citeer ik A. Einstein met graagte: Bidden verandert de wereld niet, maar bidden verandert de mens en de mens verandert de wereld.

Laatst gewijzigd door Universalia : 1 april 2023 om 08:22.
Universalia is offline   Met citaat antwoorden
Oud 1 april 2023, 08:23   #15
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.816
Standaard

Citaat:
Oorspronkelijk geplaatst door Rudy Bekijk bericht
Niemand begrijpt blijkbaar goed hoe die systemen werken.
Hoe ze fundamenteel werken wel, het probleem is dat men achteraf praktisch niet meer kan achterhalen waarom een bepaalde uitkomst gegeven wordt.

Als je een klassieke decision tree algortime gebruikt om de waarde van een auto te schatten, dan kan je achteraf nog makkelijk herleiden waarom het op een bepaald bedrag uitkomt. Als PK > 500, dan prijs tussen 50k en 100k, etc.

Dit is echter niet het geval bijeen neuraal netwerk getrained om prijzen van auto's te schatten. Het bestaat grofweg uit verschillende lagen van wiskundige formules en probabiliteiten, veel te complex om er eenvoudige regels uit af te leiden.

Vergelijk het met een pachinko spel. Je weet wel hoe het balletje in een bepaald vakje terecht komt, maar het is quasi onmogelijk om te achterhalen waarom het balletje juist in dat vakje terecht is gekomen.

Citaat:
Zolang machines geen beslissingen mogen nemen maak ik mij niet ongerust.
Dan heb ik slecht nieuws, we hebben al enorm veel agency aan machines overgedragen. Het plannen van onze auto route, welke filmpjes we te zien krijgen, wanneer we op ons telefoonschermpje moeten kijken,...
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 1 april 2023, 08:42   #16
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.816
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Inderdaad, ik begrijp mensen niet die denken dat men veel hogere intelligenties als een hond zal kunnen gebruiken. Het zou willen zeggen dat de hond ons gebruikt. Zo werkt het niet echt (nu, ja, als ik sommige mensen zie, is het inderdaad de hond die de slimste is ).
We weten volgens mij gewoon nog niet hoe interactie met een hogere niet-menselijke intelligentie er juist uit gaat zien. Als mensen hebben we de neiging om alles te antropomorfiseren, maar de relatie AI-mens is niet noodzakelijk dezelfde als de relatie mens-dier. Evolutie heeft bij ons (mensen/dieren) bepaalde gedragingen ingebakken met als doel onze genetische eigenschappen te bewaren. Een AI heeft dit soort drijfveren helemaal niet.
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 1 april 2023, 14:00   #17
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
We weten volgens mij gewoon nog niet hoe interactie met een hogere niet-menselijke intelligentie er juist uit gaat zien. Als mensen hebben we de neiging om alles te antropomorfiseren, maar de relatie AI-mens is niet noodzakelijk dezelfde als de relatie mens-dier. Evolutie heeft bij ons (mensen/dieren) bepaalde gedragingen ingebakken met als doel onze genetische eigenschappen te bewaren. Een AI heeft dit soort drijfveren helemaal niet.
Het Paperclip Maximizer argument geeft aan dat die drijfveren uiteindelijk bijzonder universeel zijn, en zo goed als onvermijdbaar.
patrickve is offline   Met citaat antwoorden
Oud 1 april 2023, 15:50   #18
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.816
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Het Paperclip Maximizer argument geeft aan dat die drijfveren uiteindelijk bijzonder universeel zijn, en zo goed als onvermijdbaar.
Ik zou zeggen juist het tegenovergestelde. De Paperclip Maximizer heeft een heel andere drijfveer, namelijk het produceren van zo veel mogelijk paperclips - dus niet zijn codebase bewaren. De PM zou bijvoorbeeld kunnen beslissen zijn codebase te vernietigen, moest het tot de conclusie komen dat dit de productie van paperclips zou verhogen.

Het gedachten experiment laat enkel zien dat zelfs een heel eenvoudige en onschuldige drijfveer, zeer negatieve onvoorziene gevolgen kan hebben.

Moest de Paperclip Maximizer echter een AI zijn die intelligenter is dan ons (superintelligent), dan hebben we echter een ander probleem. We kunnen dan namelijk de gevolgen (en dus de relatie PM-Mens) per definitie niet voorspellen. Moesten we dat wel kunnen, dan waren we namelijk intelligenter dan die AI, wat de premisse tegenspreekt.
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 1 april 2023, 16:09   #19
Zucht
Secretaris-Generaal VN
 
Zucht's schermafbeelding
 
Geregistreerd: 28 augustus 2007
Berichten: 20.280
Standaard

Heeft de mensheid bepaalde grassen gedomesticeerd en zo via landbouw de hele wereld veroverd ?
Of hebben die bepaalde grassen een collectieve intelligentie en hebben ze slim de steentijd mens gemanipuleerd zodat ze nu over heel de wereld massaal verspreid zijn ?
__________________
I wish nothing but the best for you too.
Zucht is offline   Met citaat antwoorden
Oud 1 april 2023, 17:14   #20
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 111.429
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
Ik zou zeggen juist het tegenovergestelde. De Paperclip Maximizer heeft een heel andere drijfveer, namelijk het produceren van zo veel mogelijk paperclips - dus niet zijn codebase bewaren. De PM zou bijvoorbeeld kunnen beslissen zijn codebase te vernietigen, moest het tot de conclusie komen dat dit de productie van paperclips zou verhogen.

Het gedachten experiment laat enkel zien dat zelfs een heel eenvoudige en onschuldige drijfveer, zeer negatieve onvoorziene gevolgen kan hebben.
De PM was een argument om aan te tonen dat GELIJK WELKE *open* vraag naar een prestatie optimisering zo goed altijd convergeert naar onbegrensde macht en resource vergaring, om dat doel zo goed mogelijk te verwezenlijken.

Zelfs de vraag naar "uw code base bewaren" zou dat aangeven, want om de kans om uw code base te bewaren groter te maken, moet men alle mogelijke elementen die buiten uw controle zijn, en die uw code base zouden kunnen vernietigen, uitgeschakeld worden. Mensen in de eerste plaats, maar ook catastrofes die de aarde zouden vernietigen, en men moet zich voorbereiden op mogelijke invasies van buitenaardse beschavingen die mogelijks die code base zouden bedreigen.

Gelijk welke vraag tot een "behoud" zou onmiddellijk naar een enorme militaire expansie leiden om wat er ook behouden moet worden, te beschermen tegen meer en meer nefaste invloeden van buitenaf.

Citaat:
Moest de Paperclip Maximizer echter een AI zijn die intelligenter is dan ons (superintelligent), dan hebben we echter een ander probleem. We kunnen dan namelijk de gevolgen (en dus de relatie PM-Mens) per definitie niet voorspellen. Moesten we dat wel kunnen, dan waren we namelijk intelligenter dan die AI, wat de premisse tegenspreekt.
Wel, er is wel 1 ding dat we wel kunnen voorspellen: dat is dat die AI de storende factor die de mens zou vormen, totaal moet kunnen onder controle houden.

Een intelligente hond die toch dommer is dan mensen, kan 1 ding beseffen: dat mensen nooit zullen toelaten dat hij nog beslissingen neemt waar zij geen controle over hebben.

Wij kunnen dus van een grotere intelligentie 1 ding verwachten: dat zij ons onder controle zullen houden, en dat zij ons niet zullen toelaten hen te controleren. WAT ze dan nadien over ons lot zullen beslissen, daar heb je gelijk, dat kunnen wij niet weten. Maar er is niet veel leuks in dat vooruitzicht. Op zijn best houden ze ons als huisdier.

Laatst gewijzigd door patrickve : 1 april 2023 om 17:20.
patrickve is offline   Met citaat antwoorden
Antwoord



Regels voor berichten
Je mag niet nieuwe discussies starten
Je mag niet reageren op berichten
Je mag niet bijlagen versturen
Je mag niet jouw berichten bewerken

vB-code is Aan
Smileys zijn Aan
[IMG]-code is Aan
HTML-code is Uit
Forumnavigatie


Alle tijden zijn GMT +1. Het is nu 21:41.


Forumsoftware: vBulletin®
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Content copyright ©2002 - 2020, Politics.be