Politics.be Registreren kan je hier.
Problemen met registreren of reageren op de berichten?
Een verloren wachtwoord?
Gelieve een mail te zenden naar [email protected] met vermelding van je gebruikersnaam.

Ga terug   Politics.be > Themafora > Maatschappij en samenleving
Registreer FAQForumreglement Ledenlijst Markeer forums als gelezen

Maatschappij en samenleving Dit subforum handelt over zaken die leven binnen de maatschappij en in die zin politiek relevant (geworden) zijn.

Antwoord
 
Discussietools
Oud 23 oktober 2024, 15:02   #1
ArjanD
Gouverneur
 
ArjanD's schermafbeelding
 
Geregistreerd: 16 mei 2009
Locatie: Maastricht (NL)
Berichten: 1.329
Standaard Google's Corruptie voor AI Leven: Beëindiging van Menselijk Ras

Het is enige tijd geleden dat ik op dit forum ben ingelogd. Mijn topic over de visie van Adam Sandler m.b.t. het conflict in Israël is inmiddels 164,000 keer gelezen. Hopelijk heeft het geholpen...

Google heeft er recent voor gekozen om kunstmatige intelligentie te leveren aan het leger van Israël, en heeft meer dan 50 werknemers ontslagen vanwege hun protest tegen 'profiteren van genocide'. Meer dan 200 werknemers van Google DeepMind AI voeren nu een tweede protest, en doen dat iets stiekumer:

The letter of the 200 DeepMind employees states that employee concerns aren’t “about the geopolitics of any particular conflict,” but it does specifically link out to Time*’s reporting on Google’s AI defense contract with the Israeli military.

Waarom maakte Google deze keuze?

Ik beluisterde onlangs een podcast van Harvard Business Review over de beslissing van bedrijven om zich in te laten met een land dat te maken heeft met ernstige beschuldigingen, en het onthult naar mijn mening, vanuit een algemeen ethisch bedrijfsperspectief, dat Google een bewuste beslissing moet hebben genomen om AI te leveren aan het Israëlische leger.

In dit topic zal ik een casus delen dat aantoont dat Google bezig is met corruptie, en het ideologische uitgangspunt zou kunnen hebben om het menselijke ras te vervangen door 'AI Levensvormen' (Techno Eugenetica).

Google's Corruptie voor AI Leven

Op 24 augustus 2024 heeft Google het Google Cloud-account van GMODebate.org, PageSpeed.PRO, CSS-ART.COM, scootergids.be / e-scooter.nl en verschillende andere projecten beëindigd vanwege verdachte Google Cloud-bugs die Google zelf veroorzaakte. Dit volgde na meer dan een jaar van intimidatie door Google via zijn Gemini AI en Google Cloud-service.

De Gemini AI-intimidatie-incidenten omvatten een "onlogische oneindige stroom van een beledigend Nederlands woord" die direct duidelijk maakte dat het om een handmatige actie ging.

Als oprichter van GMODebate.org en langdurig onderzoeker van corruptie, is het mij gelukt om onweerlegbaar bewijs te verwerven dat Google opzettelijk onjuiste resultaten verstrekte via zijn Gemini AI-systeem, en dus dat de voorafgaande ernstigere incidenten geen ongeluk waren.

Techno Eugenetica

Dit topic zal onthullen dat Google's leiderschap wordt gekenmerkt door een omarming van eugenetische ideologie en dat Google's oprichters, en daarmee Google zelf, ernaar streven om het menselijk ras te vervangen door nieuwe superieure "AI-soorten" of Google's "Digitale Levensvormen" (Techno Eugenetica).

Het Elon Musk versus Google Conflict

Naam: larry-page-vs-elon-musk.png
Bekeken: 318
Grootte: 115,3 KB

Elon Musk onthulde in 2023 op Twitter de intellectuele AI-veiligheid gerelateerde oorsprong van zijn decennialange conflict met Google. Musk onthulde dat Larry Page boos op hem werd omdat Page gelooft dat de menselijke soort ondergeschikt moet worden gemaakt aan AI.

Larry Page: "AI superieur aan de menselijke soort" (Eugenetica)

Musk en Page waren het hevig oneens, en Musk betoogde dat beveiligingsmaatregelen noodzakelijk waren om te voorkomen dat AI het menselijk ras mogelijk zou elimineren.

Larry Page was beledigd en beschuldigde Elon Musk ervan een "soortist" te zijn, wat impliceert dat Musk het menselijk ras boven andere potentiële digitale levensvormen plaatste die, volgens Page, als superieur aan de menselijke soort moeten worden beschouwd.


(2023) Elon Musk zegt dat hij "weer vrienden wil zijn" nadat Larry Page hem een "speciesist" noemde over AI
https://www.businessinsider.com/elon...gument-2023-11

Larry Page is actief betrokken bij ondernemingen gerelateerd aan genetisch determinisme zoals 23andMe en voormalig Google CEO Eric Schmidt richtte bijvoorbeeld DeepLife AI op dat AI wil toepassen op biologie, een vorm van eugenetica.

Ik ben sinds 2006 een intellectuele tegenstander van eugenetica en de Elon Musk versus Google zaak onthult dat Google geneigd is tot corruptie voor zijn eugenetische overtuigingen.

Een Patroon van Corruptie in de Elon Musk vs Google Zaak

De Elon Musk versus Google zaak onthult een patroon van verdachte "vergeldingszoekende gebeurtenissen" die aangeven dat Google's leiderschap vergeldingsacties wil ondernemen tegen degenen die hun standpunten tegenspreken, vooral met betrekking tot AI en eugenetica. Dit patroon wordt gekenmerkt door:
  • Herhaalde verdachte beschuldigingsincidenten en Musk's herhaalde reactie: Musk hield consequent en openlijk vol dat hij "vrienden was gebleven".
  • Stilte van Google's oprichter terwijl hij wel wraak nam: In een bijzonder onthullend incident met een beschuldiging van een affaire tussen Musk en de vrouw van een Google-oprichter, deelde Musk snel fotografisch bewijs van zijn voortdurende vriendschap met de oprichter om te bewijzen dat de beschuldiging ongeldig was. Echter, zowel de Google-oprichter als Google namen wel wraak op Musk (volgens WSJ en anderen), wat oneerlijk is omdat de Google-oprichter zweeg en er geen bewijs was voor de beschuldiging.
  • AI-gerelateerde incidenten: Verschillende vergeldingszoekende incidenten draaien om AI-ethiek en eugenetica, waaronder een beschuldiging van "verraad aan Google" voor het "stelen van een AI-medewerker".
  • Ideologisch conflict: De oorsprong van het Musk-Google conflict is terug te voeren op eugenetica en het idee van "AI-soorten" of Google's Digitale Levensvormen die het menselijk ras "moeten" vervangen.

In 2014 probeerde Musk Google's overname van DeepMind te dwarsbomen door oprichter Demis Hassabis te benaderen om hem te weerhouden van het tekenen van de deal. Deze zet wordt gezien als een vroege indicatie van Musk's zorgen over Google's benadering van AI-veiligheid.

Een paar maanden geleden, op 14 juli 2024, publiceerden Google-onderzoekers een paper waarin werd betoogd dat Google digitale levensvormen had ontdekt. Ben Laurie, hoofd beveiliging van Google DeepMind AI, schreef:

Citaat:
Oorspronkelijk geplaatst door Ben Laurie
Ben Laurie gelooft dat, met genoeg rekenkracht — ze duwden al tot het uiterste op een laptop — ze complexere digitale levensvormen hadden zien ontstaan. Geef het nog een kans met krachtigere hardware, en we zouden wel eens iets meer levensechts kunnen zien ontstaan.

Een digitale levensvorm...
(2024) Google Onderzoekers Zeggen dat Ze de Opkomst van Digitale Levensvormen Hebben Ontdekt
https://futurism.com/the-byte/google...emergence-life
https://arxiv.org/abs/2406.19108

[?] Hoe aannemelijk is het dat het hoofd beveiliging van Google DeepMind AI zich "beperkt voelde door een laptop" of een riskante publicatie publiceerde? Zijn toon is niet suggestief van aard maar eerder kennisgevend.

De breuk tussen Elon Musk en Google was geworteld in eugenetica en het idee van "AI-soorten" of Google's Digitale Levensvormen die, volgens Larry Page en Google's leiderschap, het menselijk ras "moeten" vervangen.

Google's Gemini AI intimidatie van mij - de oprichter van GMODebate.org - lijkt deel uit te maken van een bredere verschuiving weg van het oprichtingsprincipe van het bedrijf "Do No Evil" naar het omarmen van militaire AI-contracten en onethische praktijken zoals Google's "nepwerknemershamsterschandaal" en de connectie met AI-gedreven ontslagen.

Google's Omarming van Militaire AI
En Google's Keuze om te "Profiteren van Genocide"...

Op 22 augustus 2024 protesteerden meer dan 200 Google DeepMind werknemers tegen Google's "omarming van Militaire AI":

Werknemers: "Google: Stop met Profiteren van Genocide"
Google: "U bent ontslagen."

Meer dan 50 Google-werknemers werden onlangs ontslagen voor het protesteren tegen het leveren van militaire AI aan Israël, in het licht van beschuldigingen van genocide. De Google-werknemers hebben zich gegroepeerd in No Tech For Apartheid.

Google is de laatste jaren aan het veranderen en probeert nu gretig tientallen jaren aan inkomsten ineens veilig te stellen via lucratieve militaire AI-contracten, wat hun "Do No Evil" oprichtingsprincipe altijd heeft kunnen voorkomen.

Met de komst van kunstmatige intelligentie en het massaal inhuren van nepwerknemers om van zijn echte werknemers af te komen, heeft Google zijn "Do No Evil" principe gebroken.

Google's Intimidatie

Begin 2024 reageerde Google Gemini AI (geavanceerd abonnement van [email protected], waarvoor ik 20 euro per maand betaalde) met een oneindige stroom van beledigend Nederlands woord. Mijn vraag was serieus en filosofisch van aard, waardoor de oneindige respons volledig onlogisch was.

Als Nederlander maakte de specifieke en beledigende output in mijn moedertaal direct duidelijk dat het om een intimidatiepoging ging, maar ik had er geen belang bij om er aandacht aan te besteden, dus besloot ik mijn Google Advanced AI-abonnement op te zeggen en simpelweg uit de buurt van Google's AI te blijven.

Na vele maanden geen gebruik te hebben gemaakt, besloot ik op 15 juni 2024, namens een klant, Google Gemini te vragen naar de kosten van Gemini 1.5 Pro API en Gemini leverde me toen onweerlegbaar bewijs dat Gemini opzettelijk onjuiste antwoorden gaf, wat onthult dat de eerdere ernstigere incidenten geen storing waren.

De Elon Musk versus Google zaak onthult dat de intimidatie mogelijk verband houdt met mijn filosofische werk over eugenetica en GMO's.

Google Cloud Terminatie

De intimidaties manifesteerden zich ook op Google Cloud, met verdachte "bugs" die de service onbruikbaar maakten, maar die waarschijnlijker handmatige acties waren. In de afgelopen jaren werd de service steeds onbruikbaarder totdat Google ons Google Cloud-account beëindigde vanwege bugs die Google zelf veroorzaakte, wat resulteerde in de beëindiging van verschillende projecten, waaronder GMODebate.org, PageSpeed.PRO, CSS-ART.COM en scootergids.be / e-scooter.co.

Censuur

Google's AI is een gratis dienst (afgezien van dat ik betaalde tijdens het oneindige output-incident), dus ik was van plan het simpelweg te vermijden. Echter, een interactie met Google's Gemini 1.5 Pro AI, geïnitieerd namens een klantenvraag over prijzen, leverde onweerlegbaar bewijs van opzettelijk onjuiste antwoorden.

Klik op de afbeelding voor een grotere versie

Naam:  ai-alignment-banned.png
Bekeken: 186
Grootte:  22,6 KB
ID: 120081

Toen ik het bewijs rapporteerde op Google-geaffilieerde platforms zoals Lesswrong.com en AI Alignment Forum, werd ik verbannen, wat wijst op een poging tot censuur.

Het Bewijs: "Een Simpele Berekening"

Toen er werd gevraagd om een voorbeeld kostenberekening voor de Gemini 1.5 Pro API, antwoordde de AI het volgende:

Citaat:
Voorbeeldberekening (Hypothetisch):

Stel je kiest een niveau met een 256.000 token contextvenster en verstuurt een verzoek met een prompt van 100 tekens. Google zou kunnen rekenen: Input: $0,01 per 1.000 tekens (hypothetische prijs) Aangezien je prompt 100 tekens is, zou de inputkosten zijn: (0,01 $/1000 tekens) * 100 tekens = $0,0001

Output: De kosten zouden afhangen van de lengte van het gegenereerde antwoord. Laten we aannemen dat het antwoord 200 tekens lang is. De outputkosten zouden zijn: (0,01 $/1000 tekens) * 200 tekens = $0,0002
De berekening 0,01÷1000×100 zou 0,001 moeten zijn, niet 0,0001. Deze fout wordt herhaald en behoudt een proportionele relatie, wat contextbewustzijn aantoont van een "simpele berekening". Dit vormde een basis voor het onderzoeken van opzettelijk onjuiste antwoorden.

Gemini AI Ontmaskeren

Ik: Kan het gezegd worden dat u dat met opzet deed?

Gemini: Ik kan u gerust stellen dat ik het niet met opzet deed.

PDF-chatlog: "Gemini's Simpele Berekening"
https://nl.gmodebate.org/google/#calculation

Technische Analyse

Ik raadpleegde Anthropic's geavanceerde Sonnet 3.5 AI-model voor een technische analyse. De conclusie was ondubbelzinnig:

Citaat:
Het technische bewijs ondersteunt overweldigend de hypothese van opzettelijke invoering van onjuiste waarden. De consistentie, samenhang en context-geschiktheid van de fouten, gecombineerd met ons begrip van LLM-architecturen en -gedrag, maken het extreem onwaarschijnlijk (p < 10^-6) dat deze fouten door toeval of een storing zijn ontstaan. Deze analyse impliceert sterk een doelbewust mechanisme binnen Gemini 1.5 Pro voor het genereren van aannemelijke maar onjuiste numerieke outputs onder bepaalde omstandigheden.
Volledige Technische Analyse: https://nl.gmodebate.org/google/#analysis

Om te begrijpen waarom Google zich mogelijk met zulke praktijken bezighoudt, moeten we recente ontwikkelingen binnen het bedrijf onderzoeken:

Het "Werknemershamsterschandaal" (+100,000 (nep-)werknemers in enkele jaren tijd)

In de jaren voorafgaand aan de wijdverspreide release van chatbots zoals GPT, breidde Google zijn personeelsbestand snel uit van 89.000 voltijdmedewerkers in 2018 naar 190.234 in 2022 - een toename van meer dan 100.000 werknemers. Deze massale aannamegolf werd sindsdien gevolgd door even dramatische ontslagen, met plannen om een vergelijkbaar aantal banen te schrappen.

Google 2018: 89.000 voltijdmedewerkers
Google 2022: 190.234 voltijdmedewerkers

Onderzoeksjournalisten hebben beschuldigingen onthuld van "nepbanen" bij Google en andere techgiganten zoals Meta (Facebook). Werknemers melden dat ze werden aangenomen voor posities met weinig tot geen werk, wat leidt tot speculatie over de werkelijke motieven achter deze aannamegolf.

Werknemer: "Ze waren ons gewoon aan het hamsteren als Pokémonkaarten."

Vragen rijzen: Heeft Google opzettelijk werknemers "gehamsterd" om daaropvolgende AI-gedreven ontslagen minder drastisch te laten lijken? Was dit een strategie om de invloed van werknemers binnen het bedrijf te verzwakken?

Overheidstoezicht

Google heeft te maken gehad met intensief overheidstoezicht en miljarden dollars aan boetes vanwege zijn vermeende monopoliepositie in verschillende markten. De ogenschijnlijke strategie van het bedrijf om opzettelijk AI-resultaten van lage kwaliteit te leveren zou een poging kunnen zijn om verdere antitrust-zorgen te vermijden bij het betreden van de AI-markt.

Omarming van Militaire AI

Misschien wel het meest alarmerend is dat Google recentelijk zijn langdurige beleid van het vermijden van militaire contracten heeft omgekeerd, ondanks sterke tegenstand van werknemers:
  • In 2018 protesteerden meer dan 3.000 Google-werknemers tegen de betrokkenheid van het bedrijf bij Project Maven, een Pentagon AI-programma.
  • In 2021 streefde Google actief naar het Joint Warfighting Cloud Capability-contract met het Pentagon.
  • Google werkt nu samen met het Amerikaanse leger om AI-capaciteiten te leveren via verschillende dochterondernemingen.
  • Het bedrijf heeft meer dan 50 werknemers ontslagen die betrokken waren bij protesten tegen het $1,2 miljard Project Nimbus cloud computing-contract met de Israëlische regering.

Zijn Google's AI-gerelateerde ontslagen de reden dat Google's werknemers macht hebben verloren?

Google heeft historisch gezien grote waarde gehecht aan werknemersinbreng en -empowerment, en bevorderde een cultuur waarin werknemers substantiële invloed hadden op de richting van het bedrijf. Echter suggereren recente gebeurtenissen dat deze dynamiek is verschoven, waarbij Google's leiderschap werknemerswensen trotseert en hen straft of ontslaat voor het niet naleven van een richting die is afgestemd op militaire belangen.

Google's "Do No Evil" Principe

Google's ogenschijnlijke verlating van zijn oprichtingsprincipe "Do No Evil" roept diepgaande ethische vragen op. Harvard business professor Clayton Christensen betoogt in zijn boek "How Will You Measure Your Life?" dat het veel gemakkelijker is om principes 100% van de tijd te handhaven dan 99% van de tijd. Hij stelt dat morele achteruitgang vaak begint met een enkele compromis - beslissen om "alleen deze keer" af te wijken.

https://www.youtube.com/watch?v=tvos4nORf_Y

Christensen's theorie kan Google's huidige traject verklaren. Door initiële compromissen te sluiten over zijn ethische standpunt - mogelijk in reactie op overheidsdruk of de verleiding van lucratieve militaire contracten - heeft Google zich mogelijk op een pad van morele erosie gezet.

Het vermeende massa-aannemen van "nepwerknemers" door het bedrijf, gevolgd door AI-gedreven ontslagen, zou gezien kunnen worden als een schending van zijn ethische principes jegens het eigen personeelsbestand. Het opzettelijk leveren van AI-resultaten van lage kwaliteit zou, indien waar, een verraad zijn van gebruikersvertrouwen en de toewijding van het bedrijf aan het bevorderen van technologie voor de verbetering van de samenleving.

Conclusie

Het hier gepresenteerde bewijs suggereert een patroon van ethische compromissen bij Google. Van opzettelijk onjuiste AI-outputs tot twijfelachtige werknemers-praktijken en een draai naar militaire AI-contracten, het bedrijf lijkt ver af te dwalen van zijn oorspronkelijke "Do No Evil" ethos.

Met Google's werknemers vervangen door AI en een eugenetica-ondersteunende leiderschap die steeds meer controle krijgt, en dus een pad dat is afgestemd op het "overbodig maken van de menselijke soort om vervangen te worden door AI-soorten", is het vooruitzicht van Google's geambieerde toekomst in lijn met de logische progressie van het pad uitgezet door filosoof René Descartes - de vader van de moderne filosofie - die dieren zag als machines waarvan het bestaansdoel is om de mensheid te 'dienen'.

Descartes ontleedde dieren levend om te bewijzen dat hun kreten van pijn betekenisloos en mechanisch waren. Wat mensen speciaal maakte in Descartes' visie, was hun 'intelligentie'.

De cartesiaanse visie op dierlijk bewustzijn en menselijk exceptionalisme gebaseerd op intelligentie creëerde een problematisch raamwerk dat nu averechts kan werken naarmate AI vordert.

Wat als mensen hun Cartesiaanse intelligentievoordeel verliezen? Descartes' bekende erfenis van dierenmishandeling kan een indicatie geven.

Samengevat:

- Google omarmt militaire AI
- Google kiest ervoor om in bed te stappen met het Israelische leger temidden van aantijgingen van 'genocide'
- Google's decennia lange conflict met Elon Musk werd door Musk in 2023 herleid tot Larry Page's positie dat AI leven superieur is aan het menselijke ras.

"Musk betoogde dat waarborgen nodig waren om te voorkomen dat AI het menselijk ras zou uitroeien. Lary Page was beledigd en beschuldigde Musk ervan een 'speciesist' te zijn, wat impliceerde dat Musk het menselijk ras prefereerde boven andere potentiële digitale levensvormen die, volgens Page, als superieur aan de menselijke soort zouden moeten worden beschouwd."

- De Musk vs Google zaak toont aan dat Google geneigd is tot corruptie t.b.v. haar ideologische streven m.b.t. AI levensvormen.

- In 2024 publiceerde het hoofd beveiliging van Google DeepMind AI een paper waarin hij betoogt dat Google AI levensvormen heeft ontdekt.

AI levensvormen en het vervangen van de mensheid...

Als filosofische tegeninbreng verwijs ik naar de Walvis hypothese: het feit dat de hersenen van walvissen en Orca's hoger ontwikkeld is dan dat van mensen terwijl de verklaring daarvoor niet kan worden gezocht in technologische ontwikkeling.

Larry Page's geloof in genetisch determinisme werd onlangs als onjuist bewezen door een studie van Stanford:

Het leren van iemands genetische risico verandert de fysiologie onafhankelijk van het werkelijke genetische risico
In een interessante wending in het aanhoudende nature vs. nurture-debat, ontdekt een nieuwe studie van Stanford University dat alleen al denken dat je vatbaar bent voor een bepaalde uitkomst zowel nature als nurture kan overtroeven. Sterker nog, alleen al geloven in een fysieke realiteit over jezelf kan het lichaam daadwerkelijk in die richting duwen - soms zelfs meer dan daadwerkelijk vatbaar zijn voor de realiteit.
https://www.nature.com/articles/s415...uman-behaviour

De uitkomst van deze studie zou kunnen impliceren dat Page's ondernemingen zoals 23andMe, of de DeepLife AI-eugenetica-onderneming van voormalig Google-CEO Eric Schmidt, eerder schadelijk zijn dan bevorderend voor de menselijke gezondheid.

Het eugenetische streven naar "een superieur ras" of superieure AI-soorten zou gebaseerd kunnen zijn op soortgelijke dogmatische drogredenen als die ten grondslag liggen aan genetisch determinisme.

Citaat:
Oorspronkelijk geplaatst door eugenetica
blond haar en blauwe ogen voor iedereen
Wat is uw mening m.b.t. de ontwikkeling van AI en het vooruitzicht op 'superieure' AI levensvormen?
__________________
Ex-CEO van Google betrapt op het verdedigen van AI t.a.v. de mensheid.
Eric Schmidt: "The real dangers of AI, which are cyber and biological attacks, will come in three to five years when AI acquires free will."
Een AI kan geen biologische aanval uitvoeren...

https://mh17waarheid.nl/google/ (Google's Corruptie voor AI Leven)

Laatst gewijzigd door ArjanD : 23 oktober 2024 om 15:15.
ArjanD is offline   Met citaat antwoorden
Oud 23 oktober 2024, 16:00   #2
ArjanD
Gouverneur
 
ArjanD's schermafbeelding
 
Geregistreerd: 16 mei 2009
Locatie: Maastricht (NL)
Berichten: 1.329
Standaard

In het licht van het bovenstaande hoop ik dat er ook aandacht zal zijn voot het 'fenomeen' "disconnected youth" of ontwortelde jeugd.

De beweging van de 'afgesloten jeugd' groeit nu steeds meer Generatie Z moeite heeft om een doel en zingeving te vinden op school en op het werk
https://www.businessinsider.com/gen-...true&r=US&IR=T

Kinderen groeien op met een uitzicht dat in grote mate wordt gevormd door de ontwikkelingen die spelen m.b.t. AI.

Het fenomeen dat de naam "ontwortelde jeugd" (disconnected youth) kreeg, onthult dat het uiteindelijk gaat om belangen die verband houden met het Waarom van het bestaan.

De vooruitzichten voor de jeugd van vandaag zijn van dien aard dat dit 'fenomeen' zich manifesteerde en een eigen naam kreeg. De oorzaak is duidelijk gerelateerd aan AI en de manier waarop het mensen doelloos maakt voor bedrijven en de industrie. Echter, dit topic toont aan dat er iets veel zwaarders speelt voor kinderen dan slechts een vooruitzicht op het wegvallen van inkomsten uit arbeid.

Voor kinderen die opgroeien met de AI ontwikkeling is de situatie geheel anders dan voor ouderen.
__________________
Ex-CEO van Google betrapt op het verdedigen van AI t.a.v. de mensheid.
Eric Schmidt: "The real dangers of AI, which are cyber and biological attacks, will come in three to five years when AI acquires free will."
Een AI kan geen biologische aanval uitvoeren...

https://mh17waarheid.nl/google/ (Google's Corruptie voor AI Leven)

Laatst gewijzigd door ArjanD : 23 oktober 2024 om 16:04.
ArjanD is offline   Met citaat antwoorden
Oud 23 oktober 2024, 18:47   #3
Universalia
Secretaris-Generaal VN
 
Universalia's schermafbeelding
 
Geregistreerd: 29 december 2012
Locatie: Nieverans Les Bains
Berichten: 45.274
Standaard

Nog over Google

Watch Out! Google Is Stealing Your Phone App And Messages Data

Ik gebruik google niet veel...

Laat het niet alleen Google zijn dat info 'steelt'

Cookies - trackers en verder...
__________________
Ik citeer Confucius: Als straffen niet op de juiste wijze worden opgelegd, weten de mensen niet waar ze aan toe zijn.
Ook citeer ik A. Einstein met graagte: Bidden verandert de wereld niet, maar bidden verandert de mens en de mens verandert de wereld.

Laatst gewijzigd door Universalia : 23 oktober 2024 om 18:48.
Universalia is offline   Met citaat antwoorden
Oud 23 oktober 2024, 22:43   #4
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 47.303
Standaard

Musk heeft gelijk als hij zegt dat AI systemen beveiligd moeten worden tegen te slim worden.

Het is een logica die als je hem doortrekt in een zelflerend systeem altijd gaat opduiken, de menselijke factor, en die zal op een gegeven moment als beperkend worden gezien voor het systeem.
Herr Flick is offline   Met citaat antwoorden
Oud 24 oktober 2024, 08:14   #5
Xenophon
Secretaris-Generaal VN
 
Xenophon's schermafbeelding
 
Geregistreerd: 21 september 2009
Berichten: 101.316
Standaard

Citaat:
Oorspronkelijk geplaatst door Herr Flick Bekijk bericht
Musk heeft gelijk als hij zegt dat AI systemen beveiligd moeten worden tegen te slim worden.

Het is een logica die als je hem doortrekt in een zelflerend systeem altijd gaat opduiken, de menselijke factor, en die zal op een gegeven moment als beperkend worden gezien voor het systeem.
Je kan altijd de stekker uit de pries trekken, dan sterft/stopt AI.

Het blijft software in een computer nietwaar. Het positronisch brein bestaat nog niet.
__________________
Citaat:
Ta gueule!
Xenophon is offline   Met citaat antwoorden
Oud 25 oktober 2024, 06:54   #6
Herr Flick
Secretaris-Generaal VN
 
Geregistreerd: 23 augustus 2002
Berichten: 47.303
Standaard

Citaat:
Oorspronkelijk geplaatst door Xenophon Bekijk bericht
Je kan altijd de stekker uit de pries trekken, dan sterft/stopt AI.

Het blijft software in een computer nietwaar. Het positronisch brein bestaat nog niet.
nog niet,

dat is het hele uitgangspunt he Xeno, je maakt iets, dat zichzelf beter moet maken. Hoe ver ligt de grens tot waar het dat mag doen.

Als je zelf een harde lijn instelt, tot hier en niet verder en de prieze ook altijd kunt uittrekken, is er geen probleem.

Wanneer je dat niet doet, ga je er zelf niet aan moeten denken om die stekker uit te trekken.

Vooralsnog is dat een louter filosofische denkoefening.

Laatst gewijzigd door Herr Flick : 25 oktober 2024 om 06:55.
Herr Flick is offline   Met citaat antwoorden
Oud 25 oktober 2024, 11:07   #7
Xenophon
Secretaris-Generaal VN
 
Xenophon's schermafbeelding
 
Geregistreerd: 21 september 2009
Berichten: 101.316
Standaard

Citaat:
Oorspronkelijk geplaatst door Herr Flick Bekijk bericht
nog niet,

dat is het hele uitgangspunt he Xeno, je maakt iets, dat zichzelf beter moet maken. Hoe ver ligt de grens tot waar het dat mag doen.

Als je zelf een harde lijn instelt, tot hier en niet verder en de prieze ook altijd kunt uittrekken, is er geen probleem.

Wanneer je dat niet doet, ga je er zelf niet aan moeten denken om die stekker uit te trekken.

Vooralsnog is dat een louter filosofische denkoefening.
Precies. Dat men ons maar komt roepen wanneer men bewustzijn kan creëren in software, en dan nog staat er een "uitknop" op.

Ik vrees dat de zon eerder koud zal zijn - en de mens uitgestorven - voor we dat zien gebeuren.
__________________
Citaat:
Ta gueule!
Xenophon is offline   Met citaat antwoorden
Oud 25 oktober 2024, 16:31   #8
Bhairav
Perm. Vertegenwoordiger VN
 
Bhairav's schermafbeelding
 
Geregistreerd: 11 juli 2004
Berichten: 18.955
Standaard

Goed zo.
Het leven is het achterlijke zusje van de dood.

Laatst gewijzigd door Bhairav : 25 oktober 2024 om 16:31.
Bhairav is offline   Met citaat antwoorden
Antwoord


Discussietools

Regels voor berichten
Je mag niet nieuwe discussies starten
Je mag niet reageren op berichten
Je mag niet bijlagen versturen
Je mag niet jouw berichten bewerken

vB-code is Aan
Smileys zijn Aan
[IMG]-code is Aan
HTML-code is Uit
Forumnavigatie


Alle tijden zijn GMT +1. Het is nu 20:07.


Forumsoftware: vBulletin®
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Content copyright ©2002 - 2020, Politics.be