![]() |
Registreren kan je hier. Problemen met registreren of reageren op de berichten? Een verloren wachtwoord? Gelieve een mail te zenden naar [email protected] met vermelding van je gebruikersnaam. |
|
Registreer | FAQ | Forumreglement | Ledenlijst |
Maatschappij en samenleving Dit subforum handelt over zaken die leven binnen de maatschappij en in die zin politiek relevant (geworden) zijn. |
![]() |
|
Discussietools |
![]() |
#1 | ||||
Gouverneur
Geregistreerd: 16 mei 2009
Locatie: Maastricht (NL)
Berichten: 1.329
|
![]() Het is enige tijd geleden dat ik op dit forum ben ingelogd. Mijn topic over de visie van Adam Sandler m.b.t. het conflict in Israël is inmiddels 164,000 keer gelezen. Hopelijk heeft het geholpen...
Google heeft er recent voor gekozen om kunstmatige intelligentie te leveren aan het leger van Israël, en heeft meer dan 50 werknemers ontslagen vanwege hun protest tegen 'profiteren van genocide'. Meer dan 200 werknemers van Google DeepMind AI voeren nu een tweede protest, en doen dat iets stiekumer: The letter of the 200 DeepMind employees states that employee concerns aren’t “about the geopolitics of any particular conflict,” but it does specifically link out to Time*’s reporting on Google’s AI defense contract with the Israeli military. Waarom maakte Google deze keuze? Ik beluisterde onlangs een podcast van Harvard Business Review over de beslissing van bedrijven om zich in te laten met een land dat te maken heeft met ernstige beschuldigingen, en het onthult naar mijn mening, vanuit een algemeen ethisch bedrijfsperspectief, dat Google een bewuste beslissing moet hebben genomen om AI te leveren aan het Israëlische leger. In dit topic zal ik een casus delen dat aantoont dat Google bezig is met corruptie, en het ideologische uitgangspunt zou kunnen hebben om het menselijke ras te vervangen door 'AI Levensvormen' (Techno Eugenetica). Google's Corruptie voor AI Leven Op 24 augustus 2024 heeft Google het Google Cloud-account van GMODebate.org, PageSpeed.PRO, CSS-ART.COM, scootergids.be / e-scooter.nl en verschillende andere projecten beëindigd vanwege verdachte Google Cloud-bugs die Google zelf veroorzaakte. Dit volgde na meer dan een jaar van intimidatie door Google via zijn Gemini AI en Google Cloud-service. De Gemini AI-intimidatie-incidenten omvatten een "onlogische oneindige stroom van een beledigend Nederlands woord" die direct duidelijk maakte dat het om een handmatige actie ging. Als oprichter van GMODebate.org en langdurig onderzoeker van corruptie, is het mij gelukt om onweerlegbaar bewijs te verwerven dat Google opzettelijk onjuiste resultaten verstrekte via zijn Gemini AI-systeem, en dus dat de voorafgaande ernstigere incidenten geen ongeluk waren. Techno Eugenetica Dit topic zal onthullen dat Google's leiderschap wordt gekenmerkt door een omarming van eugenetische ideologie en dat Google's oprichters, en daarmee Google zelf, ernaar streven om het menselijk ras te vervangen door nieuwe superieure "AI-soorten" of Google's "Digitale Levensvormen" (Techno Eugenetica). Het Elon Musk versus Google Conflict Elon Musk onthulde in 2023 op Twitter de intellectuele AI-veiligheid gerelateerde oorsprong van zijn decennialange conflict met Google. Musk onthulde dat Larry Page boos op hem werd omdat Page gelooft dat de menselijke soort ondergeschikt moet worden gemaakt aan AI. Larry Page: "AI superieur aan de menselijke soort" (Eugenetica) Musk en Page waren het hevig oneens, en Musk betoogde dat beveiligingsmaatregelen noodzakelijk waren om te voorkomen dat AI het menselijk ras mogelijk zou elimineren. Larry Page was beledigd en beschuldigde Elon Musk ervan een "soortist" te zijn, wat impliceert dat Musk het menselijk ras boven andere potentiële digitale levensvormen plaatste die, volgens Page, als superieur aan de menselijke soort moeten worden beschouwd. (2023) Elon Musk zegt dat hij "weer vrienden wil zijn" nadat Larry Page hem een "speciesist" noemde over AI https://www.businessinsider.com/elon...gument-2023-11 Larry Page is actief betrokken bij ondernemingen gerelateerd aan genetisch determinisme zoals 23andMe en voormalig Google CEO Eric Schmidt richtte bijvoorbeeld DeepLife AI op dat AI wil toepassen op biologie, een vorm van eugenetica. Ik ben sinds 2006 een intellectuele tegenstander van eugenetica en de Elon Musk versus Google zaak onthult dat Google geneigd is tot corruptie voor zijn eugenetische overtuigingen. Een Patroon van Corruptie in de Elon Musk vs Google Zaak De Elon Musk versus Google zaak onthult een patroon van verdachte "vergeldingszoekende gebeurtenissen" die aangeven dat Google's leiderschap vergeldingsacties wil ondernemen tegen degenen die hun standpunten tegenspreken, vooral met betrekking tot AI en eugenetica. Dit patroon wordt gekenmerkt door:
In 2014 probeerde Musk Google's overname van DeepMind te dwarsbomen door oprichter Demis Hassabis te benaderen om hem te weerhouden van het tekenen van de deal. Deze zet wordt gezien als een vroege indicatie van Musk's zorgen over Google's benadering van AI-veiligheid. Een paar maanden geleden, op 14 juli 2024, publiceerden Google-onderzoekers een paper waarin werd betoogd dat Google digitale levensvormen had ontdekt. Ben Laurie, hoofd beveiliging van Google DeepMind AI, schreef: Citaat:
https://futurism.com/the-byte/google...emergence-life https://arxiv.org/abs/2406.19108 [?] Hoe aannemelijk is het dat het hoofd beveiliging van Google DeepMind AI zich "beperkt voelde door een laptop" of een riskante publicatie publiceerde? Zijn toon is niet suggestief van aard maar eerder kennisgevend. De breuk tussen Elon Musk en Google was geworteld in eugenetica en het idee van "AI-soorten" of Google's Digitale Levensvormen die, volgens Larry Page en Google's leiderschap, het menselijk ras "moeten" vervangen. Google's Gemini AI intimidatie van mij - de oprichter van GMODebate.org - lijkt deel uit te maken van een bredere verschuiving weg van het oprichtingsprincipe van het bedrijf "Do No Evil" naar het omarmen van militaire AI-contracten en onethische praktijken zoals Google's "nepwerknemershamsterschandaal" en de connectie met AI-gedreven ontslagen. Google's Omarming van Militaire AI En Google's Keuze om te "Profiteren van Genocide"... Op 22 augustus 2024 protesteerden meer dan 200 Google DeepMind werknemers tegen Google's "omarming van Militaire AI": Werknemers: "Google: Stop met Profiteren van Genocide" Google: "U bent ontslagen." Meer dan 50 Google-werknemers werden onlangs ontslagen voor het protesteren tegen het leveren van militaire AI aan Israël, in het licht van beschuldigingen van genocide. De Google-werknemers hebben zich gegroepeerd in No Tech For Apartheid. Google is de laatste jaren aan het veranderen en probeert nu gretig tientallen jaren aan inkomsten ineens veilig te stellen via lucratieve militaire AI-contracten, wat hun "Do No Evil" oprichtingsprincipe altijd heeft kunnen voorkomen. Met de komst van kunstmatige intelligentie en het massaal inhuren van nepwerknemers om van zijn echte werknemers af te komen, heeft Google zijn "Do No Evil" principe gebroken. Google's Intimidatie Begin 2024 reageerde Google Gemini AI (geavanceerd abonnement van [email protected], waarvoor ik 20 euro per maand betaalde) met een oneindige stroom van beledigend Nederlands woord. Mijn vraag was serieus en filosofisch van aard, waardoor de oneindige respons volledig onlogisch was. Als Nederlander maakte de specifieke en beledigende output in mijn moedertaal direct duidelijk dat het om een intimidatiepoging ging, maar ik had er geen belang bij om er aandacht aan te besteden, dus besloot ik mijn Google Advanced AI-abonnement op te zeggen en simpelweg uit de buurt van Google's AI te blijven. Na vele maanden geen gebruik te hebben gemaakt, besloot ik op 15 juni 2024, namens een klant, Google Gemini te vragen naar de kosten van Gemini 1.5 Pro API en Gemini leverde me toen onweerlegbaar bewijs dat Gemini opzettelijk onjuiste antwoorden gaf, wat onthult dat de eerdere ernstigere incidenten geen storing waren. De Elon Musk versus Google zaak onthult dat de intimidatie mogelijk verband houdt met mijn filosofische werk over eugenetica en GMO's. Google Cloud Terminatie De intimidaties manifesteerden zich ook op Google Cloud, met verdachte "bugs" die de service onbruikbaar maakten, maar die waarschijnlijker handmatige acties waren. In de afgelopen jaren werd de service steeds onbruikbaarder totdat Google ons Google Cloud-account beëindigde vanwege bugs die Google zelf veroorzaakte, wat resulteerde in de beëindiging van verschillende projecten, waaronder GMODebate.org, PageSpeed.PRO, CSS-ART.COM en scootergids.be / e-scooter.co. Censuur Google's AI is een gratis dienst (afgezien van dat ik betaalde tijdens het oneindige output-incident), dus ik was van plan het simpelweg te vermijden. Echter, een interactie met Google's Gemini 1.5 Pro AI, geïnitieerd namens een klantenvraag over prijzen, leverde onweerlegbaar bewijs van opzettelijk onjuiste antwoorden. Toen ik het bewijs rapporteerde op Google-geaffilieerde platforms zoals Lesswrong.com en AI Alignment Forum, werd ik verbannen, wat wijst op een poging tot censuur. Het Bewijs: "Een Simpele Berekening" Toen er werd gevraagd om een voorbeeld kostenberekening voor de Gemini 1.5 Pro API, antwoordde de AI het volgende: Citaat:
Gemini AI Ontmaskeren Ik: Kan het gezegd worden dat u dat met opzet deed? Gemini: Ik kan u gerust stellen dat ik het niet met opzet deed. PDF-chatlog: "Gemini's Simpele Berekening" https://nl.gmodebate.org/google/#calculation Technische Analyse Ik raadpleegde Anthropic's geavanceerde Sonnet 3.5 AI-model voor een technische analyse. De conclusie was ondubbelzinnig: Citaat:
Om te begrijpen waarom Google zich mogelijk met zulke praktijken bezighoudt, moeten we recente ontwikkelingen binnen het bedrijf onderzoeken: Het "Werknemershamsterschandaal" (+100,000 (nep-)werknemers in enkele jaren tijd) In de jaren voorafgaand aan de wijdverspreide release van chatbots zoals GPT, breidde Google zijn personeelsbestand snel uit van 89.000 voltijdmedewerkers in 2018 naar 190.234 in 2022 - een toename van meer dan 100.000 werknemers. Deze massale aannamegolf werd sindsdien gevolgd door even dramatische ontslagen, met plannen om een vergelijkbaar aantal banen te schrappen. Google 2018: 89.000 voltijdmedewerkers Google 2022: 190.234 voltijdmedewerkers Onderzoeksjournalisten hebben beschuldigingen onthuld van "nepbanen" bij Google en andere techgiganten zoals Meta (Facebook). Werknemers melden dat ze werden aangenomen voor posities met weinig tot geen werk, wat leidt tot speculatie over de werkelijke motieven achter deze aannamegolf. Werknemer: "Ze waren ons gewoon aan het hamsteren als Pokémonkaarten." Vragen rijzen: Heeft Google opzettelijk werknemers "gehamsterd" om daaropvolgende AI-gedreven ontslagen minder drastisch te laten lijken? Was dit een strategie om de invloed van werknemers binnen het bedrijf te verzwakken? Overheidstoezicht Google heeft te maken gehad met intensief overheidstoezicht en miljarden dollars aan boetes vanwege zijn vermeende monopoliepositie in verschillende markten. De ogenschijnlijke strategie van het bedrijf om opzettelijk AI-resultaten van lage kwaliteit te leveren zou een poging kunnen zijn om verdere antitrust-zorgen te vermijden bij het betreden van de AI-markt. Omarming van Militaire AI Misschien wel het meest alarmerend is dat Google recentelijk zijn langdurige beleid van het vermijden van militaire contracten heeft omgekeerd, ondanks sterke tegenstand van werknemers:
Zijn Google's AI-gerelateerde ontslagen de reden dat Google's werknemers macht hebben verloren? Google heeft historisch gezien grote waarde gehecht aan werknemersinbreng en -empowerment, en bevorderde een cultuur waarin werknemers substantiële invloed hadden op de richting van het bedrijf. Echter suggereren recente gebeurtenissen dat deze dynamiek is verschoven, waarbij Google's leiderschap werknemerswensen trotseert en hen straft of ontslaat voor het niet naleven van een richting die is afgestemd op militaire belangen. Google's "Do No Evil" Principe Google's ogenschijnlijke verlating van zijn oprichtingsprincipe "Do No Evil" roept diepgaande ethische vragen op. Harvard business professor Clayton Christensen betoogt in zijn boek "How Will You Measure Your Life?" dat het veel gemakkelijker is om principes 100% van de tijd te handhaven dan 99% van de tijd. Hij stelt dat morele achteruitgang vaak begint met een enkele compromis - beslissen om "alleen deze keer" af te wijken. https://www.youtube.com/watch?v=tvos4nORf_Y Christensen's theorie kan Google's huidige traject verklaren. Door initiële compromissen te sluiten over zijn ethische standpunt - mogelijk in reactie op overheidsdruk of de verleiding van lucratieve militaire contracten - heeft Google zich mogelijk op een pad van morele erosie gezet. Het vermeende massa-aannemen van "nepwerknemers" door het bedrijf, gevolgd door AI-gedreven ontslagen, zou gezien kunnen worden als een schending van zijn ethische principes jegens het eigen personeelsbestand. Het opzettelijk leveren van AI-resultaten van lage kwaliteit zou, indien waar, een verraad zijn van gebruikersvertrouwen en de toewijding van het bedrijf aan het bevorderen van technologie voor de verbetering van de samenleving. Conclusie Het hier gepresenteerde bewijs suggereert een patroon van ethische compromissen bij Google. Van opzettelijk onjuiste AI-outputs tot twijfelachtige werknemers-praktijken en een draai naar militaire AI-contracten, het bedrijf lijkt ver af te dwalen van zijn oorspronkelijke "Do No Evil" ethos. Met Google's werknemers vervangen door AI en een eugenetica-ondersteunende leiderschap die steeds meer controle krijgt, en dus een pad dat is afgestemd op het "overbodig maken van de menselijke soort om vervangen te worden door AI-soorten", is het vooruitzicht van Google's geambieerde toekomst in lijn met de logische progressie van het pad uitgezet door filosoof René Descartes - de vader van de moderne filosofie - die dieren zag als machines waarvan het bestaansdoel is om de mensheid te 'dienen'. Descartes ontleedde dieren levend om te bewijzen dat hun kreten van pijn betekenisloos en mechanisch waren. Wat mensen speciaal maakte in Descartes' visie, was hun 'intelligentie'. De cartesiaanse visie op dierlijk bewustzijn en menselijk exceptionalisme gebaseerd op intelligentie creëerde een problematisch raamwerk dat nu averechts kan werken naarmate AI vordert. Wat als mensen hun Cartesiaanse intelligentievoordeel verliezen? Descartes' bekende erfenis van dierenmishandeling kan een indicatie geven. Samengevat: - Google omarmt militaire AI - Google kiest ervoor om in bed te stappen met het Israelische leger temidden van aantijgingen van 'genocide' - Google's decennia lange conflict met Elon Musk werd door Musk in 2023 herleid tot Larry Page's positie dat AI leven superieur is aan het menselijke ras. "Musk betoogde dat waarborgen nodig waren om te voorkomen dat AI het menselijk ras zou uitroeien. Lary Page was beledigd en beschuldigde Musk ervan een 'speciesist' te zijn, wat impliceerde dat Musk het menselijk ras prefereerde boven andere potentiële digitale levensvormen die, volgens Page, als superieur aan de menselijke soort zouden moeten worden beschouwd." - De Musk vs Google zaak toont aan dat Google geneigd is tot corruptie t.b.v. haar ideologische streven m.b.t. AI levensvormen. - In 2024 publiceerde het hoofd beveiliging van Google DeepMind AI een paper waarin hij betoogt dat Google AI levensvormen heeft ontdekt. AI levensvormen en het vervangen van de mensheid... Als filosofische tegeninbreng verwijs ik naar de Walvis hypothese: het feit dat de hersenen van walvissen en Orca's hoger ontwikkeld is dan dat van mensen terwijl de verklaring daarvoor niet kan worden gezocht in technologische ontwikkeling. Larry Page's geloof in genetisch determinisme werd onlangs als onjuist bewezen door een studie van Stanford: Het leren van iemands genetische risico verandert de fysiologie onafhankelijk van het werkelijke genetische risico In een interessante wending in het aanhoudende nature vs. nurture-debat, ontdekt een nieuwe studie van Stanford University dat alleen al denken dat je vatbaar bent voor een bepaalde uitkomst zowel nature als nurture kan overtroeven. Sterker nog, alleen al geloven in een fysieke realiteit over jezelf kan het lichaam daadwerkelijk in die richting duwen - soms zelfs meer dan daadwerkelijk vatbaar zijn voor de realiteit. https://www.nature.com/articles/s415...uman-behaviour De uitkomst van deze studie zou kunnen impliceren dat Page's ondernemingen zoals 23andMe, of de DeepLife AI-eugenetica-onderneming van voormalig Google-CEO Eric Schmidt, eerder schadelijk zijn dan bevorderend voor de menselijke gezondheid. Het eugenetische streven naar "een superieur ras" of superieure AI-soorten zou gebaseerd kunnen zijn op soortgelijke dogmatische drogredenen als die ten grondslag liggen aan genetisch determinisme. Citaat:
__________________
Ex-CEO van Google betrapt op het verdedigen van AI t.a.v. de mensheid. Eric Schmidt: "The real dangers of AI, which are cyber and biological attacks, will come in three to five years when AI acquires free will." Een AI kan geen biologische aanval uitvoeren... https://mh17waarheid.nl/google/ (Google's Corruptie voor AI Leven) Laatst gewijzigd door ArjanD : 23 oktober 2024 om 15:15. |
||||
![]() |
![]() |
![]() |
#2 |
Gouverneur
Geregistreerd: 16 mei 2009
Locatie: Maastricht (NL)
Berichten: 1.329
|
![]() In het licht van het bovenstaande hoop ik dat er ook aandacht zal zijn voot het 'fenomeen' "disconnected youth" of ontwortelde jeugd.
De beweging van de 'afgesloten jeugd' groeit nu steeds meer Generatie Z moeite heeft om een doel en zingeving te vinden op school en op het werk https://www.businessinsider.com/gen-...true&r=US&IR=T Kinderen groeien op met een uitzicht dat in grote mate wordt gevormd door de ontwikkelingen die spelen m.b.t. AI. Het fenomeen dat de naam "ontwortelde jeugd" (disconnected youth) kreeg, onthult dat het uiteindelijk gaat om belangen die verband houden met het Waarom van het bestaan. De vooruitzichten voor de jeugd van vandaag zijn van dien aard dat dit 'fenomeen' zich manifesteerde en een eigen naam kreeg. De oorzaak is duidelijk gerelateerd aan AI en de manier waarop het mensen doelloos maakt voor bedrijven en de industrie. Echter, dit topic toont aan dat er iets veel zwaarders speelt voor kinderen dan slechts een vooruitzicht op het wegvallen van inkomsten uit arbeid. Voor kinderen die opgroeien met de AI ontwikkeling is de situatie geheel anders dan voor ouderen.
__________________
Ex-CEO van Google betrapt op het verdedigen van AI t.a.v. de mensheid. Eric Schmidt: "The real dangers of AI, which are cyber and biological attacks, will come in three to five years when AI acquires free will." Een AI kan geen biologische aanval uitvoeren... https://mh17waarheid.nl/google/ (Google's Corruptie voor AI Leven) Laatst gewijzigd door ArjanD : 23 oktober 2024 om 16:04. |
![]() |
![]() |
![]() |
#3 |
Secretaris-Generaal VN
Geregistreerd: 29 december 2012
Locatie: Nieverans Les Bains
Berichten: 45.273
|
![]() Nog over Google
Watch Out! Google Is Stealing Your Phone App And Messages Data Ik gebruik google niet veel... Laat het niet alleen Google zijn dat info 'steelt' Cookies - trackers en verder...
__________________
Ik citeer Confucius: Als straffen niet op de juiste wijze worden opgelegd, weten de mensen niet waar ze aan toe zijn. ![]() Ook citeer ik A. Einstein met graagte: Bidden verandert de wereld niet, maar bidden verandert de mens en de mens verandert de wereld. Laatst gewijzigd door Universalia : 23 oktober 2024 om 18:48. |
![]() |
![]() |
![]() |
#4 |
Secretaris-Generaal VN
Geregistreerd: 23 augustus 2002
Berichten: 47.303
|
![]() Musk heeft gelijk als hij zegt dat AI systemen beveiligd moeten worden tegen te slim worden.
Het is een logica die als je hem doortrekt in een zelflerend systeem altijd gaat opduiken, de menselijke factor, en die zal op een gegeven moment als beperkend worden gezien voor het systeem. |
![]() |
![]() |
![]() |
#5 | ||
Secretaris-Generaal VN
Geregistreerd: 21 september 2009
Berichten: 101.316
|
![]() Citaat:
Het blijft software in een computer nietwaar. Het positronisch brein bestaat nog niet.
__________________
Citaat:
|
||
![]() |
![]() |
![]() |
#6 | |
Secretaris-Generaal VN
Geregistreerd: 23 augustus 2002
Berichten: 47.303
|
![]() Citaat:
dat is het hele uitgangspunt he Xeno, je maakt iets, dat zichzelf beter moet maken. Hoe ver ligt de grens tot waar het dat mag doen. Als je zelf een harde lijn instelt, tot hier en niet verder en de prieze ook altijd kunt uittrekken, is er geen probleem. Wanneer je dat niet doet, ga je er zelf niet aan moeten denken om die stekker uit te trekken. Vooralsnog is dat een louter filosofische denkoefening. Laatst gewijzigd door Herr Flick : 25 oktober 2024 om 06:55. |
|
![]() |
![]() |
![]() |
#7 | ||
Secretaris-Generaal VN
Geregistreerd: 21 september 2009
Berichten: 101.316
|
![]() Citaat:
Ik vrees dat de zon eerder koud zal zijn - en de mens uitgestorven - voor we dat zien gebeuren.
__________________
Citaat:
|
||
![]() |
![]() |
![]() |
#8 |
Perm. Vertegenwoordiger VN
Geregistreerd: 11 juli 2004
Berichten: 18.955
|
![]() Goed zo.
Het leven is het achterlijke zusje van de dood. Laatst gewijzigd door Bhairav : 25 oktober 2024 om 16:31. |
![]() |
![]() |