Politics.be Registreren kan je hier.
Problemen met registreren of reageren op de berichten?
Een verloren wachtwoord?
Gelieve een mail te zenden naar [email protected] met vermelding van je gebruikersnaam.

Ga terug   Politics.be > Algemeen > Buitenland
Registreer FAQForumreglement Ledenlijst

Buitenland Internationale onderwerpen, de politiek van de Europese lidstaten, over de werking van Europa, Europese instellingen, ... politieke en maatschappelijke discussies.

Antwoord
 
Discussietools
Oud 24 maart 2025, 20:28   #1161
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.904
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Zoals ik het begrepen heb, is de bedoeling van artificiële intelligente de automatisering van menselijke intelligentie?

Of zie ik dat verkeerd?
Niet helemaal, AI vereist niet dat per se dat "menselijke" intelligentie hoeft geautomatiseerd te worden. Het doel van AI is simpelweg het bouwen van een machine (waaronder software) die in staat is om taken uit te voeren waarvoor intelligentie vereist is. Zelfs de 'bleep bloop beep'-schaakcomputertjes uit de jaren '80 waren al voorbeelden van AI-toepassingen.

Het idee dat men in de nabije toekomst menselijke intelligentie zou kunnen bouwen, was tussen de jaren '80 en 2010 zelfs vrijwel dood en begraven in mainstream AI-onderzoek. Er werd toen wel onderzoek gedaan naar AI, en men bouwde ook betere systemen (denk bijvoorbeeld aan de Deep Blue schaakcomputer), maar het was voor de meeste onderzoekers duidelijk dat het hier niet ging om machines die, zelfs met veel betere hardware, menselijke intelligentie zouden kunnen nabootsen.

Rond 2010 veranderde dit echter drastisch. Neurale netwerken, geïnspireerd door de werking van onze hersenen, braken toen door. Dit succes kwam voor velen als een grote verrassing. Voor 2010 was dit onderwerp nogal academisch, en waren de praktische toepassingen beperkt tot eenvoudige patroonherkenning en andere zeer specifieke, gespecialiseerde taken. In de cursus "artificiele intelligentie" werden neurale netwerken even vernoemd, maar niet meer dan dat. In mijn AI-boek uit 1993, dat in de vroege jaren 2000 nog als studiemateriaal werd gebruikt, waren van de 400 pagina’s welgeteld 3 pagina’s gewijd aan neurale netwerken.

Tegenwoordig wordt met de term 'AI' meestal verwezen naar de AI die pas na 2010 echt doorbrak: de 'machine learning' AI, gebaseerd op neurale netwerken. Deze machines kunnen problemen oplossen door te leren van data en zich aan te passen aan nieuwe situaties, zonder enkel afhankelijk te zijn van vooraf geprogrammeerde instructies. Het is een voorbeeld van emergente intelligentie (daarom mijn eerder voorbeeld van de zwerm), waarbij complex oplossend vermogen ontstaat uit relatief eenvoudige interacties. Dit is in contrast met klassieke AI, waarbij intelligentie echt gebouwd moet worden in de algoritmes van het programma zelf.

Citaat:
Ik zei elders al dat wij als mensen niet exhaustief begrijpen HOE exact menselijke intelligentie werkt, dus hoe kunnen we dat wat we niet begrijpen dan ook automatiseren?
Dat klopt en kunnen we niet. We begrijpen wel ongeveer hoe neuronen werken in het brein, en kunnen dat op computers emuleren. Tot onze verrassing blijkt dat zeer goed te werken voor een heel breed probleemveld. Er is echter geen bewijs dat, net zoals bij intelligentie, 'bewustzijn' zomaar zal emergen in AI.

Citaat:
Ik begrijp dat "AI" er nu in bestaat om een computer zéér snel te laten rekenen, al zijn berekeningen goed te laten onthouden, en op een niet-lineare manier deze resultaten te gebruiken om niet steeds alle berekeningen opnieuw te moeten maken.
Patrickve heeft geprobeerd me dat uit te leggen, maar ik ben geen computertechnicus, dus ik kan niet beweren dat ik het helemaal begrepen heb.
Bij moderne AI trainen we eerst een model door het veel relevante data te laten verwerken. Het model leert vervolgens patronen uit de data door zijn gewichten aan te passen, wat bepaalt hoe sterk verschillende inputkenmerken bijdragen aan de voorspellingen of beslissingen van het model.

Zouden we bijvoorbeeld een model trainen op de data van politics.be, dan zou herkent kunnen worden dat de term 'schuld' vaak geassocieerd wordt met bepaalde woorden. Dit kan dan resulteren in een probabilistische voorspelling die zegt "50% kans dat de output 'moslims' bevat en 50% 'woke mind virus'. Natuurlijk is deze voorstelling extreem simplistisch, maar het punt dat ik wil maken is dat het model probabilistische voorspellingen leert maken op basis van patronen die het in zijn training set herkent.

De complexiteit van deze modellen overtreft in de praktijk vaak al heel snel ons vermogen om het te begrijpen, omdat de interne werking van zulke modellen moeilijk te interpreteren is. Er is een volledig nieuwe wetenschappelijke discipline nodig die zich richt op het bestuderen van dit soort modellen, met als doel te begrijpen waarom een bepaalde output op een specifieke manier wordt gegenereerd.

Voor het trainen van eenvoudige modellen is op zich helemaal niet veel rekenkracht of snelheid nodig (volgens moderne maatstaven). Ik kan gemakkelijk op minimale hardware een model trainen dat het elektriciteitsverbruik voorspelt op basis van historische meteorologische informatie, de prijs van de elektriciteit, verlofdagen en het gedrag van mijn heilige kippen. Dit soort modellen kunnen reeds zeer effectief zijn voor hun toepassingsgebied. De generieke modellen van bijvoorbeeld OpenAI zijn echter van een heel andere categorie, en het trainen van dit soort modellen vereist aanzienlijke middelen en kapitaal.
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 26 maart 2025, 12:29   #1162
gunter5148
Perm. Vertegenwoordiger VN
 
gunter5148's schermafbeelding
 
Geregistreerd: 14 juli 2020
Berichten: 10.470
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
Niet helemaal, AI vereist niet dat per se dat "menselijke" intelligentie hoeft geautomatiseerd te worden. Het doel van AI is simpelweg het bouwen van een machine (waaronder software) die in staat is om taken uit te voeren waarvoor intelligentie vereist is. Zelfs de 'bleep bloop beep'-schaakcomputertjes uit de jaren '80 waren al voorbeelden van AI-toepassingen.

Het idee dat men in de nabije toekomst menselijke intelligentie zou kunnen bouwen, was tussen de jaren '80 en 2010 zelfs vrijwel dood en begraven in mainstream AI-onderzoek. Er werd toen wel onderzoek gedaan naar AI, en men bouwde ook betere systemen (denk bijvoorbeeld aan de Deep Blue schaakcomputer), maar het was voor de meeste onderzoekers duidelijk dat het hier niet ging om machines die, zelfs met veel betere hardware, menselijke intelligentie zouden kunnen nabootsen.

Rond 2010 veranderde dit echter drastisch. Neurale netwerken, geïnspireerd door de werking van onze hersenen, braken toen door. Dit succes kwam voor velen als een grote verrassing. Voor 2010 was dit onderwerp nogal academisch, en waren de praktische toepassingen beperkt tot eenvoudige patroonherkenning en andere zeer specifieke, gespecialiseerde taken. In de cursus "artificiele intelligentie" werden neurale netwerken even vernoemd, maar niet meer dan dat. In mijn AI-boek uit 1993, dat in de vroege jaren 2000 nog als studiemateriaal werd gebruikt, waren van de 400 pagina’s welgeteld 3 pagina’s gewijd aan neurale netwerken.

Tegenwoordig wordt met de term 'AI' meestal verwezen naar de AI die pas na 2010 echt doorbrak: de 'machine learning' AI, gebaseerd op neurale netwerken. Deze machines kunnen problemen oplossen door te leren van data en zich aan te passen aan nieuwe situaties, zonder enkel afhankelijk te zijn van vooraf geprogrammeerde instructies. Het is een voorbeeld van emergente intelligentie (daarom mijn eerder voorbeeld van de zwerm), waarbij complex oplossend vermogen ontstaat uit relatief eenvoudige interacties. Dit is in contrast met klassieke AI, waarbij intelligentie echt gebouwd moet worden in de algoritmes van het programma zelf.


Dat klopt en kunnen we niet. We begrijpen wel ongeveer hoe neuronen werken in het brein, en kunnen dat op computers emuleren. Tot onze verrassing blijkt dat zeer goed te werken voor een heel breed probleemveld. Er is echter geen bewijs dat, net zoals bij intelligentie, 'bewustzijn' zomaar zal emergen in AI.



Bij moderne AI trainen we eerst een model door het veel relevante data te laten verwerken. Het model leert vervolgens patronen uit de data door zijn gewichten aan te passen, wat bepaalt hoe sterk verschillende inputkenmerken bijdragen aan de voorspellingen of beslissingen van het model.

Zouden we bijvoorbeeld een model trainen op de data van politics.be, dan zou herkent kunnen worden dat de term 'schuld' vaak geassocieerd wordt met bepaalde woorden. Dit kan dan resulteren in een probabilistische voorspelling die zegt "50% kans dat de output 'moslims' bevat en 50% 'woke mind virus'. Natuurlijk is deze voorstelling extreem simplistisch, maar het punt dat ik wil maken is dat het model probabilistische voorspellingen leert maken op basis van patronen die het in zijn training set herkent.

De complexiteit van deze modellen overtreft in de praktijk vaak al heel snel ons vermogen om het te begrijpen, omdat de interne werking van zulke modellen moeilijk te interpreteren is. Er is een volledig nieuwe wetenschappelijke discipline nodig die zich richt op het bestuderen van dit soort modellen, met als doel te begrijpen waarom een bepaalde output op een specifieke manier wordt gegenereerd.

Voor het trainen van eenvoudige modellen is op zich helemaal niet veel rekenkracht of snelheid nodig (volgens moderne maatstaven). Ik kan gemakkelijk op minimale hardware een model trainen dat het elektriciteitsverbruik voorspelt op basis van historische meteorologische informatie, de prijs van de elektriciteit, verlofdagen en het gedrag van mijn heilige kippen. Dit soort modellen kunnen reeds zeer effectief zijn voor hun toepassingsgebied. De generieke modellen van bijvoorbeeld OpenAI zijn echter van een heel andere categorie, en het trainen van dit soort modellen vereist aanzienlijke middelen en kapitaal.
Wat vindt U van de studie die xAI’s Grok 3 beta uitvoerde ten aanzien van antropogene klimaatwijziging?

Verrassend resultaat, of toch niet?

Vrij uitgebreide uitleg errond in de link in bijlage.

https://slaynews.com/news/ai-led-stu...arrative-hoax/
__________________
Niemand is mijn koning en niemand is mijn slaaf
gunter5148 is offline   Met citaat antwoorden
Oud 26 maart 2025, 14:53   #1163
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 112.879
Standaard

Citaat:
Oorspronkelijk geplaatst door hamac Bekijk bericht
Goed nieuws voor Bush Jr. Eindelijk zijn de WMD's gevonden.
In de US nog wel.

Pam Bondi die op Fox komt te vertellen dat er Weapons of Mass Destruction tegen Tesla's worden ingezet.
Er moet dringend een coalition of the willing opgezet worden die Washington gaan plat bombarderen dan !
patrickve is offline   Met citaat antwoorden
Oud 26 maart 2025, 15:18   #1164
Micele
Secretaris-Generaal VN
 
Micele's schermafbeelding
 
Geregistreerd: 18 mei 2005
Locatie: Limburg
Berichten: 52.210
Standaard

Dit verrast me niet.

https://www.universiteitleiden.nl/ni...ben%20vergaard.

https://www.digitaleoverheid.nl/over...0de%20AI%20Act.
__________________
De vuile waarheid over ICE (vanaf 1 min 35")
https://www.youtube.com/watch?v=mk-LnUYEXuM
Nederlandse versie: https://www.youtube.com/watch?v=kekJgcSdN38

Laatst gewijzigd door Micele : 26 maart 2025 om 15:20.
Micele is offline   Met citaat antwoorden
Oud 26 maart 2025, 16:08   #1165
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.904
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Wat vindt U van de studie die xAI’s Grok 3 beta uitvoerde ten aanzien van antropogene klimaatwijziging?
De huidige generatie LLMs kunnen geen studies uitvoeren. Als je aan Grok vraagt om een wetenschappelijke studie uit te voeren, dan gaat het gewoon proberen een tekst te schrijven die statistisch gezien zo veel mogelijk lijkt op wat geassocieerd wordt met wetenschappelijke studies. De claim "this final version represents Grok 3's true belief at this point in time" is dan ook absolute onzin.

Voor mij is het daarom intellectueel oneerlijk dat ze de prompts die ze gebruikt hebben niet delen. "Grok die zelf een conclusie trekt uit een bepaalde data set" of "Grok die gevraagd wordt om een bepaalde conclusie te trekken uit een bepaalde data set" zijn een wereld van verschil.

Een nog grotere red flag is het volgende:
Citaat:
Grok 3 wrote the entire manuscript, but the co-authors played a crucial role in steering its development. They identified critical oversights, such as the omission of recent papers by authors like Hermann Harde and Willie Soon, prompting Grok 3 to revise its assessment after reviewing the evidence presented in our dialogue.
Dus de eerste conclusie van Grok was volgens hun "verkeerd"... daarom hebben ze het maar papers laten verwerken van Willie Soon (de co-auteur!) en Hermann Harde (de editor van het magazine waarin het gepubliceerd wordt!). Dat is niet serieus, een wetenschappelijk onderzoek stuur je niet bij tot je tot de gewenste conclusie komt, en zeker niet door te refereren naar je eigen werk!

Citaat:
Verrassend resultaat, of toch niet?
Wel niet echt verrassend. Zo'n LLM doet slechts wat men het vraagt. Het genereert een tekst die beantwoordt aan de verwachtingen van de gebruiker, niet een objectieve wetenschappelijke waarheid. Als ik Grok zou vragen een wetenschappelijk artikel te schrijven over het bewijs van het bestaan van micro-wezens, dan gaat Grok ook met iets afkomen dat vrij sterk lijkt op een echt wetenschappelijk werk.

Om de inhoud echt te beoordelen, moet ik me er echt in verdiepen. Maar momenteel ben ik niet echt geneigd om te geloven dat dit echt de investering van mijn tijd waard gaat zijn.
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 26 maart 2025, 17:11   #1166
Micele
Secretaris-Generaal VN
 
Micele's schermafbeelding
 
Geregistreerd: 18 mei 2005
Locatie: Limburg
Berichten: 52.210
Standaard

Citaat:
Oorspronkelijk geplaatst door Dadeemelee Bekijk bericht
Lol

Ik wacht nog altijd dat je de mea culpa van Financial Times ook even gaat posten.

Zal ik het plakken.

https://www.ft.com/content/d2711678-...b-1ef2e932e14b
Bijgevoegde afbeelding(e)
Bestandstype: jpg Gm5w7aNWUAAYXJ_.jpg‎ (197,1 KB, 47x gelezen)
__________________
De vuile waarheid over ICE (vanaf 1 min 35")
https://www.youtube.com/watch?v=mk-LnUYEXuM
Nederlandse versie: https://www.youtube.com/watch?v=kekJgcSdN38
Micele is offline   Met citaat antwoorden
Oud 26 maart 2025, 17:14   #1167
Micele
Secretaris-Generaal VN
 
Micele's schermafbeelding
 
Geregistreerd: 18 mei 2005
Locatie: Limburg
Berichten: 52.210
Standaard

Citaat:
Oorspronkelijk geplaatst door hamac Bekijk bericht
De journalist van de FT heeft de fraude van Wirecard aan het licht gebracht en serieus wat tegenkanting (en zelfs bedreiging) van de Duitse beurswaakhond.
Ik schat hem hoog in.

Het zal wellicht wel verklaarbaar zijn, maar Tesla maakt haar statements zo (bewust?) 'troebel'.
Het was verklaarbaar, FT slaat mea culpa:

https://www.ft.com/content/d2711678-...b-1ef2e932e14b

idem of via: https://www.teslarati.com/financial-...dy-accounting/

update fortune.com: https://fortune.com/2025/03/23/tesla...ions-controls/

update elektrek.co : https://electrek.co/2025/03/19/tesla...llion-missing/

Tesla CEO Elon Musk has responded to the Financial Times‘ retraction, commenting, “Turns out FT can’t do finance” in a post on social media platform X.

LOL.
__________________
De vuile waarheid over ICE (vanaf 1 min 35")
https://www.youtube.com/watch?v=mk-LnUYEXuM
Nederlandse versie: https://www.youtube.com/watch?v=kekJgcSdN38

Laatst gewijzigd door Micele : 26 maart 2025 om 17:32.
Micele is offline   Met citaat antwoorden
Oud 26 maart 2025, 18:28   #1168
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 112.879
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Zoals ik het begrepen heb, is de bedoeling van artificiële intelligente de automatisering van menselijke intelligentie?

Of zie ik dat verkeerd?
De bedoeling is niet om "menselijke intelligentie" (wat dat ook zou mogen betekenen buiten een menselijk wezen) te automatiseren. De bedoeling is om problemen kunnen op te lossen die in het algemeen beschouwd worden als "benodigt intelligentie" en waar geen kant-en-klare methode voor gekend is.

Bijvoorbeeld, een optelling uitvoeren is niet zo een probleem, omdat we precies kunnen voorschrijven (een algorithme geven) dat een optelling kan uitvoeren. Het berekenen van hoe water over een dam vloeit, is ook niet zo een probleem, omdat we dat wetenschappelijk/wiskundig perfect kunnen formuleren, en numerieke oplossingstechnieken ervoor kennen.

Nee, het zijn eerder problemen waar we geen "voorschrift van oplossing" voor kennen, maar waar we toch (als mens bijvoorbeeld) oplossingen aan vinden zonder problemen. Zoals "een kat herkennen op een prentje". Of "een Engelse tekst in het Duits vertalen". Of "een auto doorheen het drukke verkeer van de stad sturen". Of "zien of iemand blij lijkt te zijn". Of "een liedje zingen dat ergens lijkt op De Beatles, maar met een tekst van Deep Purple". Of "een kasteel schilderen waar een draak op zit, die aan mijn schoonmoeder doet denken".

En hoe doe je dat ? Zeker niet door aan een computer te zeggen hoe die dat moet doen, want dat weten we zelf niet. We stellen enkel vast dat mensen dat kunnen.

Wat we dan WEL doen is een heel ingewikkelde wiskundige functie met heel veel parameters aan een computer geven, waarvan de input overeenkomt met een data type zoals "de vraag" en de output overeenkomt met "het antwoord".

Bijvoorbeeld: prentje in, ja/nee out. Of "zinnetje in", "prentje uit".

Aangezien alle data uiteindelijk "tabellen van getallen" zijn, is dat een functie van "tabel van getal" naar 'tabel van getal'. Ze noemen dat "tensoren".

Maar die functie heeft enorm veel vrije parameters die we niet kennen. Als je daar willekeurige getallen aan geeft, dan krijg je rommel.

Dus gaan we aan die functie "inputs" geven, en bijhorende "outputs" en er zijn methoden om die parameters aan te passen (curve fitting eigenlijk) zodat de inputs en de outputs die je OPLEGT hoe langer hoe beter door die functie beschreven worden.

Bijvoorbeeld ga je aan een "katten herkenner" (input: beeldje, output "ja/nee") duizenden en duizenden prentjes geven, sommige met, en andere zonder kat. En je gaat telkens je een prentje geeft, ook het juiste antwoord geven.

De parameters van die functie gaan dan zodanig aangepast worden dat voor al die beeldjes, de functie "ja" zegt als jij "ja" gezegd had, en "nee" zegt als jij "nee" gezegd had.

En de magie is dat als je die functies goed gekozen hebt (ze noemen meestal "neurale netwerken" maar dat is gewoon een specifieke klasse van functies) en de parameters goed gefit, wel dan gaat die functie nadien min of meer doen zoals de data die je het gegeven hebt.

Het is zelfs VERBAZEND hoe goed dat werkt.

Als je dan andere prentjes geeft, dan gaat onze katten herkenner met grote waarschijnlijkheid "ja" zeggen als daar iets katachtigs op staat, en "nee" anders.

Hoe dat exact werkt weet geen kat (haha) en het is verbazend hoe goed het werkt.

Het kost heel veel rekenwerk om die parameters te vinden met al die trainingsprentjes. Nadien krijg je dus een functie en zekere waarden van die parameters. En het kost VEEL MINDER rekenwerk om die functie te gebruiken op een prentje. Je hebt misschien een data center nodig om die parameters te vinden, maar je kan ze nadien gebruiken op uw laptop.

(voor de kattenherkenner kan je alles doen op je laptop, eerlijk gezegd, dat is een simpel voorbeeld).

En nu hebben we dus een "artificiele intelligentie" die katten kan herkennen in beelden. "weet" dat dinges "wat een kat is" ? Nee, natuurlijk niet.

Maar het probleem hoe vind ik een kat in een prentje is opgelost. Dat is intelligent. Want we kunnen niet precies zeggen hoe we het moeten doen.

Nu is het zo dat het kattenprobleem ondertussen wel een beetje begrepen is. En de neurale netwerken (de functies) hebben speciale aangepaste vormen om dat juist "heel goed" te doen.

Maar men past dat toe, met VEEL EN VEEL grotere modellen, op het "genereren van tekst", die zogenaamde LLM. Daar is de input "een vorige reeks woorden" (tokens genaamd) en de output "een kansverdeling over het mogelijke volgende woord".

Als je tikt "jantje zag eens" dan is de kans groot dat het volgende woord "pruimen" moet zijn. Waarom ? Omdat men gigantisch veel teksten heeft gegeven waar men telkens een zekere reeks woorden nam, en "het volgende woord' in de bestaande tekst was dan het woord dat de grootste kans moest hebben.

Men laat dat dan in een lus draaien. "jantje zag eens" geeft de grootste kans voor het volgende woord "pruimen" ;
Nu laat men het los op "jantje zag eens pruimen".
Het volgende meest waarschijnlijke woord is dan "hangen".
We laten het nu los op "jantje zag eens pruimen hangen".
Het meest waarschijnlijke woord is dan "toen", maar misschien ook "ge".
Als toen gekozen wordt, hebben we "jantje zag eens pruimen hangen toen".
Maar als "ge" gekozen wordt, is het "jantje zag eens pruimen hangen, ge".
In dat geval is het volgende meest waarschijnlijke woord "kunt". En dan "ze" en dan "kussen".

Laatst gewijzigd door patrickve : 26 maart 2025 om 18:38.
patrickve is offline   Met citaat antwoorden
Oud 26 maart 2025, 19:02   #1169
gunter5148
Perm. Vertegenwoordiger VN
 
gunter5148's schermafbeelding
 
Geregistreerd: 14 juli 2020
Berichten: 10.470
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
De huidige generatie LLMs kunnen geen studies uitvoeren. Als je aan Grok vraagt om een wetenschappelijke studie uit te voeren, dan gaat het gewoon proberen een tekst te schrijven die statistisch gezien zo veel mogelijk lijkt op wat geassocieerd wordt met wetenschappelijke studies. De claim "this final version represents Grok 3's true belief at this point in time" is dan ook absolute onzin.

Voor mij is het daarom intellectueel oneerlijk dat ze de prompts die ze gebruikt hebben niet delen. "Grok die zelf een conclusie trekt uit een bepaalde data set" of "Grok die gevraagd wordt om een bepaalde conclusie te trekken uit een bepaalde data set" zijn een wereld van verschil.

Een nog grotere red flag is het volgende:

Dus de eerste conclusie van Grok was volgens hun "verkeerd"... daarom hebben ze het maar papers laten verwerken van Willie Soon (de co-auteur!) en Hermann Harde (de editor van het magazine waarin het gepubliceerd wordt!). Dat is niet serieus, een wetenschappelijk onderzoek stuur je niet bij tot je tot de gewenste conclusie komt, en zeker niet door te refereren naar je eigen werk!


Wel niet echt verrassend. Zo'n LLM doet slechts wat men het vraagt. Het genereert een tekst die beantwoordt aan de verwachtingen van de gebruiker, niet een objectieve wetenschappelijke waarheid. Als ik Grok zou vragen een wetenschappelijk artikel te schrijven over het bewijs van het bestaan van micro-wezens, dan gaat Grok ook met iets afkomen dat vrij sterk lijkt op een echt wetenschappelijk werk.

Om de inhoud echt te beoordelen, moet ik me er echt in verdiepen. Maar momenteel ben ik niet echt geneigd om te geloven dat dit echt de investering van mijn tijd waard gaat zijn.
Grok “begrijpt” hier niet wat het geschreven heeft. Begrijp ik dat goed?
__________________
Niemand is mijn koning en niemand is mijn slaaf
gunter5148 is offline   Met citaat antwoorden
Oud 26 maart 2025, 19:20   #1170
gunter5148
Perm. Vertegenwoordiger VN
 
gunter5148's schermafbeelding
 
Geregistreerd: 14 juli 2020
Berichten: 10.470
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
De bedoeling is niet om "menselijke intelligentie" (wat dat ook zou mogen betekenen buiten een menselijk wezen) te automatiseren. De bedoeling is om problemen kunnen op te lossen die in het algemeen beschouwd worden als "benodigt intelligentie" en waar geen kant-en-klare methode voor gekend is.

Bijvoorbeeld, een optelling uitvoeren is niet zo een probleem, omdat we precies kunnen voorschrijven (een algorithme geven) dat een optelling kan uitvoeren. Het berekenen van hoe water over een dam vloeit, is ook niet zo een probleem, omdat we dat wetenschappelijk/wiskundig perfect kunnen formuleren, en numerieke oplossingstechnieken ervoor kennen.

Nee, het zijn eerder problemen waar we geen "voorschrift van oplossing" voor kennen, maar waar we toch (als mens bijvoorbeeld) oplossingen aan vinden zonder problemen. Zoals "een kat herkennen op een prentje". Of "een Engelse tekst in het Duits vertalen". Of "een auto doorheen het drukke verkeer van de stad sturen". Of "zien of iemand blij lijkt te zijn". Of "een liedje zingen dat ergens lijkt op De Beatles, maar met een tekst van Deep Purple". Of "een kasteel schilderen waar een draak op zit, die aan mijn schoonmoeder doet denken".

En hoe doe je dat ? Zeker niet door aan een computer te zeggen hoe die dat moet doen, want dat weten we zelf niet. We stellen enkel vast dat mensen dat kunnen.

Wat we dan WEL doen is een heel ingewikkelde wiskundige functie met heel veel parameters aan een computer geven, waarvan de input overeenkomt met een data type zoals "de vraag" en de output overeenkomt met "het antwoord".

Bijvoorbeeld: prentje in, ja/nee out. Of "zinnetje in", "prentje uit".

Aangezien alle data uiteindelijk "tabellen van getallen" zijn, is dat een functie van "tabel van getal" naar 'tabel van getal'. Ze noemen dat "tensoren".

Maar die functie heeft enorm veel vrije parameters die we niet kennen. Als je daar willekeurige getallen aan geeft, dan krijg je rommel.

Dus gaan we aan die functie "inputs" geven, en bijhorende "outputs" en er zijn methoden om die parameters aan te passen (curve fitting eigenlijk) zodat de inputs en de outputs die je OPLEGT hoe langer hoe beter door die functie beschreven worden.

Bijvoorbeeld ga je aan een "katten herkenner" (input: beeldje, output "ja/nee") duizenden en duizenden prentjes geven, sommige met, en andere zonder kat. En je gaat telkens je een prentje geeft, ook het juiste antwoord geven.

De parameters van die functie gaan dan zodanig aangepast worden dat voor al die beeldjes, de functie "ja" zegt als jij "ja" gezegd had, en "nee" zegt als jij "nee" gezegd had.

En de magie is dat als je die functies goed gekozen hebt (ze noemen meestal "neurale netwerken" maar dat is gewoon een specifieke klasse van functies) en de parameters goed gefit, wel dan gaat die functie nadien min of meer doen zoals de data die je het gegeven hebt.

Het is zelfs VERBAZEND hoe goed dat werkt.

Als je dan andere prentjes geeft, dan gaat onze katten herkenner met grote waarschijnlijkheid "ja" zeggen als daar iets katachtigs op staat, en "nee" anders.

Hoe dat exact werkt weet geen kat (haha) en het is verbazend hoe goed het werkt.

Het kost heel veel rekenwerk om die parameters te vinden met al die trainingsprentjes. Nadien krijg je dus een functie en zekere waarden van die parameters. En het kost VEEL MINDER rekenwerk om die functie te gebruiken op een prentje. Je hebt misschien een data center nodig om die parameters te vinden, maar je kan ze nadien gebruiken op uw laptop.

(voor de kattenherkenner kan je alles doen op je laptop, eerlijk gezegd, dat is een simpel voorbeeld).

En nu hebben we dus een "artificiele intelligentie" die katten kan herkennen in beelden. "weet" dat dinges "wat een kat is" ? Nee, natuurlijk niet.

Maar het probleem hoe vind ik een kat in een prentje is opgelost. Dat is intelligent. Want we kunnen niet precies zeggen hoe we het moeten doen.

Nu is het zo dat het kattenprobleem ondertussen wel een beetje begrepen is. En de neurale netwerken (de functies) hebben speciale aangepaste vormen om dat juist "heel goed" te doen.

Maar men past dat toe, met VEEL EN VEEL grotere modellen, op het "genereren van tekst", die zogenaamde LLM. Daar is de input "een vorige reeks woorden" (tokens genaamd) en de output "een kansverdeling over het mogelijke volgende woord".

Als je tikt "jantje zag eens" dan is de kans groot dat het volgende woord "pruimen" moet zijn. Waarom ? Omdat men gigantisch veel teksten heeft gegeven waar men telkens een zekere reeks woorden nam, en "het volgende woord' in de bestaande tekst was dan het woord dat de grootste kans moest hebben.

Men laat dat dan in een lus draaien. "jantje zag eens" geeft de grootste kans voor het volgende woord "pruimen" ;
Nu laat men het los op "jantje zag eens pruimen".
Het volgende meest waarschijnlijke woord is dan "hangen".
We laten het nu los op "jantje zag eens pruimen hangen".
Het meest waarschijnlijke woord is dan "toen", maar misschien ook "ge".
Als toen gekozen wordt, hebben we "jantje zag eens pruimen hangen toen".
Maar als "ge" gekozen wordt, is het "jantje zag eens pruimen hangen, ge".
In dat geval is het volgende meest waarschijnlijke woord "kunt". En dan "ze" en dan "kussen".
Eerlijk gezegd, en het moet weer geen semantische discussie worden natuurlijk, maar door jouw en visjnu’s uitleg, vind ik AI eigenlijk minder en minder intelligent klinken.
Zelfs louter “probleem-oplossend” lijkt al niet meer toepasselijk.
We geven parameters waarbij we een verwachte uitkomst als “correct” bestempelen, en aldus bij foute uitkomsten de parameters zo bijstellen dat er meer “correcte” uitkomsten worden gegenereerd.
Functies, parameters en logaritmes.
Of anders gezegd, ik vind een erg belangrijke eigenschap van intelligentie, de menselijke vorm dan, “twijfelen.”
En dus keuzes maken zonder “zeker” te zijn.

Zal AI ooit kunnen “twijfelen?”

Daarnaast, is patroonherkenning iets anders dan rekenen en onthouden?
Hoe “herkent” een computer een foto van een kat? Dat is toch door van punten lijntjes te maken en (binnen bepaalde vectoren en parameters) door die lijntjes dan te associëren met een kat?
Ik denk dat ik heb begrepen dat neurale netwerken niet telkens opnieuw alle reeds herkende katten moet toetsen aan een nieuwe foto om tot een “correct” antwoord te komen, maar wordt daarmee het “rekenen en onthouden” weggenomen?


Zeer interessant onderwerp, overigens.
__________________
Niemand is mijn koning en niemand is mijn slaaf
gunter5148 is offline   Met citaat antwoorden
Oud 26 maart 2025, 19:34   #1171
Micele
Secretaris-Generaal VN
 
Micele's schermafbeelding
 
Geregistreerd: 18 mei 2005
Locatie: Limburg
Berichten: 52.210
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Eerlijk gezegd, en het moet weer geen semantische discussie worden natuurlijk, maar door jouw en visjnu’s uitleg, vind ik AI eigenlijk minder en minder intelligent klinken.
Zelfs louter “probleem-oplossend” lijkt al niet meer toepasselijk.
We geven parameters waarbij we een verwachte uitkomst als “correct” bestempelen, en aldus bij foute uitkomsten de parameters zo bijstellen dat er meer “correcte” uitkomsten worden gegenereerd.
Functies, parameters en logaritmes.
Of anders gezegd, ik vind een erg belangrijke eigenschap van intelligentie, de menselijke vorm dan, “twijfelen.”
En dus keuzes maken zonder “zeker” te zijn.

Zal AI ooit kunnen “twijfelen?”

Daarnaast, is patroonherkenning iets anders dan rekenen en onthouden?
Hoe “herkent” een computer een foto van een kat? Dat is toch door van punten lijntjes te maken en (binnen bepaalde vectoren en parameters) door die lijntjes dan te associëren met een kat?
Ik denk dat ik heb begrepen dat neurale netwerken niet telkens opnieuw alle reeds herkende katten moet toetsen aan een nieuwe foto om tot een “correct” antwoord te komen, maar wordt daarmee het “rekenen en onthouden” weggenomen?


Zeer interessant onderwerp, overigens.
Lees dit eens van Geoffrey Hinton, de peetvader van AI:

>> https://www.eoswetenschap.eu/technol...r-zijn-voor-ai <<
__________________
De vuile waarheid over ICE (vanaf 1 min 35")
https://www.youtube.com/watch?v=mk-LnUYEXuM
Nederlandse versie: https://www.youtube.com/watch?v=kekJgcSdN38

Laatst gewijzigd door Micele : 26 maart 2025 om 19:39.
Micele is offline   Met citaat antwoorden
Oud 26 maart 2025, 20:13   #1172
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.904
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Grok “begrijpt” hier niet wat het geschreven heeft. Begrijp ik dat goed?
Correct. Het is alsof je Chinees "leert" door eindeloos Chinese soapseries zonder ondertiteling te bingewatchen en, puur op basis van klanken, ontdekt welke zinnen in welke situatie passen om de juiste reactie te krijgen. Je hebt geen idee wat je zegt of wat er gevraagd wordt, maar omdat je patronen herkent, lijkt het toch te kloppen.

Bij AI gebeurt dit echter op een gigantische schaal, met een enorme hoeveelheid data en veel complexere patronen. En bij AI is er ook geen "je".
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 26 maart 2025, 20:17   #1173
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 112.879
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Grok “begrijpt” hier niet wat het geschreven heeft. Begrijp ik dat goed?
De notie van 'begrijpen' is an sich vaag. Je zou kunnen zeggen dat Grok iets gelijkaardigs doet als wat mensen doen als ze zonder logisch na te denken 'op hun buikgevoel' handelen of antwoorden. LLM zijn gewoon statistische voorspellers van het meest waarschijnlijke volgende woord, op basis van de tonnen en tonnen teksten die ze gekregen hadden om van te leren.

Dat is trouwens de reden waarom je aan die dinges zo enorm veel data moet geven, omdat ze die niet "begrijpen" maar wel "fitten".

Normaal gezien zou je een genie maken als die gewoon maar door Wikipedia draait. Maar dat werkt niet. Je moet miljoenen boeken erdoor draaien. Zodat heel veel 'zinswendingen' in vele talen gezien werden, zodat er statistische voorspellingen kunnen gemaakt worden van "het volgende woord'.

Maar het blijft verbazend hoe goed dat werkt. Men had dat aanvankelijk niet gedacht.

Daarentegen, je kan die dingen dus "wetenschappelijke artikelen" laten schrijven die TOTAAL UITGEVONDEN zijn, maar qua woordgebruik wetenschappelijke artikelen NA APEN. Zonder dat de inhoud enige waarheid of zin heeft, maar het 'lijkt er goed op'.

Het merkwaardige aan die dinges is dat ze bijzonder OVERTUIGENDE TAAL gebruiken. Ook al vertellen ze totale bullshit. Het zijn perfecte sofisten. Dat is daar niet ingebouwd als dusdanig. Maar blijkbaar is de fluiditeit vanwege de training op enorm veel teksten iets dat maakt dat daar goedklinkende nonsens uit komt.
patrickve is offline   Met citaat antwoorden
Oud 26 maart 2025, 20:19   #1174
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 112.879
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Eerlijk gezegd, en het moet weer geen semantische discussie worden natuurlijk, maar door jouw en visjnu’s uitleg, vind ik AI eigenlijk minder en minder intelligent klinken.
Zelfs louter “probleem-oplossend” lijkt al niet meer toepasselijk.
We geven parameters waarbij we een verwachte uitkomst als “correct” bestempelen, en aldus bij foute uitkomsten de parameters zo bijstellen dat er meer “correcte” uitkomsten worden gegenereerd.
Ja. En de grote verrassing is dat het gelijkaardige dingen doet met input die "nooit gezien was". Enfin, dat was eigenlijk verwacht met dinges zoals een kattenbeeld herkenner, maar het is eigenaardig dat dat ook met tekst en zo werkt.
patrickve is offline   Met citaat antwoorden
Oud 26 maart 2025, 20:29   #1175
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 112.879
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Of anders gezegd, ik vind een erg belangrijke eigenschap van intelligentie, de menselijke vorm dan, “twijfelen.”
En dus keuzes maken zonder “zeker” te zijn.

Zal AI ooit kunnen “twijfelen?”
Wel, dat is precies wat de Chinezen er met deepseek en zo hebben aan toegevoegd. Niet vergeten dat "het volgende woord" statistisch getrokken wordt. Als er een duidelijk uniek volgende woord is, dan gaan we altijd hetzelfde kiezen, maar als er meerdere gelijkaardige mogelijkheden zijn, dan zijn er meerdere trekkingsresultaten mogelijk.

De eerste LLMs die trokken willekeurig elk woord, en het resultaat was hun output. Wat de Chinezen eraan toegevoegd hebben, is dat ze verschillende keren een antwoord genereren, dat dus anders kan zijn als er "twijfelgevallen" zijn. En dan passen ze een volgende laag kansberekening toe, om te beslissen welke nu het GLOBAAL meest waarschijnlijke antwoord is.

In mijn vorige voorbeeld is een reeks "jantje zag eens pruimen hangen, als eieren zo groot" en een andere "jantje zag eens pruimen hangen, ge kunt ze kussen".

Dan gaat deepseek die twee globale zinnen eens bekijken op hun kansen dat ze lijken op iets dat al bestond, en geeft als antwoord die met de grootste kans.

Dat lijkt op mensen met een buikgevoel, die gaan twijfelen tussen twee of meer mogelijkheden, en dan uiteindelijk een keuze maken.

En men doet nu meer en meer gesofistikeerde dingen. Het is een veld dat enorm snel evolueert.

Laatst gewijzigd door patrickve : 26 maart 2025 om 20:30.
patrickve is offline   Met citaat antwoorden
Oud 26 maart 2025, 20:35   #1176
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 112.879
Standaard

Citaat:
Oorspronkelijk geplaatst door Micele Bekijk bericht
Lees dit eens van Geoffrey Hinton, de peetvader van AI:

>> https://www.eoswetenschap.eu/technol...r-zijn-voor-ai <<

Zalig !

Citaat:
‘Als je AI vraagt om een oplossing te bedenken voor het klimaatprobleem kan het beslissen dat het uitroeien van de mensheid de beste manier is om dat te doen.
Heerlijk !



Hinton is bijna even slim als ikzelf
patrickve is offline   Met citaat antwoorden
Oud 26 maart 2025, 20:57   #1177
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.904
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Zalig !

Heerlijk !



Hinton is bijna even slim als ikzelf
Welk Alignment Problem?
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 26 maart 2025, 21:00   #1178
patrickve
Secretaris-Generaal VN
 
patrickve's schermafbeelding
 
Geregistreerd: 24 februari 2009
Locatie: Grenoble, Frankrijk
Berichten: 112.879
Standaard

Citaat:
Oorspronkelijk geplaatst door Visjnu Bekijk bericht
Welk Alignment Problem?
Dat de oplossing voor het klimaatsprobleem bestaat in het uitroeien van de mensheid he
patrickve is offline   Met citaat antwoorden
Oud 26 maart 2025, 21:03   #1179
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.904
Standaard

Citaat:
Oorspronkelijk geplaatst door patrickve Bekijk bericht
Dat de oplossing voor het klimaatsprobleem bestaat in het uitroeien van de mensheid he
Zie je dat niet als Alignment, ipv Alignment Problem?
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Oud 26 maart 2025, 21:07   #1180
Visjnu
Minister
 
Visjnu's schermafbeelding
 
Geregistreerd: 27 november 2006
Berichten: 3.904
Standaard

Citaat:
Oorspronkelijk geplaatst door gunter5148 Bekijk bericht
Eerlijk gezegd, en het moet weer geen semantische discussie worden natuurlijk, maar door jouw en visjnu’s uitleg, vind ik AI eigenlijk minder en minder intelligent klinken.
Mja, maar wat zegt dat over menselijke intelligentie als een systeem dat geen echte begrip heeft straks 95% van de huidige jobs kan vervangen?
__________________
sin otra luz y guía
sino la que en el corazón ardía.
Visjnu is offline   Met citaat antwoorden
Antwoord



Regels voor berichten
Je mag niet nieuwe discussies starten
Je mag niet reageren op berichten
Je mag niet bijlagen versturen
Je mag niet jouw berichten bewerken

vB-code is Aan
Smileys zijn Aan
[IMG]-code is Aan
HTML-code is Uit
Forumnavigatie


Alle tijden zijn GMT +1. Het is nu 20:07.


Forumsoftware: vBulletin®
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Content copyright ©2002 - 2020, Politics.be