Politics.be

Politics.be (https://forum.politics.be/index.php)
-   Wetenschap & Technologie (https://forum.politics.be/forumdisplay.php?f=224)
-   -   ML = Machinaal Leren = de lerende algoritmen (https://forum.politics.be/showthread.php?t=238554)

Nr.10 1 mei 2017 22:01

ML = Machinaal Leren = de lerende algoritmen
 
Machine learning ???
Machine learning is the subfield of computer science ...
machine learning explores the study and construction of algorithms that can learn from and make predictions on data.
Enkele voorbeelden:
  • email filtering (anti-spam technieken, automatisch verwerken van binnenkomende email, ...)
  • detection of network intruders or malicious insiders working towards a data breach (een datalek)
  • optical character recognition (OCR)
  • learning to rank (LTR)
  • computer vision (beelden: foto's en video's)
Iedere zoekrobot bijvoorbeeld is gebaseerd op een LTR-algoritme.

"Computer vision", een aantal subdomeinen:
  • scene reconstruction
  • event detection
  • video tracking
  • object recognition
  • motion estimation
  • image restoration
Computer vision houdt zich bezig met het automatisch nabootsen van de taken van het menselijke visuele systeem.

Nr.10 1 mei 2017 22:47

Om te lezen:
What kind of machine learning algorithms do the driverless cars use?

Wapper 1 mei 2017 23:04

Volgens mijn (niet zo bescheiden) mening is de impact van zoekalgoritmes ( in alle incarnaties) op de economie ongeveer zero. Ik houd me aanbevolen voor bewijzen van het tegendeel.

sepper 2 mei 2017 06:11

Citaat:

Oorspronkelijk geplaatst door Wapper (Bericht 8440853)
Volgens mijn (niet zo bescheiden) mening is de impact van zoekalgoritmes ( in alle incarnaties) op de economie ongeveer zero. Ik houd me aanbevolen voor bewijzen van het tegendeel.

Uitgezonderd de hoop professionals (inclusief artsen!) die continu google gebruiken om vanalles op te zoeken.
En ook buiten bescouwing gelaten dat in R&D bijna continu wikipedia en google opstaat.

Tavek 2 mei 2017 08:36

lol @ wapper

Uw bescheiden mening is fout hoor. Machine learning en alles wat daar rond hangt heeft een gigantische impact op de economie.

Amazon is een goed voorbeeld van een bedrijf dat zich extreem heeft toegelegd hierop. Maar 450 miljard dollar market cap.

https://www.forbes.com/sites/louisco.../#6063280514eb

Nr.10 4 mei 2017 22:41

1 Bijlage(n)
Citaat:

Oorspronkelijk geplaatst door Tavek (Bericht 8440952)

Uit dat artikel:
Enabling autonomous vehicles and personalizing advertising are two of the highest opportunity use cases for machine learning today.
Een "use case" = een toepassing. Twee worden vermeld:
  • autonome voertuigen
  • gepersonaliseerde advertenties
Vooral gepersonaliseerde advertenties staan zeer hoog genoteerd als toepassing. Zeer grote impact.

(aanklikken om te vergroten)

Tavek 4 mei 2017 22:45

Ja, en bedrijven zoals facebook, amazon, bol.com, google...verdienen daar allemaal hun brood mee.

Dit zijn omzetten van honderden miljarden.

Wapper 4 mei 2017 23:09

Miisschien zou een juistere naam dan ook zijn: "Profit Maximizing Algorithms", want dat is waar het in de limiet steeds over gaat, zowel op het internet als op TV. Voor dat laatste medium ben ik er van overtuigd dat er algoritmes bestaan die de graad van hersenloosheid van de zappende kijker matchen met die van de reclame.

Tavek 4 mei 2017 23:29

Citaat:

Oorspronkelijk geplaatst door Wapper (Bericht 8443124)
Miisschien zou een juistere naam dan ook zijn: "Profit Maximizing Algorithms", want dat is waar het in de limiet steeds over gaat, zowel op het internet als op TV. Voor dat laatste medium ben ik er van overtuigd dat er algoritmes bestaan die de graad van hersenloosheid van de zappende kijker matchen met die van de reclame.

Nooit afgevraagd waarom je na wat gegoogle opeens ads krijgt over de dingen die je hebt gegoogled ?

Dat is zulke algoritmen aan het werken.

Google zijn verdiendmodel. 650 miljard dollar market cap. Bedrijf is groter dan Belgie.

Nr.10 4 mei 2017 23:35

Citaat:

Oorspronkelijk geplaatst door Wapper (Bericht 8443124)
Miisschien zou een juistere naam dan ook zijn: "Profit Maximizing Algorithms", want dat is waar het in de limiet steeds over gaat, zowel op het internet als op TV. Voor dat laatste medium ben ik er van overtuigd dat er algoritmes bestaan die de graad van hersenloosheid van de zappende kijker matchen met die van de reclame.

Analoge televisie via de kabel is nog altijd mogelijk.
Dan kijkt er niemand mee.

Zo'n digitaal toestel registreert alles.
De ISP kan vervolgens met de verzamelde data alle kanten uit.
Gegadigden genoeg die er grote sommen voor over hebben.
Er spelen enorme belangen.

Wapper 4 mei 2017 23:48

Citaat:

Oorspronkelijk geplaatst door Tavek (Bericht 8443132)
Nooit afgevraagd waarom je na wat gegoogle opeens ads krijgt over de dingen die je hebt gegoogled ?

Dat is zulke algoritmen aan het werken.

Google zijn verdiendmodel. 650 miljard dollar market cap. Bedrijf is groter dan Belgie.

Nog nooit ads gezien via Google wegens Adblock :wink:

Wapper 4 mei 2017 23:57

Citaat:

Oorspronkelijk geplaatst door Nr.10 (Bericht 8443134)
Analoge televisie via de kabel is nog altijd mogelijk.
Dan kijkt er niemand mee.

Zo'n digitaal toestel registreert alles.
De ISP kan vervolgens met de verzamelde data alle kanten uit.
Gegadigden genoeg die er grote sommen voor over hebben.
Er spelen enorme belangen.

Dat zal niemand in twijfel trekken! :lol:
De hamvraag is of het optimaliseren van winsten en profijten door zoek- en andere algoritmes de algemene effectiviteit van zoekrobots niet negatief beinvloedt?

Nr.10 5 mei 2017 01:38

Citaat:

Oorspronkelijk geplaatst door Tavek (Bericht 8443132)
Nooit afgevraagd waarom je na wat gegoogle opeens ads krijgt over de dingen die je hebt gegoogled ?

Dat is zulke algoritmen aan het werken.

Google zijn verdiendmodel. 650 miljard dollar market cap. Bedrijf is groter dan Belgie.

Gepersonaliseerde advertenties: allemaal gebaseerd op data-analyse en digitale technologie. Wikipedia wijdt er een bladzijde aan.
Personalized marketing

Jantje 5 mei 2017 05:10

Citaat:

Oorspronkelijk geplaatst door Nr.10 (Bericht 8443134)
Analoge televisie via de kabel is nog altijd mogelijk.
Dan kijkt er niemand mee.

Zo'n digitaal toestel registreert alles.
De ISP kan vervolgens met de verzamelde data alle kanten uit.
Gegadigden genoeg die er grote sommen voor over hebben.
Er spelen enorme belangen.


Je kan inderdaad nog enkele zenders analoog ontvangen, maar dan moet je wel te vreden zijn met een slechter beeldkwaliteit.

En binnen de digitale wereld word inderdaad alles en iedereen gevolgd.
Het gaat zelfs zo ver, dat sommige bedrijven zelfs betalen om auto's te volgen.
Weinig mensen staan er bij stil, maar binnen de digitale wereld bestaat er geen vrijheid, alles word gecontroleerd en gebruikt binnen de economie.
Dat is ook de reden waarom men die slimme meter voor energieverbruik wil plaatsen, meer controle op wat de burger doet.


Citaat:

De hamvraag is of het optimaliseren van winsten en profijten door zoek- en andere algoritmes de algemene effectiviteit van zoekrobots niet negatief beinvloedt?
Voor kleine plaatselijke bedrijven is het vaak een ramp, voor grote bedrijven is het een winst.
Voor de België economie is het heel nadelig, want bedrijven uit lage loonlanden gaan zo met veel klanten van hen lopen.
Ook voor landen zoals de VS is het moorden voor de economie, want bedrijven werken via de digitale wereld goedkoper en gemakkelijker van uit goedkopere buurlanden en kunnen dankzij de snelle transportwereld toch evensnel of zelfs sneller leveren dan de plaatselijke bedrijven.

Voltian 5 mei 2017 10:40

Ik heb recent nog meegewerkt aan een projectvoorstel waarbij we ML inzetten om op een (meer) geautomatiseerd sensorgegevens van luchtkwaliteitmetingen te verwerken tot zinvolle informatie en betere voorspellingen. In feite dus het "automatiseren" van data-analyse, data cleaning, clustering, zoeken naar correlaties, etc.

Dat was mijn eerste echt rechtstreeks contact met ML en ML-academici. WTF man, Massively impressive! Vooral die convolutional neural networks. Damn man, had ik dat maar gestudeerd. :)

Als dit werkt dan...
1. gaat de kwaliteit van de voorspelling er gigantisch op vooruit (betere modellen),
2. gaat de kost voor dataverwerking omlaag (minder high-skilled arbeid nodig voor in depth data-analyse) en
3. daalt de kost voor sensing (ML kan aan de slag met data van lagere kwaliteit, als er maar genoeg data is).


Alleen al in deze specifieke toepassing dus een gigantische impact. Deep learning is wat mij betreft een revolutie van dezelfde orde als het internet.

morte-vivante 5 mei 2017 11:20

Citaat:

Oorspronkelijk geplaatst door Voltian (Bericht 8443268)
Ik heb recent nog meegewerkt aan een projectvoorstel waarbij we ML inzetten om op een (meer) geautomatiseerd sensorgegevens van luchtkwaliteitmetingen te verwerken tot zinvolle informatie en betere voorspellingen. In feite dus het "automatiseren" van data-analyse, data cleaning, clustering, zoeken naar correlaties, etc.

Dat was mijn eerste echt rechtstreeks contact met ML en ML-academici. WTF man, Massively impressive! Vooral die convolutional neural networks. Damn man, had ik dat maar gestudeerd. :)

Als dit werkt dan...
1. gaat de kwaliteit van de voorspelling er gigantisch op vooruit (betere modellen),
2. gaat de kost voor dataverwerking omlaag (minder high-skilled arbeid nodig voor in depth data-analyse) en
3. daalt de kost voor sensing (ML kan aan de slag met data van lagere kwaliteit, als er maar genoeg data is).


Alleen al in deze specifieke toepassing dus een gigantische impact. Deep learning is wat mij betreft een revolutie van dezelfde orde als het internet.

met dat nadeel dat niemand eigenlijk de processen achter deep learning begrijpt. Ja, de algoritmen zijn gecreerd door mensen, maar niemand die begrijpt wat de stappen zijn (de reden zo je wil) dat AI tot een bepaalde conclusie/besluit komt. We zijn dus niet in staat om te begrijpen wat AI nu exact doet, en hoe het tot een bepaalde conclusie komt.

https://www.technologyreview.com/s/6...e-heart-of-ai/

Citaat:

No one really knows how the most advanced algorithms do what they do. That could be a problem.
Citaat:

The computers that run those services have programmed themselves, and they have done it in ways we cannot understand. Even the engineers who build these apps cannot fully explain their behavior.
Citaat:

We need more than a glimpse of AI’s thinking, however, and there is no easy solution. It is the interplay of calculations inside a deep neural network that is crucial to higher-level pattern recognition and complex decision-making, but those calculations are a quagmire of mathematical functions and variables. “If you had a very small neural network, you might be able to understand it,” Jaakkola says. “But once it becomes very large, and it has thousands of units per layer and maybe hundreds of layers, then it becomes quite un-understandable.”

Just as many aspects of human behavior are impossible to explain in detail, perhaps it won’t be possible for AI to explain everything it does. “Even if somebody can give you a reasonable-sounding explanation [for his or her actions], it probably is incomplete, and the same could very well be true for AI,” says Clune, of the University of Wyoming. “It might just be part of the nature of intelligence that only part of it is exposed to rational explanation. Some of it is just instinctual, or subconscious, or inscrutable.”
we zijn intelligentie aan het creëren, zonder te begrijpen hoe het doet wat het doet. Als dat geen alarmbellen doet afgaan...

Voltian 5 mei 2017 12:45

Citaat:

Oorspronkelijk geplaatst door morte-vivante (Bericht 8443292)
met dat nadeel dat niemand eigenlijk de processen achter deep learning begrijpt. Ja, de algoritmen zijn gecreerd door mensen, maar niemand die begrijpt wat de stappen zijn (de reden zo je wil) dat AI tot een bepaalde conclusie/besluit komt. We zijn dus niet in staat om te begrijpen wat AI nu exact doet, en hoe het tot een bepaalde conclusie komt.

https://www.technologyreview.com/s/6...e-heart-of-ai/





we zijn intelligentie aan het creëren, zonder te begrijpen hoe het doet wat het doet. Als dat geen alarmbellen doet afgaan...

Alarmbellen omdat we niet weten of de output "juist" is, of omdat we we er geen controle over hebben?

Nr.10 5 mei 2017 22:23

Citaat:

Oorspronkelijk geplaatst door morte-vivante (Bericht 8443292)
we zijn intelligentie aan het creëren, zonder te begrijpen hoe het doet wat het doet. Als dat geen alarmbellen doet afgaan...

Inderdaad. Hawkins waarschuwt daarvoor.
Stephen Hawking: Machine Learning is Scary
3 mei 2014
  • renowned physicist Stephen Hawking,
  • U.C. Berkeley computer-science professor Stuart Russell,
  • and MIT physics professors Max Tegmark and Frank Wilczek
The professors wrote that in the future there may be nothing to prevent machines with superhuman intelligence from self-improving, triggering a so-called “singularity.”

Nr.10 5 mei 2017 23:04

Citaat:

Oorspronkelijk geplaatst door Voltian (Bericht 8443268)
Ik heb recent nog meegewerkt aan een projectvoorstel waarbij we ML inzetten om op een (meer) geautomatiseerd sensorgegevens van luchtkwaliteitmetingen te verwerken tot zinvolle informatie en betere voorspellingen. In feite dus het "automatiseren" van data-analyse, data cleaning, clustering, zoeken naar correlaties, etc.

Dat was mijn eerste echt rechtstreeks contact met ML en ML-academici. WTF man, Massively impressive! Vooral die convolutional neural networks. Damn man, had ik dat maar gestudeerd. :)

Als dit werkt dan...
1. gaat de kwaliteit van de voorspelling er gigantisch op vooruit (betere modellen),
2. gaat de kost voor dataverwerking omlaag (minder high-skilled arbeid nodig voor in depth data-analyse) en
3. daalt de kost voor sensing (ML kan aan de slag met data van lagere kwaliteit, als er maar genoeg data is).


Alleen al in deze specifieke toepassing dus een gigantische impact. Deep learning is wat mij betreft een revolutie van dezelfde orde als het internet.

Een voorbeeld: de foto-app Prisma.
‘Convolutional neural network’
De app lijkt niet op de foto-apps die je al kent. Dit komt doordat Prisma niet simpelweg een filter op je foto legt, maar hem helemaal opnieuw opbouwt. Daarvoor wordt gebruik gemaakt van een zogenaamd ‘convolutional neural network’. Dit houdt in dat de app op grote servers draait en via deze servers bepaalde algoritmes uitvoert die vervolgens de foto helemaal opnieuw maakt.
BRON
Prisma is gemaakt door een team van Russische ontwikkelaars.
Je maakt een foto en laadt deze in de app.
Prisma biedt je vervolgens keuze uit 35 filters.
Deze filters zijn allemaal gebaseerd op beroemde kunstwerken,
denk hierbij aan de Schreeuw van Edvard Munch of het werk van Mondriaan.

Nr.10 6 mei 2017 00:55

1 Bijlage(n)
Citaat:

Oorspronkelijk geplaatst door Voltian (Bericht 8443330)
Alarmbellen omdat we niet weten of de output "juist" is, of omdat we we er geen controle over hebben?

Alle leven is gebaseerd op moleculaire machines.


Alle tijden zijn GMT +1. Het is nu 09:53.

Forumsoftware: vBulletin®
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Content copyright ©2002 - 2020, Politics.be