Los bericht bekijken
Oud 20 mei 2017, 02:20   #9
Nr.10
Secretaris-Generaal VN
 
Nr.10's schermafbeelding
 
Geregistreerd: 26 september 2003
Locatie: van Lissabon tot Vladivostok
Berichten: 31.252
Standaard

Citaat:
Oorspronkelijk geplaatst door Drosamadaris Bekijk bericht
Long story short:
Een chip die een mimic is van neuronen en hoe die met elkaar interageren.

Een neuron is een soort van reactive memory die gaat reageren op een stimulus die het kent. Een signaal wordt eigenlijk naar alle neuronen tegelijk gestuurd, en diegene die het patroon herkent of het het dichtste benadert, die gaat reageren. Hoe meer "exposure", des te correcter de herkenning en de reactie (vergelijkbaar met echte neuronen waartussen de connectie na verloop ook beter wordt, des te meer informatie er tussen beiden vloeit).

In neuromorfe chips ga je dergelijk gedrag "simuleren", ipv dat te simuleren via traditionele PC-setups (die pakken meer energie vreten en die meer beperkingen hebben aan in/output.

Zelflerend is "lege" neuronen vullen met nieuwe, ongekende patronen.
Het moge duidelijk zijn dat zo'n neuromorfe chip geen gewone microprocessor is.

Over de limieten van de klassieke computer architectuur:
Today’s computers all use the so-called von Neumann architecture, which shuttles data back and forth between a central processor and memory chips in linear sequences of calculations. That method is great for crunching numbers and executing precisely written programs, but not for processing images or sound and making sense of it all. It’s telling that in 2012, when Google demonstrated artificial-*intelligence software that learned to recognize cats in videos without being told what a cat was, it needed 16,000 processors to pull it off. Continuing to improve the performance of such processors requires their manufacturers to pack in ever more, ever faster transistors, silicon memory caches, and data pathways, but the sheer heat generated by all those components is limiting how fast chips can be operated, especially in power-stingy mobile devices. That could halt progress toward devices that effectively process images, sound, and other sensory information and then apply it to tasks such as face recognition and robot or vehicle navigation. BRON 2014
Over neuromorfe chips (1):
Neuromorphic chips attempt to model in silicon the massively parallel way the brain processes information as billions of neurons and trillions of synapses respond to sensory inputs such as visual and auditory stimuli. Those neurons also change how they connect with each other in response to changing images, sounds, and the like. That is the process we call learning. The chips, which incorporate brain-inspired models called neural networks, do the same.
Over neuromorfe chips (2):
Even if neuromorphic chips are nowhere near as capable as the brain, they should be much faster than current computers at processing sensory data and learning from it. Trying to emulate the brain just by using special software on conventional processors is way too inefficient to be the basis of machines with still greater intelligence.
Twee zijn nodig:
  • de software = de lerende algoritmen
  • de hardware = de neuromorfe chip
Aanvullend aan de bestaande apparatuur zou een derde soort chip het leven kunnen zien:
  • CPU = de "central processing unit"
  • GPU = de "graphical processing unit"
  • NPU = de "neural processing unit"
... could add a “neural processing unit” to the chips to handle sensory data and tasks such as image recognition and robot navigation. And given that Qualcomm has a highly profitable business of licensing technologies to other companies, it would be in a position to sell the rights to use algorithms that run on neuromorphic chips. That could lead to sensor chips for vision, motion control, and other applications.
Zonder algoritmen kunnen deze chips niet draaien.
De bijhorende algoritmen kunnen aanleiding geven
tot een algoritmen-industrie.
__________________
Doorzoek forum.politics.be (aangepaste zoekmachine)
Nr.10 is offline   Met citaat antwoorden