Discussie: Neuralink
Los bericht bekijken
Oud 20 mei 2017, 12:49   #38
Micele
Secretaris-Generaal VN
 
Micele's schermafbeelding
 
Geregistreerd: 18 mei 2005
Locatie: Limburg
Berichten: 50.229
Standaard

Citaat:
Oorspronkelijk geplaatst door Nr.10 Bekijk bericht
'Deep learning' is een vorm van Machinaal Leren.
Deep learning is an aspect of artificial intelligence (AI) that is concerned with emulating the learning approach that human beings use to gain certain types of knowledge. At its simplest, deep learning can be thought of as a way to automate predictive analytics.

While traditional machine learning algorithms are linear, deep learning algorithms are stacked in a hierarchy of increasing complexity and abstraction. To understand deep learning, imagine a toddler whose first word is “dog.” The toddler learns what is (and what is not) a dog by pointing to objects and saying the word “dog.” The parent says “Yes, that is a dog” or “No, that is not a dog.” As the toddler continues to point to objects, he becomes more aware of the features that all dogs possess. What the toddler does, without knowing it, is to clarify a complex abstraction (the concept of dog) by building a hierarchy in which each level of abstraction is created with knowledge that was gained from the preceding layer of the hierarchy.

Computer programs that use deep learning go through much the same process. Each algorithm in the hierarchy applies a non-linear transformation on its input and uses what it learns to create a statistical model as output. Iterations continue until the output has reached an acceptable level of accuracy. The number of processing layers through which data must pass is what inspired the label “deep.”

In traditional machine learning, the learning process is supervised and the programmer has to be very, very specific when telling the computer what types of things it should be looking for when deciding if an image contains a dog or does not contain a dog. This is a laborious process called feature extraction and the computer’s success rate depends entirely upon the programmer’s ability to accurately define a feature set for "dog." The advantage of deep learning is that the program builds the feature set by itself without supervision. This is not only faster, it is usually more accurate.

Initially, the computer program might be provided with training data, a set of images for which a human has labeled each image “dog” or “not dog” with meta tags. The program uses the information it receives from the training data to create a feature set for dog and build a predictive model. In this case, the model the computer first creates might predict that anything in an image that has four legs and a tail should be labeled "dog." Of course, the program is not aware of the labels “four legs” or "tail," it will simply look for patterns of pixels in the digital data. With each iteration, the predictive model the computer creates becomes more complex and more accurate.

Because this process mimics human thought, deep learning is sometimes referred to as deep neural learning or deep neural networking. Unlike the toddler, who will take weeks or even months to understand the concept of “dog,” a computer program that uses deep learning algorithms can be shown a training set and sort through millions of images, accurately identifying which images have dogs in them within a few minutes.

In order to achieve an acceptable level of accuracy, deep learning programs require access to immense amounts of training data and processing power, neither of which were easily available to programmers until the era of big data and cloud computing. Because deep learning programming is able to create complex statistical models directly from its own iterative output, it is able to create accurate predictive models from large quantities of unlabeled, unstructured data. This is important as the Internet of Things(IoT) continues to become more pervasive, because most of the data humans and machines create is unstructured and is not labeled. Use cases today for deep learning include all types of big data analytics applications, especially those focused on natural language processing (NLP), language translation, medical diagnosis, stock market trading signals, network security and image identification.

BRON
jun 2016
Mooi gegoogled
Maar wacht even, dit was toch jouw post:
Citaat:
Oorspronkelijk geplaatst door Nr.10 Bekijk bericht
Kun je dat ook in begrijpbare taal uitleggen, zodat niet-techneuten het begrijpen. De tekst die je aanhaalt is engelstalig en voor de gewone man is het chinees, volgens mij.
Citaat:
'Deep learning' is een vorm van Machinaal Leren.
Die geciteerde context is de uitleg hoe deep learning verschilt met machinaal leren, een vorm van het machinaal leren kan men dat niet noemen.

Ik was zo vrij die tekst in de google-vertaler te smijten:

Diepe leer is een aspect van kunstmatige intelligentie (AI) die zich bezighoudt met het aanleren van de leerbenadering die mensen gebruiken om bepaalde soorten kennis te verwerven. Bij zijn eenvoudigste, diepe leer kan worden beschouwd als een manier om predictieve analytics te automatiseren.

Terwijl traditionele algoritmen voor machineonderwijs lineair zijn, worden diepe algoritmes gestapeld in een hiërarchie van toenemende complexiteit en abstractie. Om een ​​diep leer te begrijpen, stel je een peuter voor, waarvan het eerste woord 'hond' is. De peuter leert wat is (en wat niet) een hond door te wijzen op voorwerpen en het woord 'hond' zeggen. De ouder zegt 'Ja, dat is een Hond "of" Nee, dat is geen hond. "Naarmate de peuter nog steeds op objecten wijst, wordt hij meer bewust van de eigenschappen die alle honden bezitten. Wat de peuter doet, zonder het te weten, is om een ​​complexe abstractie (het begrip hond) te verduidelijken door een hiërarchie te bouwen waarin elk niveau van abstractie wordt gecreëerd met kennis die is verkregen uit de voorafgaande laag van de hiërarchie.

Computerprogramma's die gebruik maken van diep leren gaan door hetzelfde proces. Elk algoritme in de hiërarchie past een niet-lineaire transformatie toe op zijn input en gebruikt wat hij leert om een ​​statistisch model als output te maken. Herhalingen blijven door totdat de uitgang een acceptabel niveau van nauwkeurigheid heeft bereikt. Het aantal verwerkingslagen door welke gegevens moet worden doorgegeven is wat het label "diep" heeft geïnspireerd.

In het traditionele machineonderwijs wordt het leerproces onder toezicht gehouden en de programmeur moet heel erg specifiek zijn wanneer de computer wordt verteld welke soorten dingen het moet zoeken bij het bepalen of een afbeelding een hond bevat of geen hond bevat. Dit is een moeizaam proces genaamd functie-extractie en de succesfrequentie van de computer hangt helemaal af van het vermogen van de programmeur om een ​​functietoestel voor "hond" nauwkeurig te definiëren. Het voordeel van diep leren is dat het programma de functie opbouwt die zelf zonder toezicht is ingesteld. Dit is niet alleen sneller, het is meestal nauwkeuriger.

Aanvankelijk kan het computerprogramma voorzien zijn van trainingsgegevens, een set afbeeldingen waarvoor een mens elke afbeelding 'hond' of 'niet-hond' heeft met metatags. Het programma maakt gebruik van de informatie die zij ontvangt van de trainingsgegevens om een ​​functie voor hond te maken en een voorspellend model op te bouwen. In dit geval kan het model dat de computer eerst oplevert, voorspellen dat alles in een afbeelding met vier benen en een staart met de naam "hond" moet zijn. Uiteraard is het programma niet bewust van de labels 'vier benen' of 'staart', het zal simpelweg zoeken naar patronen van pixels in de digitale data. Bij elke iteratie wordt het voorspellende model dat de computer maakt, complexer en nauwkeuriger.

Omdat dit proces de menselijke gedachte nabootst, wordt diep leren soms aangeduid als diep neuraal leren of diep neurale netwerken. In tegenstelling tot de peuter, die weken of zelfs maanden duurt om het begrip 'hond' te begrijpen, een computerprogramma dat gebruik maakt van diepe algoritmes, kan een trainingsset getoond worden en miljoenen afbeeldingen worden gedetecteerd, waarbij nauwkeurig wordt aangegeven welke afbeeldingen er honden in zijn Een paar minuten.

Om een ​​acceptabel niveau van nauwkeurigheid te bereiken, hebben diep leerprogramma's toegang tot enorme hoeveelheden trainingsgegevens en verwerkingscapaciteit, die niet gemakkelijk voor programmeurs beschikbaar zijn tot het tijdperk van grote data en cloud computing. Omdat diepe leerprogrammering in staat is om complexe statistische modellen direct uit zijn eigen iteratieve output te maken, is het in staat nauwkeurige predictieve modellen te creëren uit grote hoeveelheden ongemerkt, ongestructureerde data. Dit is belangrijk omdat het Internet van Dingen (IoT) steeds meer doordringend wordt, omdat de meeste gegevensmensen en machines creëren ongestructureerd zijn en niet gelabeld zijn. Gebruiksvallen vandaag voor diep leren zijn onder andere alle soorten applicaties voor grote dataanalyse, met name die gericht zijn op natuurlijke taalverwerking (NLP), taalvertaling, medische diagnose, aandelenmarktssignalen, netwerkbeveiliging en beeldidentificatie.
__________________
De vuile waarheid over ICE (vanaf 1 min 35")
https://www.youtube.com/watch?v=mk-LnUYEXuM
Nederlandse versie: https://www.youtube.com/watch?v=kekJgcSdN38

Laatst gewijzigd door Micele : 20 mei 2017 om 13:12.
Micele is offline   Met citaat antwoorden