Eine künstliche Intelligenz ist in einem Netzwerk mit anderen Technologien verknüpft.
Cloud & Hosting

Deep Learning: Wie Maschinen mit neuronalen Netzen unser Gehirn nachbilden

Mit Big Data und immer leistungsfähigeren Sensoren und Massenspeichern wächst das weltweite Datenvolumen exponentiell. Auch für Unternehmen wird es zunehmend schwieriger, ihre anfallenden Datenmengen zu sortieren und auszuwerten. Hier setzen Methoden der künstlichen Intelligenz und des Maschinenlernens an. Eine davon ist das Deep Learning.

Noch vor wenigen Jahren war allein die Vorstellung Science-Fiction: Maschinen, die in unserer Sprache mit uns kommunizieren, auf Kamerabildern Menschen erkennen oder ein Fahrzeug sicher durch den Großstadtverkehr lenken. Heute sind viele dieser Anwendungen bereits Realität: dank künstlicher Intelligenz und Deep Learning. Auch das Auswerten und Aufbereiten riesiger Datenmengen ist damit möglich.

Die Unternehmensberatung McKinsey schätzt den globalen Wertschöpfungsbeitrag der künstlichen Intelligenz (KI) bis 2030 auf bis zu 13 Billionen US-Dollar. Die Consultingfirma ist überzeugt: „KI übertrifft den jährlichen Wachstumseffekt, den seinerzeit Dampfmaschinen, Industrieroboter und die Verbreitung der Informations- und Kommunikationstechnologien erzielten.“ Doch wie funktioniert das Deep Learning per KI eigentlich und wo kommt es bereits jetzt zum Einsatz? Das und mehr lesen Sie im Folgenden.

Inhaltsverzeichnis

Was ist Deep Learning?

Maschinelles Lernen ist die Art und Weise, wie künstliche Intelligenz neues Wissen aus Informationen gewinnt. Deep Learning ist eine bestimmte Methode des maschinellen Lernens, die hierfür künstliche neuronale Netze nutzt.
Künstliche neuronale Netze sind den Nervennetzen des menschlichen Gehirns nachempfunden. Sie bestehen aus Ebenen künstlicher Nervenknoten, die jeweils über Datenleitungen verbunden sind – so wie die Neuronen des biologischen Gehirns per Synapsen verbunden sind. Zu verarbeitende Daten wandern von Ebene zu Ebene durch das künstliche Nervennetz. Die einzelnen digitalen Neuronen enthalten mathematische Funktionen, die ankommende Daten bearbeiten und dann zur nächsten Ebene weiterleiten.
Empfohlener externer Inhalt
Hier ist ein Video-Inhalt von YouTube. Er ergänzt die Informationen auf dieser Seite.
Sie können ihn mit einem Klick anzeigen und wieder ausblenden.
Ich bin einverstanden, dass externe Inhalte angezeigt werden. So können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr in unserer  Datenschutzerklärung.
Datenschutzerklärung
Daten wandern in der Regel immer in derselben Richtung durch das neuronale Netz. Am Anfang steht die Eingabe-Ebene (Input Layer). Von dort werden die Daten über eine oder mehrere unsichtbare Ebenen (Hidden Layers) weitergereicht, bis sie schließlich in der Ausgabe-Ebene (Output Layer) ankommen.
Von Ebene zu Ebene wächst das Abstraktionsniveau der Daten. Während die Eingabe-Ebene beispielsweise ein komplettes Foto als Muster aus Bildpunkten aufnimmt, enthält die nächsthöhere Ebene (erster Hidden Layer) nur noch Umrisse oder Bildelemente, die nach einer bestimmten Logik aus dem Bild herausgelesen wurden. Eine weitere Ebene vereint diese Elemente zu geometrischen Mustern, bis schließlich auf der Ausgabe-Ebene die Muster bestimmten Kategorien zugeordnet werden (Würfel, Quadrat oder menschliches Gesicht beispielsweise).
Der Arbeitsauftrag „Identifiziere Personen auf einem Foto“ wird somit in viele einzelne Teilschritte zerlegt und erst dadurch für den Computer überhaupt ausführbar. Die Ausgabe-Ebene enthält meist deutlich weniger Neuronen als die Input-Ebene, denn meist sollen die Daten beim Durchlauf durch das neuronale Netz aggregiert und zu wenigen, höherwertigen Informationen zusammengefasst werden. Ein Netzwerk kann auf Input-Seite Millionen Neuronen haben und auf Output-Seite nur ein einzelnes Neuron, das die einfache Information liefert: „Eingescanntes Foto enthält Gesicht eines Menschen“ mit den möglichen Ausgabewerten eins („Ja“) und null („Nein“).
Pfeildiagramm eines neuronalen Netzwerks.
Modell eines neuronalen Netzwerks: Informationen werden von Ebene zu Ebene weitergeleitet und abstrahiert.
Eine Besonderheit des künstlichen neuronalen Netzes ist seine Fähigkeit, Synapsen (also Datenleitungen) zwischen den Ebenen laufend so umzubauen, dass die Ergebnisse auf der Ausgabe-Ebene immer besser werden. Die künstliche Intelligenz kann diesen Umbau der Synapsen je nach Programmierung autonom durchführen. Es handelt sich hierbei also nicht um einen starren, sondern um einen selbstadaptiven (selbstanpassenden) Algorithmus: Die KI lernt durch Erfahrung.

Formen des maschinellen Lernens – wie der Mensch Rückmeldung gibt

Um besser zu werden, muss die künstliche Intelligenz Rückmeldungen erhalten, damit sie ihr Netzwerk stetig optimieren kann. Diese Rückmeldungen erhält das System von seinen menschlichen „Lehrer:innen“. Das können Programmierer:innen sein, aber auch entsprechend geschulte Anwender:innen. Deren Lehrverfahren unterscheiden sich je nach Abstraktion und Komplexität des Lernens:
  • Überwachtes Lernen (Supervised Learning): Bei jedem Durchgang erhält die künstliche Intelligenz das Eingabemuster und ein optimales Ergebnismuster als Trainingsdaten. Datenquelle kann beispielsweise eine Bilderdatenbank sein, deren Einzelbilder alle schon das Ergebnis der jeweiligen Bildanalyse im Dateinamen tragen („Bild Mensch“, „Bild Auto“, „Bild Haus“). Die KI lernt damit, Ein- und Ausgaben zu assoziieren und dabei Gesetzmäßigkeiten zu finden. So sammelt die künstliche Intelligenz etwa die Erfahrung, dass das Objekt Auto eine Karosserie und Räder besitzt und sich auf einem Untergrund befindet, also nicht fliegen kann (Lernen durch Generalisierung). Damit optimiert die KI ihr neuronales Netzwerk beim überwachten Lernen. Nach dem erfolgreichen Training kann sie mit realen Daten arbeiten. Ihre Analyse-Ergebnisse werden sich bei diesem Lernverfahren allerdings in einem erwartbaren Rahmen bewegen und nicht wesentlich über die trainierten Zuordnungen hinausgehen (“Dieses Bild gehört in diese Namenskategorie.”). Sie erkennt also, dass ein Bild beispielsweise einen Menschen zeigt. Sie wird aber nicht lernen, selbst weitere Kategorien zu definieren oder Unterkategorien zu bilden (beispielsweise Autos mit bestimmten Eigenschaften oder Menschen, die vor Häusern stehen). Dafür ist ihr Training zu speziell auf die eine ihr bekannte Aufgabe zugeschnitten. Ihre Intelligenz und ihr Wissen reichen nicht darüber hinaus. Kurz: Es fehlt eine erlernte Fähigkeit zum Transfer.
  • Bestärkendes Lernen (Reinforcement Learning): Hier erhält die KI nur Eingabemuster, aber keine ideale Lösung für jeden einzelnen Durchgang. Stattdessen wird die KI (auch als Agent bezeichnet) für das fehlerfreie Abarbeiten eines gesamten Datensatzes belohnt. Dies kann geschehen, indem verschieden optimierte Agenten einer KI gegeneinander oder gegen einen Menschen antreten. Der Agent, der hierbei den Sieg erringt, wird belohnt, indem seine neuronale Struktur weitervererbt wird. Dieses Lernverfahren ist deutlich aufwendiger und langwieriger als das überwachte Lernen. Da hierbei bewusst keine optimalen Lösungen für jeden einzelnen Durchgang vorgegeben werden, kann die KI im Idealfall aber auch bessere Lösungen finden als die Lehrer:innen selbst.
  • Unüberwachtes Lernen (Unsupervised Learning): Die KI erhält nur noch Eingabemuster, aber keinerlei Rückmeldung von den Lehrer:innen. Die künstliche Intelligenz versucht eigenständig, in den vorliegenden Daten Muster zu erkennen, ohne zu wissen, welche Art von Mustern sie überhaupt finden könnte. Diese Lernform ist dem natürlichen, biologischen Lernen am ähnlichsten. Denn auch Menschen wissen beispielsweise vor dem Ansehen eines Bildes nicht, welche Inhalte sie darauf erkennen werden und welche Erfahrungen sie aus dem vielfachen Betrachten von Bildern gewinnen könnten. Die KI kann bei diesem Lernverfahren Muster oder Gesetzmäßigkeiten finden, die ihr zuvor noch nicht bekannt waren. Eine solche KI könnte beispielsweise in einem Set von Bestelldaten mit zunehmender Erfahrung Auffälligkeiten bei Kundenpräferenzen entdecken oder Vorhersagen über zukünftige Zahlungsausfälle bestimmter Kundentypen treffen. Ein typisches Einsatzgebiet für unüberwachtes Lernen ist die Fraud Detection: Künstliche Intelligenz analysiert Firmendaten und entdeckt schneller als der Mensch Spuren von Betrug durch winzige Auffälligkeiten und Abweichungen in Geschäftsvorgängen, die vorher nie auffällig schienen.
Überschrift: Deep Learning als Teilbereich der KI. Darunter drei Kreise ineinander: Im innersten Kreis steht Deep Learning, im Kreis darum Machine Learning und im äußersten Kreis steht Künstliche Intelligenz.
Deep Learning und Machine Learning sind Teilbereiche der künstlichen Intelligenz. (Quelle: Datasolut)

Warum Deep Learning so bedeutsam ist: Die wichtigsten Anwendungsfelder

Deep Learning als Form des maschinellen Lernens kommt dort zum Einsatz, wo die Regeln einer gestellten Aufgabe sehr komplex und schwer in mathematische Gesetzmäßigkeiten zu fassen sind. Hierzu zählen beispielsweise die Erkennung von Handschriften, Aufgaben im Bereich der Marktanalyse und das Einordnen von Bildinhalten in abstrakte Kategorien. Insbesondere dort, wo es nur wenige Informationen über zu erwartende Ergebnisse gibt, kann eine KI neue, unerwartete Erkenntnisse liefern. Vor allem wenn sie mit unüberwachtem Lernen geschult wurde.
Übersetzung und Spracherkennung: Mit der zunehmenden Verbreitung von Sprachsteuerung und digitalen Assistenten wie Siri, Alexa und Google Assistant kommt der Spracherkennung per KI wachsende Bedeutung zu. Dabei muss die künstliche Intelligenz aus gesprochener Sprache eindeutige Sinnzusammenhänge und Sprachbefehle herausfiltern und anschließend ihre eigene Antwort in menschliche Sprache zurückübersetzen und dabei deren Syntax und Satzbau berücksichtigen. Solche Systeme sind häufig als Software as a Service oder Function as a Service ausgelegt, wobei der Anbieter seine Sprach-KI fortlaufend zentral trainiert.
Als Kund:in mieten Sie dann zum Beispiel fallweise die Funktion der Spracherkennung, um den Avatar Ihres Shopsystems mit Ihren Kund:innen sprechen zu lassen. In weiteren Ausbaustufen kann die Software auch in verschiedenen Sprachen mit Ihren Websitebesucher:innen kommunizieren oder Dialoge zwischen Ihren Servicemitarbeiter:innen und Ihren Kund:innen simultan dolmetschen. Oder Sie setzen die KI ein, um Ihr neues Produktportfolio Geschäftspartner:innen aus anderen Ländern vorzustellen – und zwar per Videokonferenz in der jeweiligen Landessprache.
Bilderkennung: Die Bild- und Mustererkennung ist besonders vielfältig einsetzbar. Das Aufgabengebiet reicht von der Vorhersage von Wetterphänomenen auf Basis von Satellitenkarten über die Gesichtserkennung am Firmentor bis hin zur KI, die alte Schwarz-Weiß-Filme nachkoloriert. Viele Anwender:innen nutzen im Alltag täglich die Bilderkennung, wenn beispielsweise die Smartphone-Kamera automatisiert auf Fotos Gesichter erkennt oder das Handy per Gesichtserkennung entsperrt wird. Aber auch die Auswertung von Fotos von Materialproben fällt in diese Disziplin.
Ein besonderes Verfahren hierbei ist das sogenannte Deep Residual Learning (zu Deutsch etwa: Lernen mit Restwerten). Hierbei blendet die KI einzelne Inhalte oder Ebenen ihres neuronalen Netzes gezielt aus und arbeitet nur noch mit den verbleibenden Restwerten. So kommt sie zum einen deutlich schneller zu Ergebnissen und kann zum anderen bestimmte Fehlertypen, die sich über zu viele Abstraktionsschritte aufsummieren würden, wirksam ausschließen. 
An der Ruhr-Universität Bochum helfen KI-Agenten, indem sie Röntgenbeugungsdaten und Kristallstrukturen verschiedener Werkstoffe auf mögliche neue Eigenschaften hin analysieren. Aber auch autonome Transportfahrzeuge in größeren Fabrikanlagen nutzen KI und Bilderkennung.
Blick in eine graue Lagerhalle mit hohen Regalen und Kisten, die mit bunten Rahmen markiert und mit Zahlenfolgen versehen sind
Blick einer künstlichen Intelligenz auf eine Lagerhalle. Die KI eines autonomen Fahrzeugs erkennt ihre Umgebung und klassifiziert alle Objekte in ihrer Nähe.
Autonomes Fahren: Expert:innen sind sich einig, dass es ohne KI kein autonomes Fahren im öffentlichen Raum geben kann. Für den vollautomatisierten Fahrbetrieb wird künstliche Intelligenz darauf trainiert, sich sicher und unfallfrei fortzubewegen. Möglich wird ein solches autonomes Fahren erst durch die Beobachtung des Umfeldes und den gleichzeitigen Informationsaustausch mit anderen Fahrzeugen per Machine-2-Machine-Kommunikation. Nur dann kann sich das Fahrzeug zügig auf der idealen Route fortbewegen und zugleich Staus vermeiden. Bei Mercedes-Benz heißt es hierzu: „Durch Deep Learning werden Fahrzeuge ‚lernen‘, ihre Umwelt zu verstehen. Mit der Cloud verbunden, entwickeln sie sich so zu einem anpassungsfähigen Co-Piloten, der innerhalb und außerhalb des Fahrzeugs permanent Sicherheit und Komfort seiner Insassen im Auge hat.“
Internet of Things (IoT): Im Netzwerk der Dinge fallen sehr große Datenmengen an, die von Menschen oder von einfachen Suchalgorithmen längst nicht mehr allein ausgewertet und strukturiert werden können. Ein Beispiel sind die Bilddaten mehrerer Kameras auf einem Firmengelände, die alle auf einen zentralen Server streamen. Künstliche Intelligenz clustert derartige Massendaten nach Sinnzusammenhängen und gewinnt aus Big Data über Zwischenschritte Smart Data, also höherwertige Daten. Diese Daten können Sie wiederum zur Optimierung der zugrunde liegenden Prozesse nutzen. Im Fall der Kameras etwa sammelt die KI aus den vielen Bildinhalten nur die Informationen, welche Personen sich zu welcher Zeit wo aufgehalten haben. Bei einer per Kamera überwachten Fertigungsstraße behält die KI nur solche Aufnahmen, bei denen sie Auffälligkeiten festgestellt hat, und leitet diese an das Qualitätsmanagement weiter. Erkennt sie Spuren von Verschleiß an der Anlage, sendet sie einen Hinweis an die Wartungsabteilung, dass diese Maschine möglicherweise bald ausfallen könnte (Predictive Management).
Empfohlener externer Inhalt
Hier ist ein Video-Inhalt von YouTube. Er ergänzt die Informationen auf dieser Seite.
Sie können ihn mit einem Klick anzeigen und wieder ausblenden.
Ich bin einverstanden, dass externe Inhalte angezeigt werden. So können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr in unserer  Datenschutzerklärung.
Datenschutzerklärung

Deep Learning: Algorithmen für die Mustererkennung

Die Mustererkennung per neuronalem Netzwerk gehört zu den klassischen Einsatzgebieten des Deep Learning. Hierfür gibt es verschiedene Algorithmen sowie Fachbegriffe, die die Anwendung dieser Algorithmen beschreiben:
Transfer Learning
Beim Transfer Learning wird das digitale Wissen einer KI auf verwandte Einsatzgebiete übertragen. Eine KI, die gelernt hat, Gesichter wiederzuerkennen, kann dank Transfer Learning beispielsweise dafür eingesetzt werden, auch andere biometrische Daten in einer Zugangskontrolle zu erkennen.
Merkmalsextraktion
Die Merkmalsextraktion (Feature Extraction) ergibt sich aus der Unterscheidung der KI zwischen im Sinne der Aufgabe wichtigen und unwichtigen Eigenschaften eines Musters. Eine künstliche Intelligenz, die Lastwagen auf den Bildern einer Verkehrskamera identifizieren soll, wird zum Beispiel lernen, die Umrisse von Lkw wiederzuerkennen (wichtige Merkmale) und weiterzuverarbeiten, aber beispielsweise die Farben von Werbetexten auf Anhängern (unwichtige Merkmale) zu ignorieren.

Backpropagation

Ein Backpropagation-Algorithmus kommt speziell beim überwachten Lernen zum Einsatz. Hierbei wird zuerst ein Muster durch das neuronale Netzwerk geführt (propagiert). Anschließend wird die Ausgabe des Netzwerks mit einer zuvor bereits bekannten, optimalen Lösung für dieses Muster verglichen. Mit Blick auf die Abweichungen von der Ideallösung durchläuft das Muster nun das neuronale Netzwerk in umgekehrter Richtung (sogenannte Backpropagation). Dabei erfolgt eine Neugewichtung der einzelnen Neuronenverbindungen: Verbindungen, die maßgeblich zur Entstehung des Fehlers beigetragen haben, werden geschwächt oder ganz gelöscht.
Führt beispielsweise eine bestimmte Lichtquelle in Bildern von Überwachungskameras häufig zu falsch erkannten Mustern, gewichtet die KI zukünftig Bildinhalte, die von speziell dieser Lichtquelle beleuchtet werden, als weniger wichtig für das Gesamtergebnis: Sie schwächt also die zugehörigen Knoten im Netzwerk.

Neuronen-Modellierung

Jedes künstliche Neuron besteht wie das Neuron eines menschlichen Gehirns aus mehreren Komponenten, ist allerdings deutlich einfacher strukturiert. Das künstliche Neuron hat eine Eingangsseite, auf der Eingabedaten oder Daten vom vorherigen Layer eintreffen. Diese unterschiedlichen Daten werden jeweils einzeln gewichtet und dann mathematisch zu einem Wert zusammengefasst. Dies geschieht in der Übertragungsfunktion.
Diese Funktion gibt den zusammengefassten Zahlwert als sogenannte Netzeingabe an die Aktivierungsfunktion weiter. Nur wenn dieser Zahlwert einen bestimmten Schwellwert überschreitet, gibt die Aktivierungsfunktion einen Impuls an die nächste Ebene des neuronalen Netzes (“Aktivierung”). Andernfalls „schweigt” sie bei diesem Durchgang.
Pfeildiagramm eines künstlichen Neurons
Aufbau eines künstlichen Neurons: Alle eingehenden Informationen werden durch Funktionen bearbeitet.

Aktivierungsfunktionen

Die Aktivierungsfunktion eines Neurons gibt üblicherweise nicht einfach den erhaltenen Zahlwert an die nächste Ebene weiter, sondern bearbeitet diesen Wert zuerst mittels einer mathematischen Funktion. Ein Teilgebiet der KI-Forschung befasst sich mit dem Finden der idealen Funktion für diese Aufgabe. Heutige neuronale Netze verwenden Aktivierungsfunktionen wie die Sigmoidfunktion oder die Hyperbelfunktion. Seit dem Jahr 2000 ist die Rectified Linear Unit (ReLU) die beliebteste KI-Funktion.
Jede Funktion hat dabei andere Stärken und Schwächen. Die ReLU-Funktion ist beispielsweise gut geeignet für die schnelle Annäherung (Konvergenz) an gewünschte Ergebnisse. Sie kann bei sehr vielen Lerndurchläufen aber auch zum sogenannten Dying ReLU-Problem (Neuronensterben) führen. Das geschieht, wenn immer mehr Neuronen eines Netzes auf der Übertragungsseite nur noch negative Zahlwerte erhalten und somit nicht mehr aktiviert werden.
Eine Frau und ein Mann stehen auf einer Baustelle

Jetzt mit IoT Easy Connect durchstarten

Zwei sorgenfreie IoT-Prepaid-Tarife ermöglichen Ihr eigenes IoT-Projekt auf Basis unseres Hochleistungsnetzes:

  • IoT Easy Connect 2G/4G für hohe Datenraten
  • IoT Easy Connect 2G/NB-IoT/LTE-M für schwierige Bedingungen

Die Bedeutung neuronaler Faltungsnetzwerke (CNN)

Faltungsnetzwerke heißen auch Faltungsneurale Netzwerke (Convolutional Neural Network). Sie sind eine Methodik der Musterverarbeitung, etwa bei Fotos. Hierbei werden alle Pixel eines Eingangsmusters nacheinander mit einer mathematischen Funktion verknüpft („gefaltet“). Die hierbei entstehenden Convolutional Layer (Einzelbilder) werden dann zu einer neuen Bildebene (Pooling Layer) zusammengefasst, wobei ein Großteil der zuvor in den einzelnen Layern enthaltenen Informationen als unwichtig verworfen wird.
Vereinfacht gesagt legt die KI mit diesem Verfahren einen Bildbearbeitungsfilter über das Foto, der bestimmte Strukturen herausarbeitet und verstärkt. Dieser Prozess kann innerhalb eines neuronalen Netzes beliebig oft wiederholt werden. Wie das gesamte neuronale Netz ist auch diese Methode eine Imitation biologischer Vorgänge im menschlichen Gehirn, hier speziell in der Sehrinde. Im Ergebnis erkennt die KI durch dieses Verfahren Strukturen besser, so wie auch das menschliche Gehirn in einem beliebigen Muster bestimmte auffällige Strukturen schnell hervorheben und identifizieren kann.

GPU als KI-Beschleuniger

Grafikprozessoren (Graphics Processing Units, kurz: GPU) unterstützen die Hauptprozessoren von Computern bei der immer komplexeren Bildausgabe, beispielsweise in 3D-Computerspielen. Es hat sich gezeigt, dass diese GPU auch für andere Aufgaben sehr gut geeignet sind, etwa für das Errechnen von digitaler Währung (Bitcoin Mining). Auch die KI-Forschung greift mittlerweile auf GPU-Cluster zurück und erledigt damit besonders rechenintensive Aufgaben in immer kürzerer Zeit. Entsprechend gehören Grafikkartenspezialisten wie Nvidia heute zu den Hauptlieferanten von KI-Hardware.
Empfohlener externer Inhalt
Hier ist ein Video-Inhalt von YouTube. Er ergänzt die Informationen auf dieser Seite.
Sie können ihn mit einem Klick anzeigen und wieder ausblenden.
Ich bin einverstanden, dass externe Inhalte angezeigt werden. So können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr in unserer  Datenschutzerklärung.
Datenschutzerklärung

Frameworks und Programmiersprachen im Deep-Learning-Umfeld

Für die Entwicklung von neuronalen Netzwerken und ganz allgemein für das Maschinenlernen gibt es mittlerweile eine Vielzahl von Frameworks und Programmiersprachen. Sie möchten sich selbst mit Deep Learning befassen und suchen die richtige Sprache und Programmierumgebung? Hier stellen wir Ihnen einige beliebte Kombinationen vor:

Python

Python ist sehr vielfältig und unterstützt unterschiedliche Programmierparadigmen. Auch deshalb ist Python die wahrscheinlich meistgenutzte Programmiersprache für von Grund auf selbst gecodete KI-Anwendungen. Hierfür gibt es eine große Anzahl an Machine-Learning- und Deep-Learning-Frameworks. Der leicht verständliche Programmierstil ist für Einsteiger:innen ideal. Entsprechende Programmierbibliotheken für die Auswertung großer Datenmengen (Big Data) sind vorhanden.
PyTorch
Schon der Name lässt es erahnen: PyTorch ist ein Deep-Learning-Framework für die Programmiersprache Python, das auf der bekannten Torch-Bibliothek basiert. Zwar funktioniert es auch mit C, doch KI-Entwickler:innen geben beim Thema künstliche Intelligenz mehrheitlich Python den Vorzug. PyTorch ist Open-Source-Software und wurde von Facebook entwickelt, dessen Entwickler:innen für das geplante Metaversum selbst an KI-Anwendungen feilen. Gut: PyTorch funktioniert auch auf mobilen Plattformen wie Android und iOS.

Keras

Das Framework Keras für Python ist für die Erstellung neuronaler Netzwerke optimiert. Auch die Keras-Macher:innen sind um eine möglichst einsteigerfreundliche Gestaltung bemüht. Die Software ist als Open-Source-Bibliothek angelegt und wird somit von einer weltweiten Gemeinschaft engagierter Informatiker:innen stetig weiterentwickelt.

TensorFlow

TensorFlow ist ebenfalls ein Open-Source-Framework für das Deep Learning mit Python. Aktuell dürfte es für diesen Einsatzzweck das meistgenutzte Framework sein, noch vor PyTorch und Keras. Das ist nicht zuletzt seiner prominenten Herkunft aus dem Google-Universum zu verdanken, von wo es 2015 in die kostenfreie Nutzung entlassen wurde. Auch Google selbst verwendet die Technologie für Google Search, Gmail und die Google-Spracherkennung. Die Kombination von TensorFlow mit C++ ist ebenfalls möglich, aber für KI-Themen weniger relevant.

Deep Learning Toolbox Matlab

Das Deep-Learning-Framework von den Matlab-Macher:innen bei MathWorks ist für die Entwicklung und Implementierung tiefer neuronaler Netze auch mit vortrainierten Modellen und Apps gedacht. Sie können es beispielsweise mit neuronalen Faltungsnetzwerken sowie LSTM-Netzen (Long Short-Term Memory) verwenden. Die Toolbox bietet Transferlernen mit DarkNet-53, ResNet-50, NASNet, SqueezeNet und weiteren vortrainierten Modellen.

MXNet

Apache MXNet ist ein Open-Source-Framework für das Deep Learning. Es ist leicht skalierbar und besticht besonders durch die Vielfalt der unterstützten Sprachen wie Python, C++, Java, JavaScript, Go, R und Perl. Wie am Namen der Software zu erkennen ist, steht dahinter die Non-Profit-Organisation Apache Software Foundation, die vielen Anwender:innen durch die Apache-HTTP-Server bekannt ist.

R

Die Programmiersprache R ist als Statistiksprache weltweit bekannt und geschätzt. Insofern ist der Einsatz im Bereich künstlicher Intelligenz nicht ungewöhnlich. Schließlich gibt es zwischen beiden Themengebieten große Überschneidungen. Die Sprache wird als Open-Source-Software für Windows, Linux und macOS angeboten. R funktioniert mit dem weiter oben erwähnten Framework TensorFlow. Aber auch mit Microsofts Cloud-Plattform Azure, dem Service Watson Machine Learning von IBM und der Oracle-Cloud Free Tier lassen sich KI-Anwendungen unter R erstellen.
Das Bild zeigt einen Mann mit einem Notebook

IoT-Plattform und Device Management

Mit Vodafone verwalten Sie Ihre SIM-Karten und IoT-Geräte. Jederzeit und auf der ganzen Welt. Nutzen Sie die IoT-Plattform als leistungsfähiges Self-Service-Tool zum Monitoring Ihrer SIM-Karten, Verbindungen und Services.

  • Globale IoT-Plattform
  • Integrated M2M-Terminals
  • Globale SIM-Karte

Deep Learning: Zukunftstechnologie im KI- und IoT-Umfeld

  • Deep Learning ist eine Form des Maschinenlernens, durch die KI Muster oder Sprachen erlernen oder beim autonomen Fahren die Umgebung überwachen kann.
  • Per Deep Learning geschulte Systeme sind in der Lage, auch große Datenmengen, wie sie im Internet of Things entstehen, sinnvoll zu strukturieren und zu vereinfachen.
  • Bereits heute kommen KI und Deep Learning auf vielen Anwendungsgebieten zum Einsatz, etwa in der Spracherkennung und in der Smartphone-Fotografie.
  • Je nach angewandtem Lernverfahren kann KI beim Deep Learning sehr schnell trainiert werden oder aber so angelegt sein, dass die künstliche Intelligenz auch übergeordnete Regeln erkennt, die selbst ihren menschlichen Lehrer:innen zuvor nicht bekannt waren.
  • Die Forschung zur künstlichen Intelligenz arbeitet an der permanenten Verbesserung der KI-Algorithmen, beispielsweise durch die Weiterentwicklung der in den Neuronen verwendeten Funktionen.
  • Für die Arbeit mit künstlicher Intelligenz gibt es bereits zahlreiche Programmiersprachen und Frameworks sowie vorkonfektionierte neuronale Netzwerke, die individuell modifiziert werden können. Viele der angebotenen Sprachen und Frameworks sind als Open-Source-Software verfügbar.
Das könnte Sie auch interessieren:
Digitalisierung
Ein gezeichneter Kopf mit einer Verdrahtung und der Abkürzung AI schwebt über einem Laptop auf einem braunen Tisch.

Die ChatGPT-API von OpenAI: So integrieren Sie KI in Ihr Unternehmen

Nur zwölf Prozent der deutschen Unternehmen nutzten 2023 künstliche Intelligenz (KI) für ihr Business. Das ist verschenktes Potenzial, schließlich versprechen KI-Anwendungen enorme Wachstums- und Optimierungschancen für Unternehmen: Über die Programmierschnittstelle ChatGPT-API von OpenAI können Sie das leistungsstarke KI-Sprachmodell ChatGPT in Ihre Geschäftsprozesse integrieren – zum Beispiel als Chatbot. Dies macht etwa Ihre digitale Kundenbetreuung effizienter, interaktiver und persönlicher. Auch Ihre Mitarbeiter:innen profitieren, indem sie KI-gestützte Lösungen in ihren Arbeitsalltag einbinden, um Standardaufgaben zu automatisieren. Ob Dax-Konzern oder Mittelständler – über die ChatGPT-API können Unternehmen jeder Größe an der KI-Revolution teilhaben. Rund 600.000 Mitarbeiter:innen von Firmen weltweit nutzen laut Bloomberg bereits künstliche Intelligenz für ihre Arbeit – Tendenz steigend. Wie die Programmierschnittstelle ChatGPT-API funktioniert, wie sie Ihrem Business hilft und welche Kosten dabei für Sie anfallen, erfahren Sie hier.

Telefon

Digitalisierungs-Beratung

Sie haben Fragen zur Digitalisierung? Jetzt kostenlos beraten lassen. Montag-Freitag von 8-18 Uhr, außer an Feiertagen.

0800 505 4539

Hilfe und Service

Montag bis Freitag von 8 bis 20 Uhr, außer an Feiertagen.

0800 172 1234
Online
Vor Ort