TensorFlow ist eine kostenlose Open-Source-Softwarebibliothek für den Datenfluss und die differenzierbare Programmierung für eine Reihe von Aufgaben. Es ist eine symbolische Mathematikbibliothek und wird auch für maschinelles Lernen wie neuronale Netze verwendet. Es wird sowohl für die Forschung als auch für die Produktion bei Google verwendet
TensorFlow wurde vom Google Brain-Team für die interne Verwendung durch Google entwickelt. Es wurde unter der Apache-Lizenz 2.0 am November 9, 2015 veröffentlicht.
Ausgehend von 2011 hat Google Brain DistBelief als proprietäres System für maschinelles Lernen entwickelt, das auf neuronalen Netzen für tiefes Lernen basiert. Der Einsatz in verschiedenen Alphabet-Unternehmen nahm sowohl in der Forschung als auch in kommerziellen Anwendungen rasant zu. Google beauftragte mehrere Informatiker, darunter Jeff Dean, die Codebasis von DistBelief zu vereinfachen und in eine schnellere, robustere Bibliothek für Anwendungen umzuwandeln, die zu TensorFlow wurde. In 2009 hatte das Team unter der Leitung von Geoffrey Hinton eine allgemeine Backpropagation und andere Verbesserungen implementiert, die die Erzeugung neuronaler Netze mit wesentlich höherer Genauigkeit ermöglichten, beispielsweise eine Reduzierung der Fehler bei der Spracherkennung um 25%.
TensorFlow ist das System der zweiten Generation von Google Brain. Version 1.0.0 wurde am Februar 11, 2017 veröffentlicht. Während die Referenzimplementierung auf einzelnen Geräten ausgeführt wird, kann TensorFlow auf mehreren CPUs und GPUs ausgeführt werden (mit optionalen CUDA- und SYCL-Erweiterungen für Allzweck-Computing auf Grafikprozessoren). TensorFlow ist für 64-Bit-Linux-, MacOS-, Windows- und Mobile-Computing-Plattformen einschließlich Android und iOS verfügbar.
Seine flexible Architektur ermöglicht die einfache Bereitstellung von Berechnungen auf einer Vielzahl von Plattformen (CPUs, GPUs, TPUs) und von Desktops über Servercluster bis hin zu Mobil- und Edge-Geräten.
TensorFlow-Berechnungen werden als zustandsbehaftete Datenflussdiagramme ausgedrückt. Der Name TensorFlow leitet sich von den Operationen ab, die solche neuronalen Netze an mehrdimensionalen Datenfeldern ausführen, die als Tensoren bezeichnet werden. Während der Google I / O-Konferenz im Juni erklärte Jeff Dean, dass 2016-Repositorys auf GitHub TensorFlow erwähnten, von denen nur 1,500 von Google stammten.
Im März kündigte Google 2018 TensorFlow.js Version 1.0 für maschinelles Lernen in JavaScript und TensorFlow Graphics für vertieftes Lernen in Computergrafik an.
In Jan 2019 kündigte Google TensorFlow 2.0 an.
Tensor Processing Unit (TPU)
Im Mai kündigte 2016 die Tensor Processing Unit (TPU) an, eine anwendungsspezifische integrierte Schaltung (ein Hardware-Chip), die speziell für maschinelles Lernen entwickelt und auf TensorFlow zugeschnitten ist. TPU ist ein programmierbarer KI-Beschleuniger, der für einen hohen Durchsatz von Arithmetik mit geringer Genauigkeit (z. B. 8-Bit) ausgelegt ist und darauf ausgerichtet ist, Modelle zu verwenden oder auszuführen, anstatt sie zu trainieren. Google gab bekannt, dass sie seit mehr als einem Jahr TPUs in ihren Rechenzentren betreiben und eine um eine Größenordnung bessere Leistung pro Watt für maschinelles Lernen liefern.
Im Mai kündigte 2017 Google die zweite Generation sowie die Verfügbarkeit der TPUs in Google Compute Engine an. Die TPUs der zweiten Generation liefern bis zu 180-Teraflops an Leistung, und wenn sie in Clustern von 64-TPUs organisiert sind, liefern sie bis zu 11.5-Petaflops.
Im Mai kündigte Google die dritte Generation von TPUs an, die bis zu 2018-Teraflops an Leistung und 420 GB HBM liefern. Cloud TPU v128 Pods bieten 3 + Petaflops an Leistung und 100 TB HBM.
Im Februar gab 2018 bekannt, dass TPUs in der Beta-Version auf der Google Cloud Platform verfügbar sind.
Edge-TPU
Im Juli 2018 wurde die Edge TPU angekündigt. Edge TPU ist Googles speziell entwickelter ASIC-Chip, mit dem TensorFlow Lite-Modelle für maschinelles Lernen (ML) auf kleinen Client-Computern wie Smartphones (Edge Computing) ausgeführt werden können.
TensorFlow Lite
Im Mai kündigte 2017 mit TensorFlow Lite einen Software-Stack speziell für die mobile Entwicklung an. Im Januar 2019 veröffentlichte das TensorFlow-Team eine Entwicklervorschau der Inferenz-Engine für mobile GPUs mit OpenGL ES 3.1 Compute Shaders auf Android-Geräten und Metal Compute Shaders auf iOS-Geräten. Im Mai gab 2019 bekannt, dass TensorFlow Lite Micro (auch TensorFlow Lite für Mikrocontroller genannt) und ARMs uTensor zusammengeführt werden.
Pixel Visual Core (PVC)
Im Oktober 2017 veröffentlichte Google das Google Pixel 2 mit dem Pixel Visual Core (PVC), einem vollständig programmierbaren Bild-, Bildverarbeitungs- und AI-Prozessor für Mobilgeräte. Das PVC unterstützt TensorFlow für maschinelles Lernen (und Halide für die Bildverarbeitung).
Einsatzfelder
Google hat RankBrain offiziell am 26, 2015, Oktober veröffentlicht, unterstützt von TensorFlow.
Google hat auch Colaboratory veröffentlicht, eine TensorFlow Jupyter-Notebook-Umgebung, für deren Verwendung kein Setup erforderlich ist.
Maschinelles Lernen Crash-Kurs (MLCC)
Am 1-2018-März hat Google seinen Machine Learning Crash Course (MLCC) veröffentlicht. Ursprünglich entwickelt, um Google-Mitarbeitern praktische Grundlagen der künstlichen Intelligenz und des maschinellen Lernens zu vermitteln, führte Google seine kostenlosen TensorFlow-Workshops in mehreren Städten auf der ganzen Welt ein, bevor der Kurs schließlich für die Öffentlichkeit freigegeben wurde.
Zurück nach oben