Google startet neues Cloud-TPU-Hosting für KI und maschinelles Lernen

Tensor Processing Units (TPUs) der zweiten Generation, angekündigt bei Google I / O 2017

Google als Unternehmen bringt ständig neue Technologien auf den Markt, die das Potenzial haben, ganze Branchen radikal zu verändern und den Kurs der menschlichen Zivilisation zu verändern. Einige der besten Pressemitteilungen sind für die Veröffentlichung auf der jährlichen I / O-Convention reserviert. In diesem Jahr machten Sundar Pichai (CEO), Jeff Dean (Research) und Urs Hölzle (Google Cloud) gleichzeitig zeitgesteuerte Ankündigungen, mit denen eine völlig neue Form des Cloud-Hostings auf der Grundlage von maschinellem Lernen und künstlicher Intelligenz eingeführt wurde. Google hat einen neuen Typ von Computerserver mit fortschrittlichen Tensor Processing Units oder TPUs entwickelt, mit denen maschinelle Lernprozesse für KI auf ähnliche Weise optimiert werden können wie GPUs beim fortschrittlichen mathematischen Rendern von Hochgeschwindigkeits-Computergrafiken oder beim Beschleunigen von Bitcoin Bergbau. Google beabsichtigt, die Server für maschinelles Lernen durch Cloud-Computing-Pläne, die mit TensorFlow programmiert werden können, für Forschung und Entwicklung zu Open Source-Standards verfügbar zu machen, "eine Open-Source-Softwarebibliothek für Machine Intelligence." Der Start des Cloud-TPU-Hostings ist einer der Höhepunkte der Änderung von Google von a "Mobile-First" zu "AI-first" Unternehmen und symbolisch für sein Ziel zu entwickeln "AI-first" Rechenzentren für alle aktuellen Geschäftsvorgänge.


Tensor Processing Units (TPUs) der zweiten Generation, angekündigt bei Google I / O 2017

TensorFlow – Eine Open Source-Softwarebibliothek für Machine Intelligence

Die Ankündigung des Cloud-TPU-Hostings ist möglicherweise ein wichtiger Moment für die Zukunft des Webhostings, des Rechenzentrumsmanagements und der Entwicklung von Softwareanwendungen. Viele sind gekommen, um Google I / O-Ankündigungen mit weniger Begeisterung anzunehmen, nachdem sich der große Hype um Google Wave und Google Glass nicht zu tragfähigen neuen Produkten entwickelt hat. Die auf der Google I / O 2008 angekündigte Android-Plattform wurde jedoch in weniger als 10 Jahren auf über 2 Milliarden Geräteinstallationen skaliert. Googles philosophischer Wechsel von a "zuerst mobil" zu einem "KI zuerst" Das Unternehmen wurde bereits intern implementiert und die Änderungen finden sich in vielen der vorhandenen Such-, Foto-, E-Mail-, Karten- und Sprachanwendungen des Unternehmens. Mit der Einführung von Cloud-TPU-Hosting-Diensten, die auf der TensorFlow-Plattform und einem völlig neuen Cloud-Computertyp basieren, der für die besonderen Anforderungen des maschinellen Lernens und der künstlichen Intelligenz entwickelt wurde, beweist Google als Unternehmen, dass sie der Konkurrenz noch relativ leichte Jahre voraus sind.

Branchenanalysten beeilten sich, die geschätzten Auswirkungen der Cloud-TPU-Hosting-Plattform auf Intel, AMD, zu berechnen, & Nvidia reagierte nach der I / O-Ankündigung als die größten Chiphersteller und GPU-Designunternehmen der Branche auf die neueste Produkteinführung von Google. Offensichtlich sind künstliche Intelligenz und maschinelles Lernen als Sektoren für neue Hardware nahezu unbegrenzt & Softwareentwicklung in der IT. Laut Pressemitteilung liefern die einzelnen TPU-Server von Google "Bis zu 180 Teraflops mit Gleitkomma-Leistung … Ein TPU-Pod enthält 64 TPUs der zweiten Generation und bietet bis zu 11,5 Petaflops, um das Training eines einzelnen großen maschinellen Lernmodells zu beschleunigen." Mit den AI-optimierten Cloud-Servern können neue Anwendungen für erweiterte Spracherkennung, Sprachübersetzung, Bildsuche und viele andere Zwecke in Forschung, Industrie, Wissenschaft und Design erstellt werden. Google fördert die Verwendung von KI & maschinelles Lernen, um traditionelle Probleme in allen wichtigen Industriesektoren zu überdenken und neue innovative Produkte auf den Markt zu bringen.

Einer der Gründe, warum die neuen TPU-Server von Google entwickelt wurden, ist die Optimierung der Entwicklung der KI durch die Verwendung neuronaler Netze beim maschinellen Lernen. Dies beinhaltet die Entwicklung der Fähigkeit für Computer zu "sehen" und "verstehen" Was ist in einem Bild, und führt zu neuen Potenzialen im Computer "Hören" durch Spracherkennung und "lesen" durch optische Texterkennung. Gesundheitswesen, Biotech-Forschung, Medizin, genetische Sequenzierung, Astrophysik, Quantenphysik, Biologie, Chemie, Architektur, & Ingenieurwesen – Google sucht nach einem Mittel, um von der aktuellen Umgebung, in der KI-Forschung und maschinelles Lernen mit neuronalen Netzen in erster Linie die Domäne von Doktoranden der Informatik sind, bis hin zur Anwendung von Innovationen in weiten Bereichen der Gesellschaft und Industrie zu skalieren. Dies erfordert Hunderttausende von professionellen Entwicklern und AI / ML-Programmierern, was TensorFlow zu einer potenziell wertvollen Plattform für die gemeinsame Nutzung von Open Source-Code beim Erstellen neuer Softwareanwendungen macht. Google.ai ist ein weiteres Projekt, das eine Sammlung von Experten aus verschiedenen Google-Abteilungen darstellt, die alle daran arbeiten, die Vorteile der KI durch angewandte Forschung und die Entwicklung neuer Verbraucherprodukte auf der Grundlage von Deep Learning für alle zu nutzen & neuronale Netze.

Einführungsvideo: TensorFlow (2017)

TensorFlow: Open Source Maschinelles Lernen – "TensorFlow ist eine Open-Source-Softwarebibliothek zur numerischen Berechnung mithilfe von Datenflussdiagrammen. Ursprünglich von Forschern und Ingenieuren entwickelt, die im Google Brain Team der Google-Forschungsorganisation Machine Intelligence arbeiten, um maschinelles Lernen und die Erforschung tiefer neuronaler Netze durchzuführen." Folgen Sie TensorFlow auf Twitter.

Google Cloud TPU Platform – Beschleunigtes maschinelles Lernen für eine neue Generation von Apps

Die Cloud-Computing-Plattform von Google umfasst derzeit Skylake-CPUs von Intel, Nvidia-GPUs und die neuen TPU-Server, die von internen Forschungs- und Entwicklungsteams des Unternehmens eingeführt wurden. Die Tensor Processing Unit (TPU) ist ein ASIC-Chip (anwendungsspezifische integrierte Schaltung), bei dem sich viele fragen, ob die neuesten Forschungsergebnisse von Google zu Entwicklungen geführt haben, die Intel, AMD, übertreffen werden, & Nvidia in künstlicher Intelligenz und Chipdesign für maschinelles Lernen. Die nächstgelegenen Industrieprodukte, die mit TensorFlow konkurrieren, sind die Nervana Engine und die Nervana Cloud, die von Intel mit der Python-basierten Neon Deep Learning-Plattform entwickelt werden. Nvidia hat den maschinellen Lernchip Volta (V100-Serie) zusammen mit seinem proprietären Deep Learning Accelerator (DLA) auf den Markt gebracht. Wave Computing’s Die Datenflussarchitektur ist ein weiteres Start-up-Produkt-Ökosystem in diesem Sektor. Google hat umfangreiche Testergebnisse aus seinen Rechenzentren veröffentlicht, in denen die Leistung der Tensor Processing Unit (TPU) mit der Intel Haswell-CPU und der Nvidia K80-GPU verglichen wird. Insgesamt ergab die Untersuchung von Google, dass "Bei unseren Produktions-AI-Workloads, die neuronale Netzwerkinferenzen verwenden, ist die TPU 15- bis 30-mal schneller als moderne GPUs und CPUs." Obwohl einige die Tatsache in Frage gestellt haben, dass die TPU-Server derzeit nur mit der TensorFlow-Plattform zum Programmieren neuer Anwendungen verwendet werden können, ist klar, dass die Entwicklung neuer Produkte mit der Google TPU-Hardware erst am Anfang steht.

Tensor Processing Units (TPUs) der zweiten Generation, angekündigt bei Google I / O 2017

Google Cloud TPU-Hosting – "Mit dem Ende von Moores Gesetz glauben viele Computerarchitekten, dass wesentliche Verbesserungen der Kosten-Energie-Leistung jetzt von domänenspezifischer Hardware ausgehen müssen. Die Tensor Processing Unit (TPU), die seit 2015 in Google-Rechenzentren eingesetzt wird, ist ein benutzerdefinierter Chip, der tiefe neuronale Netze (DNNs) beschleunigt.." Erfahren Sie mehr über Google Cloud TPU Hosting.

Der TensorFlow Dev Summit 2017: Maschinelles Lernen, KI, & Cloud Computing

TensorFlow ist eine der fortschrittlichsten Plattformen, die derzeit weltweit für die Entwicklung von Al verfügbar sind & ML-Anwendungen auf Open Source-Grundlagen. Die von Google-Technikern auf dem TensorFlow Developer’s Summit 2017 vorgestellten Forschungsankündigungen hoben die Vielfalt und Unerwartetheit der Software hervor, die von Programmierern entwickelt wurde, die international neuronale Netze nutzen. Unabhängig davon, ob Medizin, Landwirtschaft, Wissenschaft, Industrie, Kunst, Musik, Finanzen, Wirtschaft, Luftfahrt oder Ingenieurwesen – unabhängige Entwickler, Informatiker, akademische Forscher, kreative Künstler und Hobbyisten aus Garagenlabors haben die mit TensorFlow-Code verfügbaren Tools zum Einsatz gebracht beim Erstellen neuer Anwendungen für den produktiven Einsatz in ihren lokalen Umgebungen. Es bleibt abzuwarten, wie diese neuen Entwicklungen im Cloud Computing und im "Internet der Dinge" wird durch Texterkennung, Data Mining, Meme-Generierung und Image in Webanwendungen übergehen & Videosuche usw. in eine neue Generation von AI-gesteuerten Websites und ML-fähigen mobilen Anwendungen auf der beliebten Ebene. TensorFlow wird bereits von AirBNB, ARM, DeepMind, DropBox, eBay, Google, IBM, Intel, Qualcom, SAP, Snapchat, Twitter, Uber und anderen etablierten Unternehmen im täglichen Geschäftsbetrieb eingesetzt. Was als nächstes kommt, dürfte noch transformativer sein als die Veränderungen, die durch die Fortschritte im Bereich Cloud Computing und mobile Technologie heute ausgelöst wurden. Die TensorFlow-Plattform bietet auch einen Weg zu einer umfassenderen sozial transformativen Vision von künstlicher Intelligenz und maschinellem Lernen, die der leitende Google-Forscher Ray Kurzweil in seiner Reihe von Büchern über gefördert hat "die Singularität". Die konkurrierenden kommerziellen Standards wurden von Google, Intel, Nvidia, IBM und Microsoft weiterentwickelt, & Andere Unternehmen in dieser Phase der kollektiven AI / ML-Entwicklung weisen ebenfalls auf das enorme Potenzial wirtschaftlicher Renditen aus Finanzinvestitionen in diesem kommerziellen Sektor hin.

Keynote-Video: Google I / O 2017

Google I / O-Keynote – "Organisation der Informationen der Welt … durch Anwendung tiefer Informatik und technologischer Erkenntnisse zur Lösung von Problemen in großem Maßstab." Folgen Sie Google-CEO Sundar Pichai auf Twitter.

TensorFlow R.&D – Plattformressourcen für ML-Programmierer & KI-Entwickler

Während maschinelles Lernen, neuronale Netze und Programmierung künstlicher Intelligenz seit Generationen das Forschungsmaterial für Informatiker sind, beweisen der Start der Google TensorFlow-Plattform und die Ankündigung des Cloud-TPU-Hostings mit neuer Hardware, dass die Innovation aus diesem Sektor endlich im Mainstream ankommt. Nicht alle Forschungs- und Entwicklungsarbeiten von TensorFlow sind jedoch auf Akademiker oder Fortune 500-IT-Abteilungen beschränkt. Auf der TensorFlow-Plattform gibt es eine wachsende Anzahl von Internetressourcen, z.

  • Die TensorFlow-Community
  • TensorFlow Code auf GitHub
  • Die Operator Vectorization Library
  • TensorFlow-Tutorials
  • Maschinelles Lernen mit TensorFlow
  • Google Developer Channel

Branchenentwicklungen in den Bereichen Cloud Computing, Big Data-Anwendungen, maschinelles Lernen, künstliche Intelligenz, Internet der Dinge und 3D-Druck scheinen bereit zu sein, sich auf die nächste Stufe der Rechenzentrumstechnologie zu integrieren, wie beispielsweise die Einführung der Google Cloud TPU-Pod-Netzwerke.

Tensor Processing Units (TPUs) der zweiten Generation, angekündigt bei Google I / O 2017

Beschleunigtes maschinelles Lernen – "Maschinelles Lernen (ML) kann unser Leben erheblich vereinfachen. Verbesserungen bei der Spracherkennung und beim Sprachverständnis helfen uns allen, natürlicher mit Technologie umzugehen. Unternehmen verlassen sich auf ML, um die Netzwerksicherheit zu stärken und Betrug zu reduzieren. Fortschritte in der medizinischen Bildgebung, die durch ML ermöglicht werden, können die Genauigkeit medizinischer Diagnosen erhöhen und den Zugang zur Versorgung erweitern, was letztendlich Leben rettet." Erfahren Sie mehr über Cloud TPU Hosting mit TensorFlow.

Deep Neural Networks (DNNs): Tiefes Lernen & Autonome Fahranwendungen

Google verheimlicht weiterhin seine eigene Unternehmensforschung zu autonomen Computerplattformen und wie diese mit neuen Branchenentwicklungen in den Bereichen TPU-Computing, künstliche Intelligenz, maschinelles Lernen und Robotik zusammenhängt. Dies ist nicht überraschend, da die Automobilindustrie kurz vor der Einführung der revolutionären neuen selbstfahrenden Fahrzeugtechnologie in zahlreichen Unternehmen, Verbrauchertransportmodellen und konkurrierenden Betriebssystemplattformen steht. Es wird berichtet, dass fast alle großen Automobilunternehmen und IT-Unternehmen auf internationaler Ebene sowie unzählige kleine Start-up-Softwareentwicklungsunternehmen in den nächsten Jahren an der bahnbrechenden Einführung autonom fahrender Fahrzeuge arbeiten. Der Xavier-Prozessor von Nvidia ist eng mit dem Volta-Chip verwandt, der in seiner Deep-Learning-Plattform verwendet wird. Die Xavier-GPU verwendet jedoch Tensormathematik, um Nvidia mit Strom zu versorgen "Fahren Sie PX" autonome Fahrsoftware mit fortschrittlicher KI. Es ist wahrscheinlich, dass das Google-Management seine TPU-Hardwareforschung als wesentlichen Bestandteil der Entwicklung der Zukunft selbstfahrender, autonomer Fahrzeuge mit Google Maps, AI, ansieht, & Software für maschinelles Lernen wie TensorFlow auf der nächsten Ebene. Suchen Sie in Zukunft nach weiteren Ankündigungen von Google zur Entwicklung autonomer Fahrtechnologien in Verbindung mit Deep-Learning-TPU-Serverhardware der nächsten Generation.

Keynote Video – TensorFlow Dev Summit 2017

Google-Entwickler – "Jeff Dean, Rajat Monga und Megan Kacholia halten die Festrede auf dem ersten TensorFlow Dev Summit. Sie diskutieren: Die Ursprünge von TensorFlow; Fortschritte seit TensorFlow’s Open-Source-Start; TensorFlow’s florierende Open-Source-Community; TensorFlow-Leistung und Skalierbarkeit; TensorFlow-Anwendungen auf der ganzen Welt … und einige aufregende Ankündigungen!" Erfahren Sie mehr über den TensorFlow Dev Summit 2017.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me