Technokraten von Big Tech-Giganten erkennen, dass KI zu groß ist, um sie alleine zu betreiben, insbesondere wenn Konsortien nützliche Tools und Durchbrüche für alle Beteiligten hervorbringen können. Werden die Ergebnisse angesichts der Hunderte von Milliarden, die für die KI-Entwicklung ausgegeben werden, in Hände gelangen, denen die Gesellschaft vertrauen kann? ⁃ TN Editor
Google funktioniert Facebook arbeiten zusammen, um die Zusammenarbeit der Technologien für künstliche Intelligenz in jedem Unternehmen zu verbessern.
Die beiden Unternehmen gaben am Dienstag bekannt, dass eine nicht festgelegte Anzahl von Ingenieuren zusammenarbeitet, um das Open-Source-Framework PyTorch von Facebook für maschinelles Lernen mit den benutzerdefinierten Computerchips von Google, den sogenannten Tensor Processing Units (TPU), zu kombinieren. Die Zusammenarbeit ist einer der seltenen Fälle, in denen Technologiekonkurrenten an gemeinsamen Technologieprojekten zusammenarbeiten.
"Wir freuen uns, Ihnen heute mitteilen zu können, dass die Ingenieure im TPU-Team von Google aktiv mit den Kernentwicklern von PyTorch zusammenarbeiten, um PyTorch mit Cloud-TPUs zu verbinden", schrieb Rajen Sheth, Director Product Management bei Google Cloud, in einem Blogbeitrag. „Langfristiges Ziel ist es, jedem die Einfachheit und Flexibilität von PyTorch zu ermöglichen und gleichzeitig von der Leistung, Skalierbarkeit und Kosteneffizienz von Cloud-TPUs zu profitieren.“
Der Facebook-Produktmanager für künstliche Intelligenz, Joseph Spisak, erklärte in einem separaten Blogbeitrag: „Die Ingenieure des Cloud-TPU-Teams von Google arbeiten aktiv mit unserem PyTorch-Team zusammen, um die Unterstützung von PyTorch 1.0-Modellen auf dieser benutzerdefinierten Hardware zu ermöglichen.“
Google debütierte erstmals seine TPUs in 2016 während seiner jährliche Entwicklerkonferenzund stellten sie als effizientere Möglichkeit für Unternehmen und Forscher heraus, ihre maschinell lernenden Softwareprojekte voranzutreiben. Der Suchriese verkauft Zugang zu seinen TPUs über seine Cloud-Computing-Geschäft anstatt die chips einzeln an kunden wie zu verkaufen Nvidia, dessen Grafikprozessoren oder GPUs bei Forschern beliebt sind, die daran arbeiten Deep-Learning-Projekte.
Technologien für künstliche Intelligenz wie Deep Learning erfreuen sich im Laufe der Jahre wachsender Beliebtheit bei Technologiegiganten wie Google und Facebook, die diese Technologien zur Erstellung von Softwareanwendungen verwenden, die automatisch Aufgaben wie z Bilder in Fotos erkennen.
Da immer mehr Unternehmen die Technologie des maschinellen Lernens erforschen, haben Unternehmen wie Google, Facebook und andere ihre eigenen KI-Software-Frameworks entwickelt, die im Wesentlichen Codierungswerkzeuge sind, um Entwicklern die Erstellung ihrer eigenen maschinell lernfähigen Software zu erleichtern. Diese Unternehmen haben diese KI-Frameworks auch in einem Open-Source-Modell kostenlos angeboten, um sie bei Programmierern bekannt zu machen.
Seit einigen Jahren wirbt Google mit seinen sogenannten Tensorflow-Gerüst als bevorzugtes Codierungswerkzeug für AI-Projekte und entwickelte seine TPUs so, dass sie am besten mit Tensorflow zusammenarbeiten. Die Tatsache, dass Google bereit ist, seine TPUs für die Verwendung der PyTorch-Software von Facebook zu aktualisieren, zeigt, dass das Unternehmen mehr als sein eigenes AI-Framework unterstützen und möglicherweise mehr Cloud-Computing-Kunden und Forscher gewinnen möchte, die möglicherweise konkurrierende Frameworks verwenden.