- Anzeige -


Sie sind hier: Startseite » Markt » English News

Lernpipelines orchestrieren und verwalten


Kubeflow Pipelines eine ideale Hybridlösung vom Prototyping bis hin zur Produktion
Mit Kubeflow Pipelines kann KI noch effektiver genutzt werden

- Anzeigen -





Um Künstliche Intelligenz (KI) für Unternehmen einfacher verfügbar zu machen, hat Google Cloud bereits Anfang des Jahres AutoML vorgestellt. Damit werden Unternehmen mit begrenztem Machine-Learning-Wissen beim Aufbau eigener Modelle unterstützt. Heute kommen zwei weitere KI-Werkzeuge dazu, die es Unternehmen leichter machen, KI für sich zu nutzen: Der AI Hub ist eine neue, universelle Plattform für Machine-Learning-Plug-and-Play-Inhalte: ML-Ressourcen, die von Google Cloud entwickelt wurden, sind für alle Unternehmen öffentlich zugänglich. Zusätzlich bietet AI Hub eine sichere, zentrale Plattform, auf der Unternehmen ML-Ressourcen hochladen und innerhalb ihrer eigenen Organisation gemeinsam testen und nutzen können.

Mit Kubeflow Pipelines kann KI noch effektiver genutzt werden. Dies ist die neueste Komponente des Kubeflow-Projekts und ermöglicht es Anwendern, mehrstufige maschinelle Lernpipelines zu orchestrieren und zu verwalten. Somit ist Kubeflow Pipelines eine ideale Hybridlösung vom Prototyping bis hin zur Produktion.

Introducing AI Hub and Kubeflow Pipelines: Making AI simpler, faster, and more useful for businesses

Hussein Mehanna, Engineering Director, Cloud ML Platform

Whether they’re revolutionizing the clothing manufacturing supply chain or accelerating e-commerce, businesses from every industry are increasingly turning to AI to advance what’s possible. Yet for many businesses, the complexities of fully embracing AI can seem daunting.

Our goal is to put AI in reach of all businesses. But doing that means lowering the barriers to entry. That’s why we build all our AI offerings with three ideas in mind: make them simple, so more enterprises can adopt them, make them useful to the widest range of organizations, and make them fast, so businesses can iterate and succeed more quickly.

Earlier this year, we announced AutoML to help businesses with limited ML knowledge and expertise build their own custom ML models. We’ve invested in specialized training and certifications to help grow the ML skill set more broadly. And we provide enterprises resources like the Advanced Solutions Lab that offer on-site collaboration with Google’s own ML engineers. All these things have helped grow AI adoption across enterprises. To date, we have more than 15,000 paying customers across many different industries using our AI services.

Another way we’re aiming to make AI faster, simpler and more useful is by helping data scientists be more effective. Although there are approximately 20 million developers worldwide, there are only 2 million data scientists. They need tools that can help them scale their efforts, and organizations need more ways to take advantage of their work and make it accessible to their developers and engineers. Today we’re announcing several new products to our AI portfolio that do exactly that.

Making AI simpler with the AI Hub
Putting AI in reach of more businesses means making it easier for them to discover, share, and reuse existing tools and work. But until recently, the scarcity of ML knowledge in the workforce made it challenging to build a comprehensive resource. Today we’re launching the AI Hub to address this need.

The AI Hub is a one-stop destination for plug-and-play ML content, including pipelines, Jupyter notebooks, TensorFlow modules, and more. It offers two significant benefits. The first is making high quality ML resources developed by Google Cloud AI, Google Research and other teams across Google publicly available to all businesses. The second is that it provides a private, secure hub where enterprises can upload and share ML resources within their own organizations. This makes it easy for businesses to reuse pipelines and deploy them to production in GCP—or on hybrid infrastructures using the Kubeflow Pipeline system—in just a few steps.

In alpha, the AI Hub will provide these Google-developed resources and private sharing controls, and its beta release will expand to include more asset types and a broader array of public content, including partner solutions.

Making AI more useful with Kubeflow Pipelines and API updates for video
It’s not enough to provide a place where organizations can discover, share and reuse ML resources, they also need a way to build and package them so that they’re as useful as possible to the broadest range of internal users. That’s why we’re introducing Kubeflow Pipelines.

Kubeflow Pipelines are a new component of Kubeflow, a popular open source project started by Google, that packages ML code just like building an app so that it’s reusable to other users across an organization. Kubeflow Pipelines provides a workbench to compose, deploy and manage reusable end-to-end machine learning workflows, making it a no lock-in hybrid solution from prototyping to production. It also enables rapid and reliable experimentation, so users can try many ML techniques to identify what works best for their application.

Fairness is one of our guiding AI principles and something we discuss with our cloud customers adopting ML in their own businesses. Kubeflow Pipelines can help them take advantage of Google’s TensorFlow Extended (TFX) open source libraries that address production ML issues such as model analysis, data validation, training-serving skew, data drift, and more. This improves the accuracy, relevance, and fairness of results for businesses. You can get started with Kubeflow Pipelines on GitHub.

We also continue to expand the capabilities of our AI building blocks to make them even more useful for enterprises, including the beta release of three features in our Cloud Video API that address common challenges for businesses that work extensively with video. Text Detection can now determine where and when text appears in a video, making that video more readily searchable, and it supports more than 50 languages. Object Tracking can both identify more than 500 classes of objects in a video. Speech Transcription for Video can transcribe audio, making it possible to easily create captioning and subtitles, as well as increasing the searchability of its contents. You can learn more about our AI building blocks on our website.

Making AI faster with Cloud TPU updates
We’re continually lowering the compute barriers to AI with our Tensor Processing Units (TPUs). These custom ASIC chips designed by Google for machine learning workloads dramatically accelerate ML tasks, and are easily accessed through the cloud.

In July we announced that our second-generation TPUs are generally available and within reach of every Cloud user, including free-tier users. In October, we announced the beta release of our third generation, liquid-cooled Cloud TPUs, and we made PyTorch available across Google Cloud, and will soon be available for use on TPUs. Today we also announced pricing for our V2 TPU Pods. All these updates aim to make compute-intensive machine learning faster and more accessible to businesses worldwide. You can learn more about TPUs on our website.

Looking forward
Over the past several months we’ve heard from many of our customers successfully using AI to solve their unique business challenges.

Meredith Corporation, a media company, uses machine learning to automate content classification, applying a custom universal taxonomy with Cloud AutoML and Natural Language. Machine learning helps them make content classification more repeatable and scalable, saving time and improving reader experiences.

"At Meredith Corporation, we’re focused on creating compelling content across platforms and life stages for brands such as PEOPLE, Better Homes & Gardens, Martha Stewart Living, Allrecipes, and Food & Wine,” says Alysia Borsa, Chief Marketing & Data Officer, Meredith Corporation. "By using Natural Language and AutoML services to apply our custom universal taxonomy to our content, we’re able to better identify and respond to emerging trends, enable robust detailed targeting and provide our audience with more relevant and engaging experiences.”

Emory University is combining clinical data, machine learning, and the scalable infrastructure of GCP to develop a sepsis prediction engine that uses real-time analytics in an effort to provide better care for at-risk patients while also controlling medical costs.

"With sepsis, early detection is key,” says Dr. Ashish Sharma, Assistant Professor, Department Department of Biomedical Informatics, Emory University’s School of Medicine. "By converting our TensorFlow-based sepsis prediction algorithm into an App and running it on the Google App Engine, we're able to provide information in the actionable window when physicians can make meaningful interventions for a patient. What matters most is improving medical outcomes for real patients in ICUs and machine learning is crucial to helping optimize patient care.”

Geotab uses BigQuery ML and BigQuery GIS to predict potential hazardous driving areas in Chicago and promote data driven decision making and enable smart city initiatives.

"Geotab provides data-driven insights on commercial fleet vehicles across every continent,” says Mike Branch, Vice President Data & Analytics, Geotab. "By leveraging machine learning and BigQuery, among other smart city insights, we have been able to develop a solution for our customers that predicts particularly hazardous driving areas in a city based on weather and traffic flow. We’re incredibly excited to be collaborating with Google Cloud’s machine learning technology to help create better solutions for our customers and the community.”

We’re also thrilled to see the continued growth of the Kubeflow community. Organizations like Cisco and NVIDIA are among the key contributors to this open source project and are collaborating with us closely to adopt Kubeflow pipelines. NVIDIA is already underway integrating RAPIDS, a new suite of open source data science libraries, into Kubeflow. The RAPIDS library leverages GPUs to provide an order of magnitude speed-up for data pre-processing and machine learning, thus perfectly complementing Kubeflow.

"Machine learning is fast emerging as an indispensable part of the digital transformation our customers are undertaking. Further, ML is increasingly gaining traction with enterprise IT and mainstream engineering teams as they seek to deploy architectures that serve data scientists in their lines of business. Realizing the potential of ML in enterprise environments requires dramatic simplification of the lifecycle of the entire solution,” said Kaustubh Das, vice president, data center product management at Cisco. "Cisco’s significant contributions to Kubeflow aims to simplify hybrid/multi cloud AI/ML life cycle management. Cisco is also delighted to see the emergence of Kubeflow Pipeline that promises a radical simplification of ML workflows which are critical for mainstream adoption. We look forward to bringing the benefits of this technology alongside our world class AI/ML product portfolio to our customers." (Google: ra)

eingetragen: 17.11.18
Newsletterlauf: 12.12.18

Google Enterprise: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Unternehmen

  • Equinix erweitert Zusammenarbeit mit IBM Cloud

    Equinix hat die erweiterte Zusammenarbeit mit IBM Cloud bekannt gegeben. Diese ermöglicht globalen Unternehmen über "Equinix Cloud Exchange Fabric" ("ECX Fabric") private und skalierbare Konnektivität an der Digital Edge. Der nun intensivierten Zusammenarbeit geht eine langjährige Partnerschaft zwischen Equinix und IBM voraus. IBM Cloud Direct Link Exchange wird heute in mehr Equinix International Business Exchange (IBX)-Rechenzentren weltweit bereitgestellt als jeder andere Direct Link Exchange-Anbieter. In Deutschland ermöglicht Equinix über seine Frankfurter Rechenzentren den privaten Zugang zu IBM Cloud. Equinix stärkt damit Frankfurts Bedeutung als wichtigen europäischen Digitalstandort und unterstützt ansässige Unternehmen bei der Umsetzung digitaler Anwendungen.

  • Erforschung von Cloud-Native-Technologien

    Die Cloud Foundry Foundation, unter dessen Dach sich eine Reihe von interoperablen Open-Source-Projekten für Unternehmen versammeln, gab bekannt, dass u. a. Daimler AG, Pivotal, Rijkswaterstaat und Zipcar im Mittelpunkt des jährlich stattfindenden European Summit stehen werden. Den Haag ist der Veranstaltungsort des vom 11. bis 12. September ausgetragenen Summit. Der Cloud Foundry Europe Summit ist die wichtigste europäische Veranstaltung für Entwickler, die die Plattform nutzen und entwickeln. Er bietet ihnen die Möglichkeit des persönlichen Wissens- und Erfahrungsaustauschs mit CIOs und Betreibern sowie mit anderen IT-Experten zur Erforschung von Cloud-Native-Technologien.

  • Zentrale Plattform für alle Dokumente

    Der wohnungs- und immobilienwirtschaftliche ERP-Spezialist Haufe und der Anbieter von Dokumentenmanagement-Systemen (DMS) d.velop haben eine Premiumpartnerschaft geschlossen. Haufe bindet damit revisionssichere Cloud-Archive an seine immobilienwirtschaftliche ERP-Software an. Damit baut das Freiburger Unternehmen den digitalen Arbeitsplatz seiner Kunden in Wohnungsunternehmen und Immobilienverwaltungen konsequent weiter aus. Papierstapel auf Schreibtischen, Aktenschränke und Archive im Keller rauben nicht nur Platz, Zeit und Nerven, sie machen Vorgänge intransparent und erfüllen selten alle gesetzlichen Anforderungen. Für Unternehmen der Wohnungs- und Immobilienwirtschaft gehört dies bald der Vergangenheit an. Denn mit der neuen Premiumpartnerschaft bietet Haufe ein cloudbasiertes Dokumentenmanagement, das zugleich revisionssicheres Arbeiten ermöglicht.

  • Betrieb eines sicheren SD-WAN

    Open Systems hat bekanntgegeben, dass das Unternehmen mit dem weltweit tätigen Unternehmen für Vernetzung und Datenzentren Equinix zusammenarbeitet. Im Rahmen der Partnerschaft sollen digitale Transformationen vorangebracht und Endbenutzererfahrungen durch Beschleunigung der Anwendungsleistung und Erhöhung der Sicherheit im globalen Maßstab verbessert werden. Gemeinsam liefern Open Systems und Equinix sichere, zuverlässige Anwendungsleistung über die sichere SD-WAN-Technologie von Open Systems, die vor Ort jeweils von den erfahrenen Ingenieuren, Programmierern und Softwarearchitekten von Equinix unterstützt wird.

  • Transparente Preise inklusive Managed Services

    Die PlusServer GmbH legt ihre Marke Nimblu neu auf und bietet unter dieser ab sofort Managed-Cloud-Pakete auf Basis von Best Practices für kleinere und mittlere Unternehmen sowie Agenturen. Dabei stehen drei Paketgrößen zur Verfügung: "Basic" als Einstiegslösung oder Staging-Umgebung, "Pro" für den Produktiveinsatz sowie "Premium" für High Performance Setups im E-Commerce-Umfeld. Die Pakete sind bereits für die Anwendungsfälle der Zielgruppe vorkonfiguriert und direkt über www.nimblu.com bestellbar. So können die Kunden ihre digitalen Projekte zügig starten. Bei jedem Paket sind wesentliche Managed Services inklusive. Sie entlasten die Kunden von Infrastrukturaufgaben, so dass sie sich auf ihr Kerngeschäft konzentrieren können.

  • Compliance & Security bei der Cloud-Bereitstellung

    Guardicore, Spezialistin für Rechenzentrums- und Cloud-Sicherheit, hat $60 Millionen zusätzliches Wagniskapital über eine Series-C-Finanzierungsrunde erhalten, was die finanzielle Basis der Firma auf $110 Millionen bringt. Das bedeutet mehr als eine Verdopplung des bislang erzielten Gesamtkapitals und unterstreicht Guardicores wirtschaftliche Dynamik bei der Weiterentwicklung disruptiver Technologien im Firewall- und Datacenter-Markt. "Jede Organisation verfügt über wichtige IT-Assets, die geschützt werden müssen. Unsere umfassende Lösung für Software-basierte Segmentierung bietet einen einfachen Weg zur Absicherung von lokalen oder in der Cloud verfügbaren IT-Assets. Die Zeiten veralteter, stationärer Firewalls sind vorbei", bemerkte Pavel Gurvich, CEO und Mitgründer von Guardicore.

  • Anwendungen auf Azure & Oracle Cloud verteilen

    Oracle und Microsoft geben eine Cloud-Interoperabilitäts-Partnerschaft bekannt. Ab sofort können Kunden ihre Daten und unternehmenskritischen Workloads auf Microsoft Azure und Oracle Cloud migrieren. Unternehmen können nun Azure Services wie Analytics und KI nahtlos mit Oracle Cloud-Diensten wie Autonomous Database verbinden. Durch diese Partnerschaft können Kunden ihre Anwendungen auf Azure und Oracle Cloud verteilen und somit das Beste aus den Cloud-Möglichkeiten beider Anbieter herausholen. Gemeinsam bieten Azure und Oracle Cloud ein One-Stop-Shopping für alle Cloud-Services und -Anwendungen, die Kunden für ihre Geschäftsanforderungen benötigen.

  • Sichere Cloud-Umgebung entwickeln

    Atos wurde im jüngsten Gartner-Bericht als drittgrößter globaler Anbieter von Managed Security Services (MSS) eingestuft. Grundlage für diese Bewertung waren die Marktanteile 2018. Mit einem internationalen Team von über 5.000 Sicherheitsspezialisten und einem weltweiten Netzwerk von 14 Security Operation Centers, die rund um die Uhr in Betrieb sind, bietet Atos Ende-zu-Ende-Sicherheitslösungen. Atos nutzt führende Technologien und bietet ein umfassendes Portfolio an fortschrittlichen Sicherheitsprodukten und -lösungen. So können Kunden Risiken in Wertschöpfung wandeln. "Cybersicherheit ist das Herzstück der Digitalisierung und ermöglicht es Unternehmen, Regierungen und Bürgern, sich mit Vertrauen zu entfalten. Wir sind stolz darauf, mit diesem Ranking als weltweit führender Anbieter anerkannt zu werden. Damit verstärken wir unsere Position als europäische Nummer eins für Cybersicherheit und untermauern unseren Marktdurchbruch in den USA. Die Auszeichnung spiegelt die Expertise unseres weltweiten, 5.000 Mitarbeiter starken Expertenteams und unser anhaltendes Engagement für die Sicherheit unserer Kunden wider", sagt Thierry Breton, Chairman und CEO von Atos.

  • Multi-Cloud Experience-Plattform in Zürich

    Multi-Cloud erleben, IT- und Cloud Computing-Strategien planen und testen, Komplexität managen - das sind die Ziele, die sich die fünf namhaften IT-Unternehmen Business IT, Equinix, Hewlett Packard Enterprise (HPE), Veeam und VMware mit der neuen "Multi-Cloud Experience Plattform" (MEP) gesetzt haben. Jetzt wurde sie in Zürich, im Equinix-Rechenzentrum ZH5, im Rahmen einer Kundenveranstaltung offiziell in Betrieb genommen. Im Zuge der Digitalisierung kommen immer mehr Technologien zum Einsatz: unterschiedliche Cloud Computing-Angebote, das Internet of Things (IoT), Künstliche Intelligenz (KI), Automation und Orchestrierung, Blockchain und Machine Learning. Die Komplexität und zugleich die strategische Bedeutung der IT-Infrastruktur potenzieren sich.

  • Erweiterung des Cloud-GPU-Portfolios

    Exoscale, die Cloud-Lösung von A1 Digital, erweitert ihr Cloud Computing-Portfolio um neue GPU-Instanzen auf Basis der leistungsfähigen NVIDIA Tesla V100 Grafikchips. Das Unternehmen bietet das neue Angebot unter dem Namen "GPU2" zu einem besonders attraktiven Preis an. V100 zählt zu den fortschrittlichsten Grafikprozessoren für Rechenzentren und ist weltweit der erste Grafikprozessor, der die 100-TeraFLOP-Schwelle bei der Deep Learning Performance hinter sich lässt. Mit dieser Erweiterung ihres Portfolios unterstützt Exoscale Big-Data-Wissenschaftler und Ingenieure im Bereich der künstlichen Intelligenz (KI), da sich die ihnen zur Verfügung stehende Rechenleistung künftig massiv erhöhen wird und noch größere sowie komplexere Machine-Learning-Algorithmen bearbeitet werden müssen. Die erforderliche Dauer zur Berechnung von Projekten auf Basis von Machine Learning (ML) verkürzt sich durch diese Neuerung drastisch. Je nach Projekt können die Berechnungen in wenigen Tagen erfolgen, anstatt wie zuvor mehrere Wochen in Anspruch zu nehmen.