Wir freuen uns, die Rework 2022 am 19. Juli und virtuell vom 20. bis 28. Juli wieder persönlich zu prÀsentieren. Nehmen Sie an aufschlussreichen GesprÀchen und spannenden Networking-Möglichkeiten teil. Registrieren Sie sich heute!

Mit dem massiven Wachstum von durch maschinelles Lernen (ML) unterstĂŒtzten Diensten wird der Begriff MLops ist zu einem festen Bestandteil des GesprĂ€chs geworden – und das aus gutem Grund. MLops ist die AbkĂŒrzung fĂŒr „Machine Studying Operations“ und bezieht sich auf eine breite Palette von Instruments, Arbeitsfunktionen und Greatest Practices, um sicherzustellen, dass Machine Studying-Modelle zuverlĂ€ssig und effizient in der Produktion bereitgestellt und gewartet werden. Seine Praxis ist der Kern von Modellen in ProduktionsqualitĂ€t – GewĂ€hrleistung einer schnellen Bereitstellung, Erleichterung von Experimenten fĂŒr verbesserte Leistung und Vermeidung Modellverzerrung oder Verlust der VorhersagequalitĂ€t. Ohne sie wird ML im Maßstab unmöglich.

Bei jeder aufstrebenden Praxis ist es leicht, verwirrt darĂŒber zu sein, was sie eigentlich beinhaltet. Um Ihnen zu helfen, haben wir sieben hĂ€ufige aufgelistet Mythen Informationen zu MLops, die Sie vermeiden sollten, damit Sie ML erfolgreich in großem Umfang nutzen können.

Mythos Nr. 1: MLops endet beim Launch

RealitĂ€t: Die EinfĂŒhrung eines ML-Modells ist nur ein Schritt in einem kontinuierlichen Prozess.

ML ist eine von Natur aus experimentelle Praxis. Auch nach dem ersten Begin mĂŒssen neue Hypothesen getestet werden, wĂ€hrend Signale und Parameter feinabgestimmt werden. Dadurch kann das Modell im Laufe der Zeit in Genauigkeit und Leistung verbessert werden. MLops-Prozesse helfen Ingenieuren, den Experimentierprozess effektiv zu verwalten.

Zum Beispiel eine Kernkomponente von MLops ist die Versionsverwaltung. Auf diese Weise können Groups wichtige Metriken ĂŒber eine Vielzahl von Modellvarianten hinweg verfolgen, um sicherzustellen, dass die optimale ausgewĂ€hlt wird, und gleichzeitig eine einfache Umkehrung im Falle eines Fehlers ermöglichen.

Aufgrund des Risikos einer Datendrift ist es auch wichtig, die Modellleistung im Laufe der Zeit zu ĂŒberwachen. Datendrift tritt auf, wenn sich die Daten, die ein Modell in der Produktion untersucht, dramatisch von den Daten unterscheiden, mit denen das Modell ursprĂŒnglich trainiert wurde, was zu Vorhersagen von schlechter QualitĂ€t fĂŒhrt. Beispielsweise haben viele ML-Modelle, die fĂŒr das Verbraucherverhalten vor der COVID-19-Pandemie trainiert wurden, stark an QualitĂ€t gelitten, nachdem die Lockdowns unsere Lebensweise verĂ€ndert haben. MLops arbeitet an der BewĂ€ltigung dieser Szenarien, indem es starke Überwachungspraktiken entwickelt und eine Infrastruktur aufbaut, um sich schnell anzupassen, wenn eine grĂ¶ĂŸere Änderung eintritt. Es geht weit ĂŒber die MarkteinfĂŒhrung eines Modells hinaus.

Mythos Nr. 2: MLops ist dasselbe wie Modellentwicklung

RealitĂ€t: MLops ist die BrĂŒcke zwischen der Modellentwicklung und dem erfolgreichen Einsatz von ML in der Produktion.

Der Prozess, der zum Entwickeln eines Modells in einer Testumgebung verwendet wird, ist normalerweise nicht derselbe, der es ihm ermöglicht, in der Produktion erfolgreich zu sein. Das AusfĂŒhren von Modellen in der Produktion erfordert robuste Datenpipelines zum Beschaffen, Verarbeiten und Trainieren von Modellen, die sich hĂ€ufig ĂŒber viel grĂ¶ĂŸere DatensĂ€tze erstrecken als in der Entwicklung.

Datenbanken und Rechenleistung mĂŒssen in der Regel in verteilte Umgebungen verlagert werden, um die erhöhte Final zu bewĂ€ltigen. Ein Großteil dieses Prozesses muss automatisiert werden, um zuverlĂ€ssige Bereitstellungen und die FĂ€higkeit zur schnellen Iteration in großem Maßstab zu gewĂ€hrleisten. Das Monitoring muss auch weitaus robuster sein, da Produktionsumgebungen Daten außerhalb der im Take a look at verfĂŒgbaren Daten sehen und daher das Potenzial fĂŒr das Unerwartete weitaus grĂ¶ĂŸer ist. MLops besteht aus all diesen Praktiken, um ein Modell von der Entwicklung bis zur MarkteinfĂŒhrung zu fĂŒhren.

Mythos Nr. 3: MLops ist dasselbe wie Devops

RealitÀt: MLops verfolgt Àhnliche Ziele wie Devops, aber seine Implementierung unterscheidet sich in mehrfacher Hinsicht.

WĂ€hrend sowohl MLops als auch Entwickler bestrebt sind, die Bereitstellung skalierbar und effizient zu gestalten, erfordert das Erreichen dieses Ziels fĂŒr ML-Systeme eine Reihe neuer Praktiken. MLops legt im Vergleich zu Devops einen stĂ€rkeren Schwerpunkt auf das Experimentieren. Im Gegensatz zur standardmĂ€ĂŸigen Softwarebereitstellung werden ML-Modelle oft mit vielen Varianten gleichzeitig bereitgestellt, daher besteht ein Bedarf an ModellĂŒberwachung, um sie zu vergleichen und eine optimale Model auszuwĂ€hlen. Bei jeder Neubereitstellung reicht es nicht aus, nur den Code zu landen – die Modelle mĂŒssen bei jeder Änderung neu trainiert werden. Dies unterscheidet sich von standardmĂ€ĂŸigen Devops-Bereitstellungen, da die Pipeline jetzt eine Umschulungs- und Validierungsphase enthalten muss.

FĂŒr viele der gĂ€ngigen Praktiken von Devops erweitert MLops den Anwendungsbereich, um seine spezifischen Anforderungen zu erfĂŒllen. Die kontinuierliche Integration fĂŒr MLops geht ĂŒber das bloße Testen von Code hinaus, sondern umfasst neben der Modellvalidierung auch DatenqualitĂ€tsprĂŒfungen. Steady Deployment ist mehr als nur eine Reihe von Softwarepaketen, sondern umfasst jetzt auch eine Pipeline zum Modifizieren oder ZurĂŒcksetzen von Änderungen in Modellen.

Mythos Nr. 4: Das Beheben eines Fehlers besteht lediglich darin, Codezeilen zu Àndern

RealitÀt: Die Behebung von ML-Modellfehlern in der Produktion erfordert Vorausplanung und mehrere Fallbacks.

Wenn eine neue Bereitstellung zu einer Leistungsminderung oder einem anderen Fehler fĂŒhrt, mĂŒssen die MLops-Groups eine Reihe von Optionen zur Hand haben, um das Drawback zu lösen. Die einfache RĂŒckkehr zum vorherigen Code reicht oft nicht aus, da Modelle vor der Bereitstellung neu trainiert werden mĂŒssen. Stattdessen sollten Groups mehrere Versionen von Modellen bereithalten, um sicherzustellen, dass im Fehlerfall immer eine produktionsreife Model verfĂŒgbar ist.

DarĂŒber hinaus mĂŒssen Groups in Szenarien, in denen Daten verloren gehen oder die Produktionsdatenverteilung erheblich verschoben wird, ĂŒber einfache Fallback-Heuristiken verfĂŒgen, damit das System zumindest ein gewisses Leistungsniveau aufrechterhalten kann. All dies erfordert eine erhebliche vorherige Planung, was ein Kernaspekt von MLops ist.

Mythos Nr. 5: Governance unterscheidet sich vollstÀndig von MLops

RealitĂ€t: WĂ€hrend Governance unterschiedliche Ziele von MLops hat, kann ein Großteil von MLops dazu beitragen, Governance-Ziele zu unterstĂŒtzen.

Mannequin Governance verwaltet die Einhaltung gesetzlicher Vorschriften und Risiken im Zusammenhang mit der Nutzung von ML-Systemen. Dazu gehören Dinge wie die Einhaltung angemessener Datenschutzrichtlinien fĂŒr Benutzer und die Vermeidung von Verzerrungen oder diskriminierenden Ergebnissen bei Modellvorhersagen. WĂ€hrend MLops normalerweise als sicherstellend angesehen wird, dass Modelle Leistung erbringen, ist dies eine enge Sicht dessen, was es liefern kann.

Die Verfolgung und Überwachung von Modellen in der Produktion kann durch Analysen ergĂ€nzt werden, um die ErklĂ€rbarkeit von Modellen zu verbessern und Verzerrungen in den Ergebnissen zu finden. Transparenz in Modelltrainings- und Bereitstellungspipelines kann die Einhaltung der Datenverarbeitungsziele erleichtern. MLops sollte als eine Praxis betrachtet werden, die skalierbares ML fĂŒr alle GeschĂ€ftsziele ermöglicht, einschließlich Leistung, Governance und Modellrisikomanagement.

Mythos Nr. 6: Die Verwaltung von ML-Systemen kann in Silos erfolgen

RealitÀt: Erfolgreiche MLops-Systeme erfordern kollaborative Groups mit hybriden FÀhigkeiten.

Die Bereitstellung von ML-Modellen umfasst viele Rollen, darunter Datenwissenschaftler, Dateningenieure, ML-Ingenieure und Entwicklungsingenieure. Ohne Zusammenarbeit und VerstĂ€ndnis fĂŒr die Arbeit des anderen können effektive ML-Systeme in großem Umfang unhandlich werden.

Beispielsweise kann ein Datenwissenschaftler Modelle ohne viel externe Sichtbarkeit oder Eingaben entwickeln, was dann aufgrund von Leistungs- und Skalierungsproblemen zu Herausforderungen bei der Bereitstellung fĂŒhren kann. Möglicherweise entwickelt ein Entwicklerteam ohne Einblick in die wichtigsten ML-Praktiken möglicherweise nicht das geeignete Monitoring, um iterative Modellversuche zu ermöglichen.

Aus diesem Grund ist es generell wichtig, dass alle Teammitglieder ein umfassendes VerstĂ€ndnis der Modellentwicklungspipeline und der ML-Praktiken haben – mit Zusammenarbeit vom ersten Tag an.

Mythos Nr. 7: Die Verwaltung von ML-Systemen ist riskant und unhaltbar

RealitĂ€t: Jedes Crew kann ML mit den richtigen Instruments und Praktiken in großem Umfang nutzen.

Da MLops immer noch ein wachsendes Feld ist, kann es den Anschein haben, als gĂ€be es eine große KomplexitĂ€t. Das Ökosystem reift jedoch schnell und es gibt eine Menge verfĂŒgbarer Ressourcen und Instruments, die Groups dabei helfen, in jedem Schritt des MLops-Lebenszyklus erfolgreich zu sein.

Mit den richtigen Prozessen können Sie das volle Potenzial von ML im großen Maßstab erschließen.

Krishnaram Kenthapadi ist der Chefwissenschaftler bei Fiddler AI.

DatenEntscheider

Willkommen in der VentureBeat-Group!

DataDecisionMakers ist der Ort, an dem Experten, einschließlich der technischen Mitarbeiter, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen können.

Wenn Sie ĂŒber revolutionary Ideen und aktuelle Informationen, Greatest Practices und die Zukunft von Daten und Datentechnologie lesen möchten, besuchen Sie uns bei DataDecisionMakers.

Sie könnten sogar in Betracht ziehen Beitrag eines Artikels von dir selbst!

Lesen Sie mehr von DataDecisionMakers

An eclectic neighborhood cafe serving organic roast and a small breakfast menu. Now serving Porto's Bakery pastries! Shaded Dog-friendly seating outside.
Phone: (626) 797-9255
Pasadena, CA 91104
2057 N Los Robles Ave Unit #10