Generic filters
Exact matches only
Search in title
Search in excerpt
Search in content
FS Logoi

KI: die drei wichtigsten Trends für Machine Learning und Künstliche Intelligenz

Kategorie:
Themen: | |
Autor: Jonas Völker

Unternehmen, die auf massive Diruptionen im KI- oder ML-Markt warten, werden kleinere Entwicklungen verpassen, die langfristig enorme Auswirkungen haben könnten. Nachfolgend finden Sie drei KI- und ML-Trends, die Sie vielleicht noch nicht auf dem Radar haben.

1. Spezialisierte Hardware- und Cloud-Anbieter verändern die Landschaft

Vorbei sind die Zeiten, in denen On-Premises vs. Cloud ein heißes Thema für Unternehmen war. Heute sprechen selbst konservative Organisationen über Cloud und Open Source. Kein Wunder, dass Cloud-Plattformen ihre Angebote um AI/ML-Dienste erweitern. Da ML-Lösungen immer anspruchsvoller werden, sind die Anzahl der CPUs und des RAM nicht mehr der einzige Weg, um schneller zu werden oder zu skalieren.
Es werden mehr Algorithmen als je zuvor für bestimmte Hardware optimiert – seien es GPUs, TPUs oder "Wafer Scale Engines". Diese Verlagerung hin zu spezialisierterer Hardware zur Lösung von AI/ML-Problemen wird sich beschleunigen.
Unternehmen werden den Einsatz von CPUs einschränken – um nur die grundlegendsten Probleme zu lösen. Das Risiko, veraltet zu sein, wird die generische Recheninfrastruktur für ML/AI unrentabel machen. Das ist Grund genug für Organisationen, auf Cloud-Plattformen umzusteigen.
Die Zunahme von spezialisierten Chips und Hardware wird darüber hinaus auch zu inkrementellen Verbesserungen der Algorithmen führen, die die Hardware nutzen. Während neue Hardware und Chips den Einsatz von KI- und ML-Lösungen ermöglichen, die früher als langsam/unmöglich galten, muss ein Großteil der Open-Source-Werkzeuge, die derzeit die generische Hardware antreiben, neu geschrieben werden, um von den neueren Chips zu profitieren. Jüngste Beispiele für Algorithmusverbesserungen sind Sideways zur Beschleunigung des DL-Trainings durch Parallelisierung der Trainingsschritte und Reformer zur Optimierung der Speicher- und Rechenleistung.

2. Es entstehen innovative Lösungen für und um den Datenschutz

Weiterhin ist eine allmähliche Verlagerung des Schwerpunkts auf den Datenschutz hin zu den Auswirkungen auf die Privatsphäre bei ML-Modellen vorauszusehen. Es wurde viel Wert darauf gelegt, wie und welche Daten wir sammeln und wie wir sie verwenden. Aber ML-Modelle sind keine echten Black Boxes. Es ist möglich, die Modell-Inputs auf der Grundlage der Outputs im Laufe der Zeit abzuleiten. Dies führt zu einer Beeinträchtigung der Privatsphäre.
Die Herausforderungen im Bereich des Datenschutzes von Daten und Modellen zwingen Organisationen dazu, föderierte Lernlösungen zu nutzen. Letztes Jahr hat Google TensorFlow Privacy veröffentlicht, ein Rahmenwerk, das auf dem Prinzip des differenziellen Datenschutzes und der Hinzufügung von Rauschen zu obskuren Eingaben beruht. Beim föderierten Lernen verlassen die Daten eines Nutzers niemals sein Gerät oder die Maschine. Diese Modelle für maschinelles Lernen sind intelligent genug und haben einen ausreichend kleinen Speicherbedarf, um auf Smartphones zu laufen und lokal aus den Daten zu lernen.
Normalerweise war die Grundlage für die Abfrage der Daten eines Benutzers die Personalisierung seiner individuellen Erfahrung. Google Mail verwendet beispielsweise das Tippverhalten des einzelnen Nutzers, um einen automatischen Vorschlag zu erstellen. Wie sieht es mit Daten und Modellen aus, die dazu beitragen, die Erfahrung nicht nur für diese Person, sondern für eine größere Gruppe von Personen zu verbessern? Wären die Menschen bereit, ihr trainiertes Modell (keine Daten) zum Nutzen anderer weiterzugeben?
Hier gibt es eine interessante Geschäftsmöglichkeit: Benutzer für Modellparameter zu bezahlen, die aus dem Training der Daten auf ihrem lokalen Gerät stammen, und ihre lokale Rechenleistung zum Trainieren von Modellen zu nutzen (z.B. auf ihrem Telefon, wenn es relativ untätig ist).

3. Die Bereitstellung robuster Modelle wird immer wichtiger

Gegenwärtig haben Organisationen Mühe, Modelle für Skalierbarkeit und Zuverlässigkeit zu produzieren. Die Personen, die die Modelle schreiben, sind nicht unbedingt Experten, wie sie unter Berücksichtigung der Sicherheit und Leistung der Modelle eingesetzt werden können. Wenn die Modelle für maschinelles Lernen erst einmal ein integraler Bestandteil der gängigen und kritischen Anwendungen geworden sind, wird dies unweigerlich zu Angriffen auf Modelle führen, die den Denial-of-Service-Angriffen ähneln, denen die gängigen Anwendungen derzeit ausgesetzt sind.
Die Industrie hat bereits einige Low-Tech-Beispiele dafür gesehen, wie dies aussehen könnte: einen Tesla schneller statt langsamer zu machen, die Spur zu wechseln, abrupt anzuhalten oder Scheibenwischer ohne entsprechende Auslöser einzuschalten. Stellen Sie sich vor, welche Auswirkungen solche Angriffe auf Finanzsysteme, Gesundheitsgeräte usw. haben könnten, die stark von der KI und ML abhängig sind?
Gegenwärtig sind gegnerische Angriffe auf die Wissenschaft beschränkt, um die Auswirkungen von Modellen besser zu verstehen. Aber in nicht allzu ferner Zukunft werden Angriffe auf Modelle "gewinnorientiert" sein – getrieben von Ihren Konkurrenten, die zeigen wollen, dass sie irgendwie besser sind, oder von böswilligen Hackern, die Sie möglicherweise zu erpressen versuchen. Neue Cybersicherheits-Tools setzen heute z. B. auf KI und ML, um Bedrohungen wie Netzwerkeinbrüche und Viren zu erkennen. Was ist, wenn ich in der
Lage bin, gefälschte Bedrohungen auszulösen? Was wären die Kosten, die mit der Identifizierung von echten gegen gefälschte Warnungen verbunden wären?
Um solchen Bedrohungen entgegenzuwirken, müssen Organisationen mehr Gewicht auf die Modellverifizierung legen, um die Robustheit zu gewährleisten. Einige Organisationen verwenden bereits gegnerische Netzwerke, um tiefe neuronale Netzwerke zu testen. Heute stellen wir externe Experten ein, um die Netzwerksicherheit, die physische Sicherheit usw. zu prüfen. In ähnlicher Weise wird ein neuer Markt für Modellprüfungen und Modellsicherheitsexperten entstehen, die Modelle testen, zertifizieren und vielleicht auch eine gewisse Haftung für das Versagen von Modellen übernehmen werden.

Wie geht es weiter?

Organisationen, die durch ihre KI-Investitionen Werte schaffen wollen, müssen die Auswirkungen auf ihre Datenpipelines überdenken. Die hier skizzierten Trends unterstreichen die Notwendigkeit, dass Organisationen eine starke Governance um ihre KI- und ML-Lösungen in der Produktion implementieren müssen.
Es ist zu riskant, davon auszugehen, dass Ihre Modelle robust sind, insbesondere wenn sie der Gnade der Plattformanbieter überlassen werden. Daher ist es notwendig, dass es interne Experten gibt, die verstehen, warum Modelle funktionieren oder nicht funktionieren. Und das ist ein Trend, der sich fortsetzen wird.

atp weekly

Der Newsletter der Branche

Ihr kostenfreier E-Mail-Newsletter für alle Belange der Automatiserung.

Das könnte Sie auch interessieren:

Sie möchten das atp magazin testen

Bestellen Sie Ihr kostenloses Probeheft

Überzeugen Sie sich selbst: Gerne senden wir Ihnen das atp magazin kostenlos und unverbindlich zur Probe!

Finance Illustration 03