Veranstaltung: KI Navigator 2024
21.11.2024
16:00 – 16:45, Raum Riga
Nürnberg Convention Center (NCC)
Die Algorithmus Schmiede ist spezialisiert auf die Entwicklung intelligenter Algorithmen. Wir werden hierbei das Projektvorgehen, Rückschläge und Learnings vorstellen. Die final umgesetzte Lösung, beschreiben wir konzeptionell.
Konkret wird es um folgende Projekte gehen:
- Sensorik: Objektfarbe aus (optischer) Distanzmessung bestimmen
- Template Filling: Informationen aus Schriftstücken extrahieren
- Reinforcement Learning: Übermenschliche Stärke im Würfelspiel Kniffel / Yahtzee
Präsentation
Video
Zusammenfassung
Praxisbericht KI: Implementierung individueller KI-Lösungen in Unternehmen
In diesem Praxisbericht teilt Markus Dutschke seine Erfahrungen bei der Implementierung individueller KI-Lösungen in Unternehmen. Dutschke, promovierter Physiker und Gründer der Algorithmus-Schmiede, spezialisiert sich auf die Entwicklung mathematisch-physikalischer Modelle für Industrieanwendungen. Zusammen mit einem weiteren Physiker hat er Algorithmen entwickelt, die präzise industrielle Prozesse abbilden und typische Machine Learning-Probleme vermeiden.
Dutschke erläutert den zunehmenden Bedarf an Sprachverarbeitungslösungen, der durch den aktuellen KI-Hype ausgelöst wurde. Neben Industrieanwendungen ist die Sprachverarbeitung ein weiterer Schwerpunkt seines Unternehmens. Interessierte finden detaillierte Projektbeschreibungen und Anwendungsfälle auf der Firmenwebsite.
Praxisbericht KI: Automatisierung von Dokumentenverarbeitung
Ein Beispielprojekt illustriert die Automatisierung der Dokumentenverarbeitung für einen Kunden. Das Unternehmen erhielt PDF-Rechnungen, die bisher manuell kategorisiert und relevante Daten extrahiert wurden. Diese monotonen Aufgaben wurden nun durch eine KI-Lösung ersetzt, die Fehler minimiert und die Effizienz steigert. Die Lösung identifiziert und extrahiert automatisch wesentliche Informationen wie IBAN, Rechnungsbetrag und -datum, wodurch der Prozess erheblich beschleunigt wird.
Konfidenz von KI Lösungen
Ein wesentlicher Aspekt des Prozesses ist die Berechnung der Konfidenz für jede extrahierte Information, um die Genauigkeit der KI-Modelle zu bewerten. Sollten Unsicherheiten bestehen, werden diese durch menschliche Überprüfung korrigiert, was durch ein Markierungssystem erleichtert wird. Dies stellt sicher, dass Mitarbeiter nur bei unklaren oder niedrigen Konfidenzintervallen eingreifen müssen, was die Effizienz steigert.
Kategorisierung und Extraktion
Der Kategorisierungsprozess beginnt mit einem Classifier, der das Dokument erkennt und in eine spezifische Kategorie einordnet. Um dies zu erreichen, wird das Dokument in einen Vektor umgewandelt. Dabei werden wesentliche Elemente wie Betreffzeile und Gesamtext berücksichtigt. Das Layout des Dokuments spielt ebenfalls eine Rolle, da es wichtige Hinweise auf die Dokumentenart geben kann.
Text-zu-Vektor-Umwandlung
Für die Umwandlung von Text in Vektoren wird ein Wörterbuchansatz verwendet. Der gesamte Text eines Dokuments wird analysiert und in einen Vektor konvertiert, der die Häufigkeit der Wörter entsprechend ihrer Position im Wörterbuch darstellt. Diese Methode ermöglicht es, Dokumente für das Machine Learning vorzubereiten und die nachfolgenden KI-Modelle zu trainieren.
Herausforderungen und Lösungsansätze
Ein häufiges Problem ist die Verwechslungsgefahr ähnlicher Daten, wie verschiedene Datumsangaben in Rechnungen. Um dies zu minimieren, wird jeder extrahierte Parameter mit einer Konfidenz versehen. Bei Unsicherheiten wird der betroffene Bereich hervorgehoben, sodass Mitarbeiter gezielt prüfen können. Dies sorgt für eine hohe Genauigkeit und Effizienz in der Dokumentenverarbeitung.
Feedback und Selbstlernen
Ein weiterer wichtiger Punkt ist das Feedback-System, welches sicherstellt, dass die KI-Modelle kontinuierlich verbessert werden. Auch wenn die Automatisierung weit fortgeschritten ist, bleibt das menschliche Feedback entscheidend, um die Modelle zu verfeinern und zu optimieren.
Zwischenfazit
Dieser Praxisbericht zeigt, wie KI effektiv zur Dokumentenverarbeitung eingesetzt werden kann, welche Methoden zur Kategorisierung und Text-zu-Vektor-Umwandlung genutzt werden und welche Herausforderungen dabei gemeistert werden müssen. Durch die Kombination von automatisierten Prozessen und menschlicher Überprüfung kann eine hohe Effizienz und Genauigkeit erreicht werden.
Tokenisierung und Wörterbuchansatz
Tokens sind die Basis der Textverarbeitung. Im Deutschen besteht das Wort „Schnellste“ aus dem Adjektiv „schnell“ und der Superlativ-Endung „ste“. Für eine effektive Analyse ist es wichtig, solche Wortbestandteile zu erkennen und zu verarbeiten. Dies ermöglicht eine detaillierte Analyse der Textbestandteile und deren Bedeutung.
Herausforderungen des Wörterbuchansatzes
Ein reiner Wörterbuchansatz stößt an Grenzen, wenn die Reihenfolge der Wörter den Sinn verändert. Ein Beispiel: Der Satz „Ich musste nicht lange warten und der Arzt war gut“ wird durch Verschieben des Wortes „nicht“ in „Ich musste lange warten und der Arzt war nicht gut“ ins Gegenteil verkehrt. Hier zeigt sich, dass die Position und Kombination von Wörtern entscheidend sind.
Einsatz von N-Grams
N-Grams erfassen Wortkombinationen, um solche Herausforderungen zu bewältigen. Durch die Analyse von Wortpaaren wie „nicht gut“ kann die KI den Kontext besser verstehen und die Bedeutung korrekt interpretieren. Diese Methode erweitert das Wörterbuch erheblich, verbessert aber die Genauigkeit der Analyse.
Encoding und Layout
Für die Textverarbeitung werden verschiedene Encoding-Methoden genutzt. Betreffzeilen und Textinhalte können unterschiedlich encodiert werden, da sie meist unterschiedlich lang sind. Das Layout eines Dokuments wird durch Raster von 1 cm² Quadraten erfasst und durch Farbwerte repräsentiert, um eine visuelle Darstellung des Textes zu ermöglichen.
Classifier und Modularität
Die modularen Classifier sind ein weiterer Schwerpunkt des Berichts. Statt einen einzigen Classifier für alle Kategorien zu nutzen, werden separate Classifier für verschiedene Dokumenttypen wie Rechnungen oder SEPA-Zahlungen eingesetzt. Dies ermöglicht eine flexible und modulare Anpassung des Systems an neue Dokumentkategorien ohne umfangreiche Neutrainings bestehender Modelle.
Fazit: Effizienz durch Kombination
Der Praxisbericht verdeutlicht, wie die Kombination von Tokenisierung und N-Grams sowie der Einsatz modularer Classifier die Effizienz und Genauigkeit von KI-Systemen in der Textanalyse erheblich verbessern kann. Diese Ansätze ermöglichen eine präzisere Verarbeitung und Interpretation von Texten, was insbesondere bei der Sentimentanalyse und der Extraktion spezifischer Daten aus Dokumenten von Vorteil ist.
Praxisbericht KI: Anwendung von Machine Learning in der Industrie
Farbverteilung auf einer topografischen 2D-Distanzmessung
In diesem Praxisbericht zur Künstlichen Intelligenz (KI) wird ein beeindruckendes Beispiel aus der Industrie vorgestellt, bei dem Machine Learning (ML) eingesetzt wurde, um aus Messdaten ungewöhnliche Schlussfolgerungen zu ziehen. Der Fall handelt von der Vorhersage der Farbverteilung auf einer topografischen 2D-Distanzmessung, was zunächst paradox erscheinen könnte, da Farbe normalerweise nicht direkt mit Distanzmessungen in Verbindung steht. Dennoch wurde es mit einer Genauigkeit von 80% möglich, diese Vorhersage zu treffen – besser als die Anforderungen des Kunden und ohne zusätzliche Hardware wie eine Farbkamera.
KI Fokus auf Messartefakte
Der Schlüssel zu diesem Erfolg lag in der Verwendung von Machine Learning, speziell neuronalen Netzwerken, um die Daten zu analysieren. Anstatt sich auf das direkt gemessene Signal zu konzentrieren, wurde der Fokus auf Messartefakte gelegt, also auf Störungen im Messprozess, die durch physikalische Effekte verursacht werden. Durch das Identifizieren dieser Artefakte konnte ein Modell trainiert werden, das in der Lage war, aus den vorhandenen Messdaten präzise Farbvorhersagen zu treffen.
Best Practice: Historische Daten ergänzen
Ein weiterer wichtiger Aspekt dieses Projekts war die Nutzung von Bestandsdaten, die es dem Kunden ermöglichte, historische Daten aus der Vergangenheit zu analysieren, ohne neue Messungen durchführen zu müssen. Diese Herangehensweise spart Kosten und Zeit und zeigt das Potenzial von KI in der Industrie, bestehende Prozesse zu optimieren.
Praxisbericht: Datenbedarf
Für die Umsetzung wurde ein Trainingsdatensatz von 1000 Punkten und ein Testdatensatz von 500 Punkten verwendet, um sicherzustellen, dass das Modell generalisiert und nicht nur die Trainingsdaten perfekt abbildet. Dabei wurde auch das Fachwissen in Physik und Messtechnik genutzt, um die Modellgenauigkeit zu verbessern.
Fazit zum Praxisbericht
Der Praxisbericht verdeutlicht, wie Machine Learning, speziell in der Industrie, dazu beitragen kann, Prozesse zu verbessern und unerwartete Lösungen zu finden. Dies unterstreicht die Bedeutung der Integration von Domainwissen und spezifischen Messdaten in die Entwicklung von KI-Modellen, um realistische und funktionale Ergebnisse zu erzielen.
Praxisbericht KI: Kniffel Bot
In diesem Praxisbericht zur Anwendung von Künstlicher Intelligenz (KI) im Gesellschaftsspiel Kniffel wird die Umsetzung von Reinforcement Learning (RL) zur Optimierung von Spielzügen beschrieben. Der Bericht bezieht sich auf die Herausforderungen, die beim Erlernen von Kniffel durch ein KI-Modell auftreten, und erläutert, wie RL-Techniken eingesetzt werden, um die Entscheidungsfindung zu verbessern.
Schwierigkeit: Verschiedene Spielzüge und Unsicherheit
Die KI wird auf zwei Hauptarten von Spielzügen trainiert: das gezielte Neuwürfeln von Würfeln und die Auswahl einer Kategorie für die Punktevergabe. Die Herausforderung besteht in der großen Anzahl möglicher Spielzüge, insbesondere aufgrund der zahlreichen Entscheidungen beim Neuwürfeln und der Unsicherheit durch Zufallseffekte, die die Spielausgänge beeinflussen. Durch den Einsatz von zwei neuronalen Netzen, die abwechselnd die verschiedenen Entscheidungen treffen, wird ein iterativer Lernprozess realisiert, der es der KI ermöglicht, die bestmöglichen Spielzüge zu ermitteln.
Ein zentraler Aspekt des Prozesses ist der Einsatz von Reinforcement Learning, einer Methode, bei der die KI durch Rückmeldungen (Belohnung oder Bestrafung) ihre Entscheidungen anpasst. Der Praxisbericht veranschaulicht die Funktionsweise der KI und erklärt, wie diese durch wiederholte Simulationen lernt, den optimalen Spielzug vorherzusagen, um den höchsten Punktestand zu erzielen.
Notwendigkeit einer einheitlichen Strategie
Ein zentrales Thema ist die Notwendigkeit, bei einer einheitlichen Strategie zu bleiben, um verlässliche Vorhersagen zu erzielen. Ein Wechsel der Strategie führt zu inkonsistenten Ergebnissen und verhindert eine genaue Prognose des Endstandes.
KI in der Filterblase
Ein weiteres wichtiges Konzept ist die Exploration Strategy, die verhindert, dass das System in eine „Filterblase“ gerät. Ein Beispiel aus der Praxis zeigt, dass ein KI-Bot beim Spiel „Kniffel“ mit zufälligen Entscheidungen deutlich schlechter abschnitt als erwartet, was auf den Filterbubble-Effekt zurückzuführen ist. Um diesem Effekt entgegenzuwirken, muss der Algorithmus mit zufälligen Elementen konfrontiert werden, um die Genauigkeit zu verbessern.
Zusätzlich wird der Dämpfungsfaktor für alte Erinnerungen thematisiert: Es ist wichtig, ältere Daten nicht überbewerten, da dies die Lernfähigkeit des Systems beeinträchtigen könnte. Der Einsatz von inkrementellem Lernen, bei dem der Regressor kontinuierlich mit neuen Daten nachtrainiert wird, optimiert den Lernprozess und spart Rechenzeit.
Schließlich wird auf die Bedeutung der Spielerfahrung eingegangen: Das System lernte aus 10.000 gespielten Partien und evaluierte seine Leistung regelmäßig nach 100 Spielen. Die Ergebnisse verdeutlichen, dass eine konstante Anpassung und Verbesserung der KI-Strategie entscheidend für den Erfolg ist.
Es wird erläutert, wie durch den Einsatz von mathematisch optimalen Taktiken und Regressoren die Spielperformance gesteigert werden kann. Zunächst wurde ein einfacher KI-Bot entwickelt, dessen Leistung jedoch durch die Verwendung unterschiedlicher Regressoren und Lernstrategien optimiert werden musste. Der KI-Bot konnte mithilfe eines speziell entwickelten Moduls zur Wahrscheinlichkeitsschätzung und neuronalen Netzen deutlich verbessert werden. So wurde schließlich eine „Superhuman Performance“ erreicht, die die menschliche Spielerleistung übertraf. Der Bericht hebt die Bedeutung der kontinuierlichen Verbesserung von Algorithmen und das Auslagern von komplexen Berechnungen hervor, um in der KI-Anwendung erfolgreiche Ergebnisse zu erzielen.
Dieser Praxisbericht bietet wertvolle Einblicke in die praktische Anwendung von Reinforcement Learning und zeigt, wie KI durch strategisches Training und fortlaufende Anpassung optimiert werden kann.