Logo

Suche in HISTOFOX

AbschnittVorgehen: Named Entity Recognition

Vorgehen: Named Entity Recognition

Im Folgenden werden exemplarisch die üblichen Schritte bei der Durchführung von Named Entity Recognition (NER) dargestellt. Je nach gewähltem Tool und eventueller Einbindung in andere Methoden der automatischen Analyse können die tatsächlichen Schritte abweichen. NER bezieht sich dabei auf die Erkennung von Named Entities in Texten. Ein ähnliches Vorgehen ist prinzipiell auch beispielsweise bei der Erkennung von Personen auf Abbildungen möglich, dabei handelt es sich aber um andere Bereiche des [maschinellen Lernens].

  1. Auswahl eines Tools
    Wie auch bei der manuellen Auszeichnung gibt es eine Vielzahl von möglichen Tools, wobei zwischen fertigen Programmen ggf. mit grafischen Benutzeroberflächen und Programmbibliotheken zu unterscheiden ist. Letztere müssen als Teil einer selbst zu programmierenden Pipeline eingebunden werden.
  2. Auswahl eines geeigneten Modells
    NER basiert auf den Methoden des maschinellen Lernens'Machine Learning, bzw. maschinelles Lernen im Deutschen, ist ein Teilbereich der künstlichen Intelligenz. Auf Grundlage möglichst vieler (Text-)Daten erkennt und erlernt ein Computer die häufig sehr komplexen Muster und Gesetzmäßigkeiten bestimmter Phänomene. Daraufhin können die aus den Daten gewonnen Erkenntnisse verallgemeinert werden und für neue Problemlösungen oder für die Analyse von bisher unbekannten Daten verwendet werden.' (Glossar forTEXT) Weiterlesen, gemeinhin auch als KIKünstliche Intelligenz (KI), im Englischen Artificial Intelligence (AI), 'ist ein Teilgebiet der Informatik. Sie imitiert menschliche kognitive Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert' (Fraunhofer-Institut für Kognitive Systeme IKS o. D.). Durch technische Fortschritte in der verfügbaren Hardware und der Weiterentwicklung von Algorithmen des maschinellen Lernens haben sich die Fähigkeiten von KI in den letzten Jahren erheblich verbessert. Sie findet produktiven Einsatz beispielsweise im autonomen Fahren, der Steuerung von Fabriken und der Medizin (Fraunhofer-Institut für Kognitive Systeme IKS o. D.). Durch die neu aufgekommenen Large Language Models sind mächtige KI-basierte Werkzeuge zum Umgang mit Text entstanden. Weitere Einsatzgebiete sind auch die Erstellung und die Verarbeitung von Bildmaterial. Weiterlesen bezeichnet. Solche Systeme arbeiten mit Modellen, die auf bestimmten Daten trainiert wurden. Um eine möglichst hohe und fehlerfreie Erkennungsrate zu erreichen, muss daher ein Modell gewählt werden, das zur Textgattung, der Art der zu erkennenden Entitäten und Sprache passt. Je nach Umfang des zu klassifizierenden Korpus kann auch ein (Nach)training sinnvoll sein. In diesem Fall wird ein Teil des Korpus manuell annotiert und anschließend darauf entweder ein bestehendes Modell feinjustiert oder ein vollständig neues erstellt.
  3. Automatische Erkennung
    Die Durchführung der Erkennung durch das Tool mit dem gewählten Modell erfolgt dann automatisch. Ein manuelles Eingreifen ist in diesem Schritt nicht möglich.
  4. Korrektur der Erkennung
    Wie bei allen automatischen Prozessen sind die Ergebnisse kritisch zu überprüfen und ggf. zu korrigieren. Je nach Projektumfang können die durchgeführten Korrekturen zum sog. Finetuning des Modells genutzt werden, um die Ergebnisse bei weiteren Dokumenten zu verbessern.
  5. Optional: Verknüpfung mit Entitäten aus passender Normdatei
    Die automatische Erkennung von Entitäten definiert diese zunächst lediglich als solche, eine Verknüpfung mit Normdaten findet noch nicht statt. Die besondere Herausforderung liegt dabei in der richtigen Zuordnung, da viele Entitäten ambig sind und selbst Menschen die richtige Zuordnung schwerfallen kann. Ein automatisches System benötigt einen hohen Grad an Kontextwissen, um beispielsweise bei Frankfurt erkennen zu können, ob Frankfurt (Oder) oder Frankfurt am Main gemeint ist. Durch Large Language ModelsLarge Language Models (LLM), große Sprachmodelle im Deutschen, sind eine Technik aus dem Bereich des Machine Learning. Es handelt sich um 'leistungsstarke Modelle, die darauf ausgelegt sind, menschliche Sprache zu verstehen und zu generieren. Sie können Text analysieren und verstehen, kohärente Antworten generieren und sprachbezogene Aufgaben ausführen' (Jöckel, Kelbert, und Siebert 2023). Ihre Fähigkeiten erhalten sie einerseits durch ihre Architektur und andererseits durch die schiere Menge ihrer Trainingsdaten. Auf wie viele Erkenntnisse aus ihrem Trainingsprozess die Modelle während der Ausführung zurückgreifen können, wird u. a. durch die Anzahl ihrer Parameter bestimmt. Aufgrund der notwendigen Rechenleistung zur Ausführung ist i. d. R. spezialisierte Hardware notwendig. LLMs können Teil einer Pipeline sein, um Informationen auszuwerten und beispielsweise durch Nutzung zusätzlicher Quellen Antworten zu generieren. Problematisch bleibt, dass LLMs kein Konzept von Korrektheit kennen und ihre eigenen Aussagen nur begrenzt auf Richtigkeit prüfen können, wodurch sie zu sog. Halluzinationen neigen (Naveed et al. 2024). Weiterlesen entstehen jedoch zunehmend Systeme, die diese Fähigkeiten haben, eine Einbindung muss jedoch momentan noch selbst vorgenommen werden, da noch keine vorgefertigten Softwarelösungen existieren.