Die Kommunikation mit Tieren ist ein uralter Menschheitstraum. Könnten wir ihre Laute verstehen, so eröffnete sich uns eine völlig neue Welt des Verständnisses für unsere Mitgeschöpfe. Mit dem Aufkommen Künstlicher Intelligenz (KI) und insbesondere durch Fortschritte im Bereich des maschinellen Lernens und der großen Sprachmodelle (LLMs) scheint dieser Traum nun greifbarer denn je.
Der Coller-Dolittle-Preis, der Preisgelder von bis zu einer halben Million Dollar für Wissenschaftler auslobt, die den "Code knacken", spiegelt den Optimismus wider, dass die Entschlüsselung tierischer Kommunikation in naher Zukunft möglich sein wird. Zahlreiche Forschungsgruppen arbeiten bereits seit Jahren an Algorithmen zur Analyse von Tierstimmen. Das Projekt Ceti beispielsweise befasst sich mit der Entschlüsselung der Klicklaute von Pottwalen und der Gesänge von Buckelwalen.
Die Herausforderung liegt in der enormen Datenmenge, die für das Training von KI-Modellen benötigt wird. Im Vergleich zu den riesigen Textmengen, mit denen LLMs wie ChatGPT trainiert werden, sind die verfügbaren Daten zur tierischen Kommunikation bisher eher bescheiden. So wurden für das Training von GPT-3 mehr als 500 GB an Wörtern verwendet, während die aktuelle Analyse von Pottwal-Kommunikation im Projekt Ceti auf etwas mehr als 8.000 "Codas" (Vokalisationen) basiert.
Ein weiterer Vorteil beim Arbeiten mit menschlicher Sprache ist, dass wir die Bedeutung der Worte kennen und wissen, was ein "Wort" überhaupt ist. Bei der Interpretation tierischer Kommunikation hingegen ist oft unklar, ob beispielsweise ein bestimmtes Wolfsgeheul eine andere Bedeutung hat als ein anderes oder ob Wölfe überhaupt ein Konzept von "Wörtern" haben.
Trotz dieser Herausforderungen wird 2025 voraussichtlich neue Fortschritte bringen, sowohl in Bezug auf die Menge der verfügbaren Daten als auch in Bezug auf die Leistungsfähigkeit der KI-Algorithmen. Kostengünstige Aufnahmegeräte wie AudioMoth ermöglichen es Forschern, große Datenmengen an Tierstimmen in freier Wildbahn aufzuzeichnen, sei es von Gibbons im Dschungel oder Vögeln im Wald.
Diese riesigen Datensätze werden nun durch automatische Erkennungsalgorithmen auf Basis neuronaler Netze analysiert. Diese Algorithmen können Tausende von Stunden an Aufnahmen durchsuchen, Tierstimmen identifizieren und nach akustischen Merkmalen gruppieren.
Sobald diese großen Datensätze verfügbar sind, eröffnen sich neue Möglichkeiten für die Analyse. Tiefe neuronale Netze können beispielsweise verwendet werden, um versteckte Strukturen in Sequenzen von Tierstimmen zu finden, die möglicherweise analog zur sinnvollen Struktur in der menschlichen Sprache sind.
Die grundlegende Frage bleibt jedoch: Was genau erhoffen wir uns von der Entschlüsselung tierischer Laute? Einige Organisationen, wie Interspecies.io, haben das explizite Ziel, Signale einer Spezies in kohärente Signale für eine andere Spezies umzuwandeln - also tierische Kommunikation in menschliche Sprache zu übersetzen.
Die meisten Wissenschaftler sind sich jedoch einig, dass Tiere keine Sprache im menschlichen Sinne besitzen. Der Coller-Dolittle-Preis verfolgt daher einen differenzierteren Ansatz und sucht nach Wegen, "mit einem Organismus zu kommunizieren oder dessen Kommunikation zu entschlüsseln". Entschlüsselung ist ein weniger ambitioniertes Ziel als Übersetzung, da Tiere möglicherweise keine übersetzbare Sprache haben.
Heute wissen wir nicht, wie viel Information Tiere untereinander austauschen. Im Jahr 2025 könnten wir jedoch einen großen Schritt nach vorne machen und nicht nur verstehen, wie viel Tiere "sagen", sondern auch, was sie sich gegenseitig mitteilen.
Mindverse, als deutsches All-in-One-Content-Tool für KI-Text, -Inhalte, -Bilder und -Recherche, ist an vorderster Front dabei, diese Entwicklungen zu unterstützen. Durch die Entwicklung maßgeschneiderter KI-Lösungen wie Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme trägt Mindverse dazu bei, die Grenzen der Kommunikation zu erweitern und den Weg für ein tieferes Verständnis der Welt um uns herum zu ebnen.
Bibliographie: https://www.wired.com/story/artificial-intelligence-translation-animal-sounds-human-language/ https://ig.ft.com/ai-animals/ https://www.forbes.com/sites/scotttravers/2024/05/15/pet-translator-apps-were-closer-to-decoding-animal-language-than-you-think/ https://www.act-translations.com/en-gb/translating-animal-sounds-i-think-my-pig-is-whistling/ https://www.dw.com/en/will-ai-help-us-talk-to-animals/a-67900188 https://www.fanaticalfuturist.com/2024/02/scientists-are-using-ai-to-create-universal-translators-for-chickens/ https://www.youtube.com/watch?v=3tUXbbbMhvk https://www.quora.com/Is-it-possible-for-a-speech-recognition-system-to-translate-a-pets-sounds-into-human-language https://www.laika.berlin/en/blog/new-client-barkgpt-ai-dog-bark-translator https://www.reddit.com/r/Futurology/comments/17asdj6/lets_say_we_deciphered_animal_language_would_we/