Historische Entwicklung der Spracherkennung
Frühe Experimente mit Spracherkennungstechnologie reichen bis in die 1950er und 1960er Jahre zurück, wo der Schwerpunkt auf der Erkennung isolierter Wörter mithilfe einfacher akustischer Modelle und begrenzter Vokabeln lag. Zu den bedeutenden Meilensteinen auf diesem Gebiet gehört die Entwicklung von Hidden-Markov-Modellen (HMMs) in den 1970er Jahren, die die Spracherkennung revolutionierten, indem sie eine komplexere, kontinuierliche Spracherkennung ermöglichten. In den 1980er Jahren brachte die Förderung von Forschungsprojekten wie der „Transcription of Spontaneous Speech“ (TOSSE) durch DARPA die Technologie erheblich voran. In den 1990er Jahren führten das Aufkommen neuronaler Netze und das Wachstum der Rechenleistung zu erheblichen Verbesserungen der Genauigkeit. In jüngerer Zeit hat das Aufkommen von Deep-Learning-Techniken wie rekurrenten und Faltungs-Neuronalen Netzen die Fähigkeiten von Spracherkennungssystemen weiter verbessert und gipfelte in den hochentwickelten sprachgesteuerten virtuellen Assistenten und Transkriptionsdiensten, die wir heute nutzen. Diese Meilensteine stellen einen historischen Fortschritt dar, der die Spracherkennungstechnologie zu der transformativen Kraft gemacht hat, die sie heute ist.
Künstliche Intelligenz ist das Fundament moderner Spracherkennungstechnologie und revolutioniert die Art und Weise, wie Maschinen menschliche Sprache interpretieren und darauf reagieren. Durch ausgefeilte Algorithmen und Modelle für maschinelles Lernen ermöglicht KI Spracherkennungssystemen, gesprochene Sprache zu verstehen, zu verarbeiten und in umsetzbare Daten umzuwandeln. Die Verbindung von KI und Spracherkennung hat zur Entwicklung virtueller Assistenten, Diktiersoftware und Callcenter-Automatisierung geführt und so den Komfort, die Zugänglichkeit und die Effizienz in verschiedenen Branchen gefördert. Die kontinuierlichen Lern- und Anpassungsfähigkeiten der KI haben die Spracherkennung auf ein neues Niveau gebracht und den Weg für genauere, kontextbewusstere und vielseitigere Systeme geebnet, die sich kontinuierlich anpassen, um die menschliche Sprache besser zu verstehen und mit ihr zu interagieren.
So funktioniert die Spracherkennung
Tonaufnahme: Mikrofone und ihre Rolle bei Spracheingaben
Mikrofone spielen in der Anfangsphase der Spracherkennungstechnologie eine entscheidende Rolle. Sie erfassen die gesprochenen Worte und wandeln sie in elektrische Signale um. Die Qualität und Art des Mikrofons kann die Genauigkeit der Spracherkennung erheblich beeinflussen, da hochwertige Mikrofone einen größeren Frequenzbereich erfassen und Verzerrungen im Audiosignal minimieren können. Ob in intelligente Geräte integriert oder Teil eines größeren Systems: Die Wahl des Mikrofons ist entscheidend für eine klare und präzise Spracheingabe.
Vorverarbeitung: Rauschunterdrückung und Echounterdrückung
Bevor die Audiodaten effektiv verarbeitet werden können, werden häufig Techniken zur Rauschunterdrückung und Echounterdrückung angewendet. Algorithmen zur Rauschunterdrückung helfen dabei, unerwünschte Hintergrundgeräusche zu eliminieren und sorgen dafür, dass das Sprachsignal deutlich hervorsticht. Die Echounterdrückung ist in Situationen, in denen der Ton vom Mikrofon zurückreflektiert wird, wie bei Freisprechanrufen, unerlässlich, um Störungen zu vermeiden. Durch die Verbesserung der Klarheit der Audioeingabe verbessern Vorverarbeitungstechniken die Gesamtleistung von Spracherkennungssystemen.
Merkmalsextraktion: Audiosignale in Merkmalsvektoren umwandeln
Im nächsten Schritt erfolgt die Umwandlung des analogen Audiosignals in digitale Daten, die für die maschinelle Verarbeitung geeignet sind. Techniken zur Merkmalsextraktion analysieren die Audiowellenform, um relevante Informationen zu erfassen, beispielsweise die Frequenz und Amplitude des Sprachsignals in verschiedenen Zeitintervallen. Dieser Prozess wandelt das Audiosignal in eine Reihe von Merkmalsvektoren um, die von den nachfolgenden Stufen des Systems leicht analysiert werden können.
Akustische Modellierung: Merkmalsvektoren abbilden
Akustische Modellierung ist eine entscheidende Komponente der Spracherkennungstechnologie. Dabei werden die extrahierten Merkmalsvektoren Phonemen zugeordnet, den kleinsten Lauteinheiten einer Sprache. Dieser Schritt hilft dem System, die mit verschiedenen Wörtern verbundenen Klangmuster und ihre Variationen in der Aussprache zu verstehen. Modelle des maschinellen Lernens wie Hidden-Markov-Modelle (HMMs) und tiefe neuronale Netze werden häufig in der akustischen Modellierung verwendet, um diese Zuordnungen zu erstellen und die Erkennungsgenauigkeit zu verbessern.
Sprachmodellierung: Kontext und Grammatik verstehen
Durch die Sprachmodellierung geht der Spracherkennungsprozess über die bloße Lauterkennung hinaus, indem sprachlicher Kontext und Grammatik einbezogen werden. Es hilft dem System, die Wahrscheinlichkeit von Wortfolgen und die Struktur von Sätzen zu verstehen, was für die Unterscheidung von Homophonen und die Bereitstellung kohärenter und kontextuell korrekter Ergebnisse von entscheidender Bedeutung ist. Sprachmodelle können auf statistischen Methoden oder fortgeschritteneren neuronalen Sprachmodellen wie rekurrenten neuronalen Netzen (RNNs) und Transformatoren basieren.
Dekodierung: Kombination von akustischen und Sprachmodellen
In der letzten Phase kombiniert der Dekodierungsprozess die Ergebnisse des akustischen und des Sprachmodells, um auf der Grundlage der gesprochenen Eingabe Text oder Befehle zu generieren. Dazu gehört die Suche nach der wahrscheinlichsten Wortfolge anhand der Ergebnisse des akustischen und sprachlichen Modells. Um den optimalen Pfad durch die möglichen Wortfolgen zu finden, werden häufig fortgeschrittene Algorithmen wie der Viterbi-Algorithmus oder die Strahlsuche eingesetzt. Die Ausgabe erfolgt dann als transkribierter Text oder interpretierte Befehle und ermöglicht so eine nahtlose Interaktion mit Spracherkennungssystemen.
Arten von Spracherkennungssystemen
Sprecherabhängige vs. sprecherunabhängige Systeme
Sprechererkennungssysteme können in zwei Haupttypen eingeteilt werden: sprecherabhängige und sprecherunabhängige Systeme. Sprecherabhängige Systeme werden speziell für einen bestimmten Benutzer trainiert. Sie erfordern, dass der Benutzer eine Reihe von Sprachproben zum Training bereitstellt, bevor er die Stimme des Sprechers genau erkennen kann. Im Gegensatz dazu sind sprecherunabhängige Systeme darauf ausgelegt, die Sprache jedes Benutzers zu erkennen, ohne dass eine individuelle Schulung erforderlich ist. Diese Systeme sind vielseitiger und können in Anwendungen wie Sprachassistenten eingesetzt werden, bei denen sie die Stimmen verschiedener Benutzer verstehen und darauf reagieren müssen. Sprecherabhängige Systeme hingegen werden typischerweise in Situationen eingesetzt, in denen eine hohe Genauigkeit von entscheidender Bedeutung ist, beispielsweise bei Sicherheits- oder Authentifizierungsanwendungen.
Isolierte Worterkennung vs. kontinuierliche Spracherkennung
Spracherkennungssysteme sind für die Verarbeitung unterschiedlicher Eingabeformate konzipiert. Zwei gängige Ansätze sind die isolierte Worterkennung und die kontinuierliche Spracherkennung. Bei der isolierten Worterkennung werden einzelne Wörter oder kurze gesprochene Sätze mit deutlichen Pausen dazwischen erkannt. Dieser Ansatz wird häufig in Command-and-Control-Anwendungen verwendet, bei denen Benutzer diskrete Befehle erteilen. Im Gegensatz dazu kann die kontinuierliche Spracherkennung natürliche, kontinuierliche Sprache transkribieren, ohne dass explizite Pausen erforderlich sind. Es wird typischerweise in Diktiersystemen verwendet, bei denen Benutzer frei sprechen und das System ihre gesprochene Sprache in geschriebenen Text oder Befehle umwandelt. Kontinuierliche Spracherkennungssysteme sind komplexer und erfordern ausgefeilte Sprachmodelle, um den kontinuierlichen Sprachfluss zu bewältigen.
Befehls- und Kontrollsysteme vs. Diktiersysteme
Spracherkennungssysteme können basierend auf ihrem primären Anwendungsfall weiter in Befehls- und Kontrollsysteme und Diktiersysteme kategorisiert werden. Command-and-Control-Systeme sind für die Erteilung spezifischer Befehle oder die Steuerung von Geräten durch Spracheingabe konzipiert. Diese Systeme sind für kurze Befehle optimiert, die oft aus einem Wort oder einer kurzen Phrase bestehen, wie zum Beispiel „Mach das Licht an“ oder „Spiel ein Lied“. Sie werden häufig in Anwendungen wie der Smart-Home-Automatisierung und sprachgesteuerten virtuellen Assistenten eingesetzt. Diktiersysteme hingegen sind darauf ausgerichtet, gesprochene Sprache in geschriebenen Text umzuwandeln. Sie zeichnen sich dadurch aus, dass sie Sprache in natürlicher Sprache in Dokumente, E-Mails oder Nachrichten transkribieren, was sie zu wertvollen Werkzeugen für Fachleute macht, die eine freihändige Texteingabe benötigen, wie etwa Schriftsteller, Journalisten und Gesundheitsdienstleister. Das Design und die Funktionalität dieser Systeme sind auf die unterschiedlichen Anforderungen jedes Anwendungsfalls zugeschnitten und ermöglichen eine effiziente und genaue Sprachinteraktion in verschiedenen Szenarien.
Schlüsseltechnologien hinter der Spracherkennung
Maschinelles Lernen, eine Teilmenge der künstlichen Intelligenz, umfasst Algorithmen und Modelle, die es Computern ermöglichen, Muster zu lernen und Vorhersagen aus Daten zu treffen, ohne explizit programmiert zu werden. Tiefe neuronale Netze sind eine herausragende Technik des maschinellen Lernens, die von der Struktur und Funktion des menschlichen Gehirns inspiriert ist. Sie bestehen aus miteinander verbundenen Schichten künstlicher Neuronen, die Daten verarbeiten und komplexe Muster erkennen. Diese Netzwerke, insbesondere Deep-Learning-Modelle wie Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs), haben verschiedene Bereiche revolutioniert, darunter Sprach- und Bilderkennung, Verarbeitung natürlicher Sprache und Empfehlungssysteme. Tiefe neuronale Netze zeichnen sich durch das Erlernen hierarchischer Darstellungen von Daten aus und ermöglichen es ihnen, komplexe Merkmale und Muster zu extrahieren, was zu einer verbesserten Leistung bei Aufgaben wie Bildklassifizierung, Sprachübersetzung und Spracherkennung führt.
Hidden-Markov-Modelle (HMMs) sind statistische Modelle, die in verschiedenen Anwendungen verwendet werden, darunter Spracherkennung, Bioinformatik und Finanzen. Ihre Bedeutung liegt in ihrer Fähigkeit, stochastische Prozesse, insbesondere in zeitlichen Abläufen, darzustellen. Bei der Spracherkennung modellieren HMMs die statistischen Eigenschaften von Audiosignalen und helfen bei der Erkennung von Phonemen und Wörtern. Ihre Verwendung ermöglicht es Systemen, Sprache zu analysieren und zu dekodieren, indem sie die Wahrscheinlichkeiten von Übergängen zwischen verschiedenen Zuständen verstehen. Obwohl Deep Learning in verschiedenen Bereichen an Bedeutung gewonnen hat, sind HMMs weiterhin relevant und ergänzen oft tiefe neuronale Netze bei Sprach- und Mustererkennungsaufgaben. Ihre Fähigkeit, sequentielle Daten, einschließlich Sprach- und Zeitsequenzen, zu modellieren, bleibt ein wichtiges Merkmal, insbesondere in Szenarien mit begrenzten Trainingsdaten oder spezifischen zeitlichen Abhängigkeiten.
Anwendungen der Spracherkennung
Virtuelle Assistenten wie Siri, Alexa und Google Assistant
Virtuelle Assistenten wie Siri, Alexa und Google Assistant sind zu integralen Bestandteilen unseres täglichen Lebens geworden und bieten sprachaktivierte Dienste und Informationen auf Knopfdruck. Diese KI-gestützten Systeme nutzen Spracherkennungstechnologie, um Sprachbefehle in natürlicher Sprache zu verstehen und darauf zu reagieren. Sie können verschiedene Aufgaben ausführen, darunter das Beantworten von Fragen, das Einrichten von Erinnerungen, die Steuerung von Smart-Home-Geräten und das Abspielen von Musik, was sie zu wertvollen Werkzeugen für Produktivität und Komfort macht. Virtuelle Assistenten erweitern ihre Fähigkeiten auch durch Integrationen von Drittanbietern und ermöglichen Benutzern den Zugriff auf eine Vielzahl von Diensten und Funktionen über Spracheingabe.
Spracheingabe- und Diktiersoftware
Spracheingabe- und Diktiersoftware hat die Art und Weise, wie wir schriftliche Inhalte erstellen, verändert, indem sie Benutzern ermöglicht, natürlich zu sprechen, während die Software ihre gesprochenen Wörter in Text umwandelt. Diese Tools sind besonders nützlich für Profis, Autoren und Einzelpersonen, die ihre Tippeffizienz steigern möchten. Sie nutzen fortschrittliche Spracherkennungstechnologie, um gesprochene Sprache präzise zu transkribieren, und einige bieten sogar Transkription in Echtzeit an. Spracheingabe- und Diktiersoftware kann für verschiedene Anwendungen eingesetzt werden, vom Verfassen von E-Mails und Dokumenten bis hin zur Durchführung von Sprachsuchen, wodurch die Notwendigkeit manueller Tastatureingaben verringert und die Zugänglichkeit für Menschen mit körperlichen Behinderungen verbessert wird.
Callcenter-Automatisierung
Die Callcenter-Automatisierung revolutioniert den Kundenservice, indem sie Spracherkennungstechnologie und natürliche Sprachverarbeitung nutzt, um die Interaktionen zwischen Kunden und automatisierten Systemen zu rationalisieren und zu verbessern. Diese Systeme können Kundenanfragen verstehen und beantworten, Anrufe an die entsprechenden Abteilungen weiterleiten und Self-Service-Optionen bereitstellen. Diese Automatisierung verbessert die Effizienz, senkt die Betriebskosten des Callcenters und gewährleistet eine konsistente Kundenbetreuung. Die Spracherkennungstechnologie spielt eine entscheidende Rolle bei der Automatisierung von Callcenter-Interaktionen, indem sie den Prozess effizienter macht und den Kunden ein besseres Erlebnis bietet.
Barrierefreiheitstools für Menschen mit Behinderungen
Barrierefreiheitstools, die Spracherkennungstechnologie nutzen, bieten eine entscheidende Unterstützung für Menschen mit Behinderungen, einschließlich Menschen mit Mobilitäts- oder Kommunikationsproblemen. Mit diesen Tools können Benutzer ihre Geräte steuern, Texte verfassen und über Sprachbefehle auf Informationen zugreifen. Für Menschen mit körperlichen Behinderungen bietet die Spracherkennung eine alternative Möglichkeit, mit Technologie zu interagieren, ihre Unabhängigkeit zu fördern und ihre Lebensqualität zu verbessern. Darüber hinaus stellt es sicher, dass Technologie inklusiv und für ein breiteres Spektrum von Menschen zugänglich ist, und fördert so Chancengleichheit und Teilhabe an der digitalen Welt.
Die Zukunft der Spracherkennung
Die Spracherkennungstechnologie schreitet durch die Integration mit künstlicher Intelligenz weiter voran und ermöglicht natürlichere und kontextbezogenere Interaktionen. Es hat bedeutende Fortschritte bei der Echtzeitübersetzung und mehrsprachigen Unterstützung gemacht, Sprachbarrieren abgebaut und die globale Kommunikation erleichtert. Emotionserkennung und Stimmungsanalyse haben sich als vielversprechende Zukunftstechnologien erwiesen, die es Systemen ermöglichen, nicht nur zu verstehen, was gesagt wird, sondern auch, wie es gesagt wird, mit Anwendungen im Kundenservice und bei der Unterstützung der psychischen Gesundheit. Darüber hinaus eröffnen die potenziellen Anwendungen der Technologie in der erweiterten und virtuellen Realität immersive und interaktive Erfahrungen, von Echtzeit-Sprachübersetzungen in fremden Umgebungen bis hin zu sprachaktivierten Befehlen in virtuellen Räumen, und festigen so ihre Rolle als transformative Kraft in unserer zunehmend vernetzten und zunehmend vernetzten Welt technologisch getriebene Welt.
Die Konvergenz von KI und virtueller Realität (VR) markiert einen revolutionären Wendepunkt in der Spracherkennungstechnologie. Da KI Sprachmodelle immer weiter verfeinert, ergänzt sie zunehmend die immersiven Erlebnisse, die VR-Umgebungen bieten. Die durch KI unterstützte Spracherkennung spielt eine zentrale Rolle in VR-Anwendungen, indem sie Benutzern die Interaktion über Sprachbefehle ermöglicht und so zu einem natürlicheren und interaktiveren virtuellen Erlebnis beiträgt. Ob in Spielen, Simulationen oder Trainingsszenarien – die Integration der KI-gesteuerten Spracherkennung in VR verbessert das Eintauchen des Benutzers und bietet eine intuitivere und dynamischere Art der Interaktion. Die Kombination der Sprachverarbeitungsfähigkeiten von KI mit der immersiven Natur von VR zeigt einen vielversprechenden Weg und bietet innovative Möglichkeiten für eine nahtlose, sprachgesteuerte virtuelle Welt.
Die Rolle von ChatGPT bei der Weiterentwicklung der Spracherkennung
ChatGPT, ein führendes Sprachmodell, das von OpenAI entwickelt wurde, hat eine entscheidende Rolle bei der Weiterentwicklung der Spracherkennungstechnologie gespielt. Mit seinem fundierten Verständnis natürlicher Sprache hat ChatGPT zur Verfeinerung von Sprachmodellen und Algorithmen beigetragen und so die Genauigkeit und das Kontextverständnis von Speech-to-Text-Systemen verbessert. Sein tiefes Verständnis sprachlicher Nuancen hat die Effizienz und Präzision von Spracherkennungstools erheblich verbessert. Während sich die Spracherkennung weiterentwickelt, verspricht die Integration der Funktionen von ChatGPT weitere Fortschritte beim Verstehen und Reagieren auf menschliche Sprache, wodurch nahtlosere Interaktionen gefördert und das Benutzererlebnis bereichert werden.
Innovative Durchbrüche in der Spracherkennung: KI-gesteuerte Virtual Reality
Die Spracherkennungstechnologie steht vor einer aufregenden neuen Ära, in der die Emotionsanalyse und KI-gesteuerte Virtual Reality (VR) die Art und Weise, wie wir mit Maschinen interagieren, radikal verändern werden. Die Emotionsanalyse, die es Systemen ermöglicht, die Gefühle hinter der menschlichen Sprache zu erkennen und zu interpretieren, eröffnet neue Perspektiven in der personalisierten Kundenbetreuung und der psychischen Gesundheitsunterstützung. Diese Technologie kann die Stimmung eines Sprechers erfassen und so eine tiefere, empathischere Kommunikation ermöglichen. Zudem wird die Integration von KI-gesteuerten Spracherkennungssystemen in VR-Umgebungen die Grenzen zwischen realer und virtueller Welt weiter verwischen. In VR-Anwendungen, von Bildung und Training bis hin zu Unterhaltung, erlaubt die sprachgesteuerte Navigation und Interaktion ein immersives und dynamisches Benutzererlebnis. Diese Entwicklungen versprechen nicht nur eine verbesserte Benutzererfahrung, sondern eröffnen auch neue Wege für die Anwendung von Spracherkennungstechnologien in verschiedenen Branchen.
Abschluss
Die Funktion der Spracherkennungstechnologie besteht darin, gesprochene Sprache über Mikrofone zu erfassen, sie zur Geräuschreduzierung vorzuverarbeiten, Merkmale zu extrahieren, Phonemen zuzuordnen und den Kontext mit Sprachmodellen zu verstehen, und schließlich zu dekodieren, um Text oder Befehle zu generieren. Seine Bedeutung liegt in der Revolutionierung der Mensch-Computer-Interaktion, der Ermöglichung von Anwendungen wie virtuellen Assistenten und Diktiersoftware, der Verbesserung der Zugänglichkeit für Menschen mit Behinderungen und der Automatisierung von Callcentern. Da sich das Fachgebiet ständig weiterentwickelt, ist es wichtig, kontinuierliches Lernen und Anpassung sowohl für Einzelpersonen als auch für Organisationen zu fördern. Wenn wir über die neuesten Entwicklungen und Trends in der Spracherkennungstechnologie auf dem Laufenden bleiben, können wir deren transformatives Potenzial in einem wachsenden Spektrum von Branchen und Anwendungen nutzen und unsere Interaktionen mit der Technologie intuitiver, effizienter und integrativer gestalten.
FAQs
1. Warum ist Spracherkennung wichtig?
Spracherkennungstechnologie ist in unserer zunehmend digitalen Welt von entscheidender Bedeutung, da sie eine nahtlose Mensch-Computer-Interaktion ermöglicht. Seine Bedeutung liegt in der Bequemlichkeit, die es bietet, indem es Benutzern die Interaktion mit Geräten, Anwendungen und Diensten in natürlicher gesprochener Sprache ermöglicht. Diese Technologie verbessert die Zugänglichkeit erheblich, insbesondere für Personen mit körperlichen Behinderungen oder solche, die eine freihändige Interaktion bevorzugen. Darüber hinaus rationalisiert es verschiedene Aufgaben, indem es sprachaktivierte Befehle, Diktate und Sprachübersetzungen in Echtzeit ermöglicht und so die Art und Weise verändert, wie wir kommunizieren und auf Informationen zugreifen.
2. Wie nutzen wir die Spracherkennung?
Spracherkennung wird in verschiedenen Anwendungen und Branchen eingesetzt. Es unterstützt virtuelle Assistenten wie Siri, Alexa und Google Assistant, Diktiersoftware zum Schreiben und Transkribieren, Callcenter-Automatisierung für den Kundenservice und Sprachübersetzungstools. Darüber hinaus ist es in Smartphones, Smart-Lautsprecher und andere Smart-Geräte integriert und ermöglicht Sprachbefehle für Aufgaben wie das Einrichten von Erinnerungen, das Durchsuchen des Internets, das Steuern von Smart-Home-Geräten oder das Verfassen von E-Mails.
3. Was ist ein Beispiel für Spracherkennung in Echtzeit?
Ein Beispiel für Echtzeit-Spracherkennung ist die Live-Untertitelung von Veranstaltungen, Videokonferenzen oder Fernsehübertragungen. Die Speech-to-Text-Technologie wandelt gesprochene Wörter nahezu augenblicklich in Bildschirmtext um und liefert Untertitel in Echtzeit. Diese Anwendung verbessert die Zugänglichkeit für hörgeschädigte Personen und stellt sicher, dass alle Zuschauer oder Teilnehmer den präsentierten Inhalt verstehen können. Auch die Echtzeit-Spracherkennung wird zunehmend in Sprachübersetzungsdienste integriert und ermöglicht so eine sofortige Verdolmetschung während Gesprächen oder Reden.
4. Wie hilft die Spracherkennung den Schülern?
Die Spracherkennungstechnologie kommt den Studierenden auf verschiedene Weise zugute. Es unterstützt das Notizenmachen und Schreiben, indem es ihnen ermöglicht, zu diktieren statt zu tippen, was den Prozess effizienter und zugänglicher für Menschen mit Schreibschwierigkeiten macht. Darüber hinaus unterstützt es das Sprachenlernen, indem es Feedback zur Aussprache gibt und die Sprachübersetzung erleichtert. Für Schüler mit Lernschwierigkeiten unterstützen Spracherkennungstools die Auseinandersetzung mit Bildungsinhalten und Bewertungen. Insgesamt verbessert die Spracherkennungstechnologie das Lernerlebnis, indem sie vielfältige Möglichkeiten bietet, auf Informationen zuzugreifen, Inhalte zu erstellen und mit Bildungsressourcen zu interagieren.