{"id":71,"date":"2025-05-16T17:40:59","date_gmt":"2025-05-16T15:40:59","guid":{"rendered":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/?post_type=chapter&#038;p=71"},"modified":"2025-06-17T10:12:25","modified_gmt":"2025-06-17T08:12:25","slug":"technologische-fortschritte-im-sprachbereich","status":"publish","type":"chapter","link":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/chapter\/technologische-fortschritte-im-sprachbereich\/","title":{"raw":"Technologische Fortschritte im Sprachbereich","rendered":"Technologische Fortschritte im Sprachbereich"},"content":{"raw":"<img class=\"wp-image-225 aligncenter\" src=\"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final.png\" alt=\"\" width=\"451\" height=\"1117\" \/>\r\n<h2>Allgemeine Sprachtechnologien<\/h2>\r\n(Diese Zeitleiste ist KI-generiert und wurde nicht \u00fcberpr\u00fcft.)\r\n<p dir=\"ltr\">Die wichtigsten technologischen Fortschritte im Bereich <b>Sprache und Technologie<\/b>\u00a0der letzten 50 Jahre \u2013 mit Fokus auf Relevanz f\u00fcr Logop\u00e4die, Sprachverarbeitung und unterst\u00fctzende Technologien:<\/p>\r\n\r\n<h3>1970er\u20131980er: Fr\u00fche Sprachtechnologie und Computerunterst\u00fctzung<\/h3>\r\n<ul>\r\n \t<li><b>Spracherkennung (erste Schritte)<\/b>: Fr\u00fche Systeme wie IBM\u2019s \u201eShoebox\u201c (1970er) erkannten ca. 10 W\u00f6rter.<\/li>\r\n \t<li><b>Text-to-Speech (TTS)<\/b>: Erste TTS-Systeme wie DECtalk (1983), u. a. von Stephen Hawking genutzt.<\/li>\r\n \t<li><b>Fr\u00fche Computerprogramme zur Sprachf\u00f6rderung<\/b>: Lernspiele (z.\u202fB. \u201eTalking Typewriter\u201c) in der Sonderp\u00e4dagogik.<\/li>\r\n<\/ul>\r\n<h3>1990er: Digitale Signalverarbeitung &amp; erste Assistive Technologien<\/h3>\r\n<ul>\r\n \t<li><b>Digitale Audiotechnik<\/b>: Fortschritte in Aufnahme, Analyse und Bearbeitung von Sprache.<\/li>\r\n \t<li><b>Fr\u00fche Sprachanalyse-Software<\/b>: Einf\u00fchrung von Tools wie <i>Praat<\/i>\u00a0(1992) zur akustischen Analyse.<\/li>\r\n \t<li><b>Augmentative and Alternative Communication (AAC)<\/b>: Beginn breiter Nutzung elektronischer Hilfen f\u00fcr Nichtsprechende.<\/li>\r\n<\/ul>\r\n<h3>2000er: Software &amp; Internetbasierte Sprachtherapie<\/h3>\r\n<ul>\r\n \t<li><b>Speech Therapy Apps &amp; PC-Programme<\/b>: Programme wie <i>SpeechViewer III<\/i>, <i>TalkTools<\/i>, <i>Laureate Learning Systems<\/i>.<\/li>\r\n \t<li><b>Teletherapie<\/b>: Erste Ans\u00e4tze f\u00fcr Fernlogop\u00e4die durch Videotelefonie (z.\u202fB. Skype).<\/li>\r\n \t<li><b>Corpora &amp; maschinelle Sprachverarbeitung<\/b>: Nutzung gro\u00dfer Sprachkorpora f\u00fcr Sprachdiagnostik &amp; Forschung.<\/li>\r\n<\/ul>\r\n<h3>2010er: KI, Machine Learning &amp; mobile Anwendungen<\/h3>\r\n<ul>\r\n \t<li><b>Automatische Spracherkennung (ASR)<\/b>: Siri (2011), Google Assistant, Alexa \u2192 sprachgesteuerte Ger\u00e4te im Alltag.<\/li>\r\n \t<li><b>Apps f\u00fcr Sprachtherapie<\/b>: Zahlreiche mobile Apps f\u00fcr Kindersprache, Aphasie, Stottern, Artikulation.<\/li>\r\n \t<li><b>Sprachgenerierung (TTS)<\/b>: Nat\u00fcrlich klingende Stimmen (z.\u202fB. mit neuronalen Netzen, Tacotron, WaveNet).<\/li>\r\n \t<li><b>Wearables<\/b>: Ger\u00e4te wie Smartwatches mit Erinnerungsfunktionen, Feedbacksysteme (z.\u202fB. f\u00fcr Sprechrhythmus).<\/li>\r\n<\/ul>\r\n<h3>2020er: KI-gest\u00fctzte Sprachtherapie &amp; individualisierte Tools<\/h3>\r\n<ul>\r\n \t<li><b>Large Language Models (LLMs)<\/b>: GPT, ChatGPT, BERT \u2192 Analyse, Textgenerierung, Konversationssimulation.<\/li>\r\n \t<li><b>AI-gest\u00fctzte Sprachdiagnostik<\/b>: Fr\u00fchdiagnose von St\u00f6rungen (z.\u202fB. Aphasie, Demenz) mittels Sprachanalyse.<\/li>\r\n \t<li><b>Sprach-Apps mit KI<\/b>: z.\u202fB. <i>D-Health<\/i>\u00a0oder <i>Tali Health<\/i>\u00a0\u2192 personalisierte Therapieanleitungen.<\/li>\r\n \t<li><b>Automatische Transkription &amp; Lautanalyse<\/b>: KI erkennt Aussprachefehler und gibt Feedback (z.\u202fB. <i>Speechify<\/i>, <a href=\"https:\/\/sites.research.google\/euphonia\/about\/#euphonia-in-action\" target=\"_blank\" rel=\"noopener\"><i>Euphonia<\/i>\u00a0von Google).<\/a><\/li>\r\n \t<li><b>Multimodale Kommunikationstools<\/b>: Kombination von Sprache, Symbolen, Gesten und Eye-Tracking (z.\u202fB. <a href=\"https:\/\/de.tobiidynavox.com\/\" target=\"_blank\" rel=\"noopener\">Tobii Dynavox<\/a>).<\/li>\r\n \t<li><b>Virtual\/Augmented Reality in der Therapie<\/b>: Immersive Umgebungen f\u00fcr soziale Kommunikation &amp; Sprachtraining.<\/li>\r\n<\/ul>\r\n<h3>Zukunftsperspektiven (2025+)<\/h3>\r\n<ul>\r\n \t<li><b>Fr\u00fcherkennung durch \u201epassive\u201c Sprachanalyse<\/b>: z.\u202fB. Sprachmuster im Alltag zur Erkennung neurologischer Erkrankungen.<\/li>\r\n \t<li><b>Individualisierte KI-Therapien<\/b>: Echtzeit-Feedback, Lernprofile, adaptives Training.<\/li>\r\n \t<li><b>Integration von Gehirn-Computer-Schnittstellen<\/b>\u00a0(BCI): Erste Tests zur Sprachsynthese direkt aus neuronalen Signalen.<\/li>\r\n<\/ul>\r\n<div class=\"textbox textbox--exercises\"><header class=\"textbox__header\">\r\n<h2>Relevanz f\u00fcr Logop\u00e4d:innen<\/h2>\r\n<\/header>\r\n<div class=\"textbox__content\">\r\n<ul>\r\n \t<li>Unterst\u00fctzung bei <b>Diagnostik<\/b>\u00a0(automatisierte Tests, Sprachanalyse).<\/li>\r\n \t<li>Hilfen in der <b>Therapie<\/b>\u00a0(Apps, \u00dcbungen, Feedbacktools).<\/li>\r\n \t<li><b>Barrierefreiheit<\/b>\u00a0durch unterst\u00fctzte Kommunikation.<\/li>\r\n \t<li>Potenzial f\u00fcr <b>Teletherapie &amp; hybride Modelle<\/b>.<\/li>\r\n \t<li>Herausforderungen: Datenschutz, Ethik, technisches Know-how.<\/li>\r\n<\/ul>\r\n<\/div>\r\n<\/div>\r\n<h2>Maschinelle \u00dcbersetzung<\/h2>\r\n(Diese Zeitleiste ist KI-generiert und wurde nicht \u00fcberpr\u00fcft.)\r\n<h3>1950er\u20131970er: Pionierzeit<\/h3>\r\n<ul>\r\n \t<li>Erste Experimente (Georgetown-IBM-Demo, 1954): \u00dcbersetzte 60 russische S\u00e4tze ins Englische.<\/li>\r\n \t<li>System basierte auf festen Regeln (\u201eRule-based Machine Translation\u201c, RBMT).<\/li>\r\n<\/ul>\r\n<h3>1980er\u20131990er: Regelbasierte und statistische Methoden<\/h3>\r\n<ul>\r\n \t<li><b>SYSTRAN<\/b>\u00a0wird in EU-Beh\u00f6rden eingesetzt.<\/li>\r\n \t<li>Erste kommerzielle MT-Systeme entstehen.<\/li>\r\n \t<li><b>Ende der 1990er<\/b>: Einf\u00fchrung <b>statistischer MT<\/b>\u00a0(Statistical Machine Translation, SMT) \u2013 nutzt gro\u00dfe Textkorpora, um \u00dcbersetzungen auf Basis von Wahrscheinlichkeiten zu erstellen.<\/li>\r\n<\/ul>\r\n<h3>2000er: Globalisierung und Internet<\/h3>\r\n<ul>\r\n \t<li><b>Google Translate (2006)<\/b>: Startet mit SMT, \u00fcberwindet Sprachbarrieren im Web.<\/li>\r\n \t<li>Zunehmende Integration in Webseiten und Software.<\/li>\r\n<\/ul>\r\n<h3>2016: Neuronale maschinelle \u00dcbersetzung (NMT)<\/h3>\r\n<ul>\r\n \t<li>Google Translate wechselt zu NMT (basierend auf Deep Learning).<\/li>\r\n \t<li>NMT erkennt <b>Kontext<\/b>, <b>Syntax<\/b>\u00a0und <b>Bedeutung<\/b>\u00a0besser \u2013 viel nat\u00fcrlicher klingende \u00dcbersetzungen.<\/li>\r\n \t<li>Andere Tools: <b>DeepL (2017)<\/b>\u00a0revolutioniert Qualit\u00e4t im Deutschen.<\/li>\r\n<\/ul>\r\n<h3>2020er: Integration mit KI &amp; Sprachtools<\/h3>\r\n<ul>\r\n \t<li>\u00dcbersetzungen werden:\r\n<ul>\r\n \t<li><b>sprachlich nat\u00fcrlicher<\/b>\u00a0(durch Transformer-Modelle wie GPT, BERT),<\/li>\r\n \t<li><b>multimodal<\/b>\u00a0(Text, Bild, Ton kombiniert),<\/li>\r\n \t<li><b>in Echtzeit<\/b>\u00a0(z.\u202fB. Microsoft Translator, Skype).<\/li>\r\n<\/ul>\r\n<\/li>\r\n \t<li><b>Spracherkennung + \u00dcbersetzung + TTS<\/b>: komplette \u201eSpeech-to-Speech\u201c-\u00dcbersetzung wird Realit\u00e4t (z.\u202fB. Google Pixel Interpreter Mode).<\/li>\r\n<\/ul>\r\n<div class=\"textbox textbox--exercises\"><header class=\"textbox__header\">\r\n<h2>Relevanz f\u00fcr Logop\u00e4die und Sprachtherapie<\/h2>\r\n<\/header>\r\n<div class=\"textbox__content\">\r\n<ul>\r\n \t<li>Mehrsprachige Klient:innen: \u00dcbersetzungstools helfen bei Anamnese und Therapieplanung.<\/li>\r\n \t<li>Leichte Sprache &amp; Verst\u00e4ndlichkeit: Tools k\u00f6nnen einfache Sprache erzeugen.<\/li>\r\n \t<li>Einsatz bei Migration, Integration und inklusiver Kommunikation.<\/li>\r\n<\/ul>\r\n<\/div>\r\n<\/div>","rendered":"<p><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-225 aligncenter\" src=\"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final.png\" alt=\"\" width=\"451\" height=\"1117\" srcset=\"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final.png 965w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-121x300.png 121w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-414x1024.png 414w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-768x1901.png 768w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-620x1536.png 620w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-827x2048.png 827w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-65x161.png 65w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-225x557.png 225w, https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-content\/uploads\/sites\/90\/2025\/05\/Meilensteine-final-350x866.png 350w\" sizes=\"auto, (max-width: 451px) 100vw, 451px\" \/><\/p>\n<h2>Allgemeine Sprachtechnologien<\/h2>\n<p>(Diese Zeitleiste ist KI-generiert und wurde nicht \u00fcberpr\u00fcft.)<\/p>\n<p dir=\"ltr\">Die wichtigsten technologischen Fortschritte im Bereich <b>Sprache und Technologie<\/b>\u00a0der letzten 50 Jahre \u2013 mit Fokus auf Relevanz f\u00fcr Logop\u00e4die, Sprachverarbeitung und unterst\u00fctzende Technologien:<\/p>\n<h3>1970er\u20131980er: Fr\u00fche Sprachtechnologie und Computerunterst\u00fctzung<\/h3>\n<ul>\n<li><b>Spracherkennung (erste Schritte)<\/b>: Fr\u00fche Systeme wie IBM\u2019s \u201eShoebox\u201c (1970er) erkannten ca. 10 W\u00f6rter.<\/li>\n<li><b>Text-to-Speech (TTS)<\/b>: Erste TTS-Systeme wie DECtalk (1983), u. a. von Stephen Hawking genutzt.<\/li>\n<li><b>Fr\u00fche Computerprogramme zur Sprachf\u00f6rderung<\/b>: Lernspiele (z.\u202fB. \u201eTalking Typewriter\u201c) in der Sonderp\u00e4dagogik.<\/li>\n<\/ul>\n<h3>1990er: Digitale Signalverarbeitung &amp; erste Assistive Technologien<\/h3>\n<ul>\n<li><b>Digitale Audiotechnik<\/b>: Fortschritte in Aufnahme, Analyse und Bearbeitung von Sprache.<\/li>\n<li><b>Fr\u00fche Sprachanalyse-Software<\/b>: Einf\u00fchrung von Tools wie <i>Praat<\/i>\u00a0(1992) zur akustischen Analyse.<\/li>\n<li><b>Augmentative and Alternative Communication (AAC)<\/b>: Beginn breiter Nutzung elektronischer Hilfen f\u00fcr Nichtsprechende.<\/li>\n<\/ul>\n<h3>2000er: Software &amp; Internetbasierte Sprachtherapie<\/h3>\n<ul>\n<li><b>Speech Therapy Apps &amp; PC-Programme<\/b>: Programme wie <i>SpeechViewer III<\/i>, <i>TalkTools<\/i>, <i>Laureate Learning Systems<\/i>.<\/li>\n<li><b>Teletherapie<\/b>: Erste Ans\u00e4tze f\u00fcr Fernlogop\u00e4die durch Videotelefonie (z.\u202fB. Skype).<\/li>\n<li><b>Corpora &amp; maschinelle Sprachverarbeitung<\/b>: Nutzung gro\u00dfer Sprachkorpora f\u00fcr Sprachdiagnostik &amp; Forschung.<\/li>\n<\/ul>\n<h3>2010er: KI, Machine Learning &amp; mobile Anwendungen<\/h3>\n<ul>\n<li><b>Automatische Spracherkennung (ASR)<\/b>: Siri (2011), Google Assistant, Alexa \u2192 sprachgesteuerte Ger\u00e4te im Alltag.<\/li>\n<li><b>Apps f\u00fcr Sprachtherapie<\/b>: Zahlreiche mobile Apps f\u00fcr Kindersprache, Aphasie, Stottern, Artikulation.<\/li>\n<li><b>Sprachgenerierung (TTS)<\/b>: Nat\u00fcrlich klingende Stimmen (z.\u202fB. mit neuronalen Netzen, Tacotron, WaveNet).<\/li>\n<li><b>Wearables<\/b>: Ger\u00e4te wie Smartwatches mit Erinnerungsfunktionen, Feedbacksysteme (z.\u202fB. f\u00fcr Sprechrhythmus).<\/li>\n<\/ul>\n<h3>2020er: KI-gest\u00fctzte Sprachtherapie &amp; individualisierte Tools<\/h3>\n<ul>\n<li><b>Large Language Models (LLMs)<\/b>: GPT, ChatGPT, BERT \u2192 Analyse, Textgenerierung, Konversationssimulation.<\/li>\n<li><b>AI-gest\u00fctzte Sprachdiagnostik<\/b>: Fr\u00fchdiagnose von St\u00f6rungen (z.\u202fB. Aphasie, Demenz) mittels Sprachanalyse.<\/li>\n<li><b>Sprach-Apps mit KI<\/b>: z.\u202fB. <i>D-Health<\/i>\u00a0oder <i>Tali Health<\/i>\u00a0\u2192 personalisierte Therapieanleitungen.<\/li>\n<li><b>Automatische Transkription &amp; Lautanalyse<\/b>: KI erkennt Aussprachefehler und gibt Feedback (z.\u202fB. <i>Speechify<\/i>, <a href=\"https:\/\/sites.research.google\/euphonia\/about\/#euphonia-in-action\" target=\"_blank\" rel=\"noopener\"><i>Euphonia<\/i>\u00a0von Google).<\/a><\/li>\n<li><b>Multimodale Kommunikationstools<\/b>: Kombination von Sprache, Symbolen, Gesten und Eye-Tracking (z.\u202fB. <a href=\"https:\/\/de.tobiidynavox.com\/\" target=\"_blank\" rel=\"noopener\">Tobii Dynavox<\/a>).<\/li>\n<li><b>Virtual\/Augmented Reality in der Therapie<\/b>: Immersive Umgebungen f\u00fcr soziale Kommunikation &amp; Sprachtraining.<\/li>\n<\/ul>\n<h3>Zukunftsperspektiven (2025+)<\/h3>\n<ul>\n<li><b>Fr\u00fcherkennung durch \u201epassive\u201c Sprachanalyse<\/b>: z.\u202fB. Sprachmuster im Alltag zur Erkennung neurologischer Erkrankungen.<\/li>\n<li><b>Individualisierte KI-Therapien<\/b>: Echtzeit-Feedback, Lernprofile, adaptives Training.<\/li>\n<li><b>Integration von Gehirn-Computer-Schnittstellen<\/b>\u00a0(BCI): Erste Tests zur Sprachsynthese direkt aus neuronalen Signalen.<\/li>\n<\/ul>\n<div class=\"textbox textbox--exercises\">\n<header class=\"textbox__header\">\n<h2>Relevanz f\u00fcr Logop\u00e4d:innen<\/h2>\n<\/header>\n<div class=\"textbox__content\">\n<ul>\n<li>Unterst\u00fctzung bei <b>Diagnostik<\/b>\u00a0(automatisierte Tests, Sprachanalyse).<\/li>\n<li>Hilfen in der <b>Therapie<\/b>\u00a0(Apps, \u00dcbungen, Feedbacktools).<\/li>\n<li><b>Barrierefreiheit<\/b>\u00a0durch unterst\u00fctzte Kommunikation.<\/li>\n<li>Potenzial f\u00fcr <b>Teletherapie &amp; hybride Modelle<\/b>.<\/li>\n<li>Herausforderungen: Datenschutz, Ethik, technisches Know-how.<\/li>\n<\/ul>\n<\/div>\n<\/div>\n<h2>Maschinelle \u00dcbersetzung<\/h2>\n<p>(Diese Zeitleiste ist KI-generiert und wurde nicht \u00fcberpr\u00fcft.)<\/p>\n<h3>1950er\u20131970er: Pionierzeit<\/h3>\n<ul>\n<li>Erste Experimente (Georgetown-IBM-Demo, 1954): \u00dcbersetzte 60 russische S\u00e4tze ins Englische.<\/li>\n<li>System basierte auf festen Regeln (\u201eRule-based Machine Translation\u201c, RBMT).<\/li>\n<\/ul>\n<h3>1980er\u20131990er: Regelbasierte und statistische Methoden<\/h3>\n<ul>\n<li><b>SYSTRAN<\/b>\u00a0wird in EU-Beh\u00f6rden eingesetzt.<\/li>\n<li>Erste kommerzielle MT-Systeme entstehen.<\/li>\n<li><b>Ende der 1990er<\/b>: Einf\u00fchrung <b>statistischer MT<\/b>\u00a0(Statistical Machine Translation, SMT) \u2013 nutzt gro\u00dfe Textkorpora, um \u00dcbersetzungen auf Basis von Wahrscheinlichkeiten zu erstellen.<\/li>\n<\/ul>\n<h3>2000er: Globalisierung und Internet<\/h3>\n<ul>\n<li><b>Google Translate (2006)<\/b>: Startet mit SMT, \u00fcberwindet Sprachbarrieren im Web.<\/li>\n<li>Zunehmende Integration in Webseiten und Software.<\/li>\n<\/ul>\n<h3>2016: Neuronale maschinelle \u00dcbersetzung (NMT)<\/h3>\n<ul>\n<li>Google Translate wechselt zu NMT (basierend auf Deep Learning).<\/li>\n<li>NMT erkennt <b>Kontext<\/b>, <b>Syntax<\/b>\u00a0und <b>Bedeutung<\/b>\u00a0besser \u2013 viel nat\u00fcrlicher klingende \u00dcbersetzungen.<\/li>\n<li>Andere Tools: <b>DeepL (2017)<\/b>\u00a0revolutioniert Qualit\u00e4t im Deutschen.<\/li>\n<\/ul>\n<h3>2020er: Integration mit KI &amp; Sprachtools<\/h3>\n<ul>\n<li>\u00dcbersetzungen werden:\n<ul>\n<li><b>sprachlich nat\u00fcrlicher<\/b>\u00a0(durch Transformer-Modelle wie GPT, BERT),<\/li>\n<li><b>multimodal<\/b>\u00a0(Text, Bild, Ton kombiniert),<\/li>\n<li><b>in Echtzeit<\/b>\u00a0(z.\u202fB. Microsoft Translator, Skype).<\/li>\n<\/ul>\n<\/li>\n<li><b>Spracherkennung + \u00dcbersetzung + TTS<\/b>: komplette \u201eSpeech-to-Speech\u201c-\u00dcbersetzung wird Realit\u00e4t (z.\u202fB. Google Pixel Interpreter Mode).<\/li>\n<\/ul>\n<div class=\"textbox textbox--exercises\">\n<header class=\"textbox__header\">\n<h2>Relevanz f\u00fcr Logop\u00e4die und Sprachtherapie<\/h2>\n<\/header>\n<div class=\"textbox__content\">\n<ul>\n<li>Mehrsprachige Klient:innen: \u00dcbersetzungstools helfen bei Anamnese und Therapieplanung.<\/li>\n<li>Leichte Sprache &amp; Verst\u00e4ndlichkeit: Tools k\u00f6nnen einfache Sprache erzeugen.<\/li>\n<li>Einsatz bei Migration, Integration und inklusiver Kommunikation.<\/li>\n<\/ul>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Allgemeine Sprachtechnologien (Diese Zeitleiste ist KI-generiert und wurde nicht \u00fcberpr\u00fcft.) Die wichtigsten technologischen Fortschritte im Bereich Sprache und Technologie\u00a0der letzten 50 Jahre \u2013 mit Fokus auf Relevanz f\u00fcr Logop\u00e4die, Sprachverarbeitung und unterst\u00fctzende Technologien: 1970er\u20131980er: Fr\u00fche Sprachtechnologie und Computerunterst\u00fctzung Spracherkennung (erste Schritte): Fr\u00fche Systeme wie IBM\u2019s \u201eShoebox\u201c (1970er) erkannten ca. 10 W\u00f6rter. Text-to-Speech (TTS): Erste TTS-Systeme [&hellip;]<\/p>\n","protected":false},"author":1,"menu_order":3,"template":"","meta":{"pb_show_title":"on","pb_short_title":"","pb_subtitle":"","pb_authors":[],"pb_section_license":""},"categories":[],"chapter-type":[],"contributor":[],"license":[],"class_list":["post-71","chapter","type-chapter","status-publish","hentry"],"part":3,"_links":{"self":[{"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/pressbooks\/v2\/chapters\/71","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/pressbooks\/v2\/chapters"}],"about":[{"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/wp\/v2\/types\/chapter"}],"author":[{"embeddable":true,"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/wp\/v2\/users\/1"}],"version-history":[{"count":33,"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/pressbooks\/v2\/chapters\/71\/revisions"}],"predecessor-version":[{"id":342,"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/pressbooks\/v2\/chapters\/71\/revisions\/342"}],"part":[{"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/pressbooks\/v2\/parts\/3"}],"metadata":[{"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/pressbooks\/v2\/chapters\/71\/metadata\/"}],"wp:attachment":[{"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/wp\/v2\/media?parent=71"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/wp\/v2\/categories?post=71"},{"taxonomy":"chapter-type","embeddable":true,"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/pressbooks\/v2\/chapter-type?post=71"},{"taxonomy":"contributor","embeddable":true,"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/wp\/v2\/contributor?post=71"},{"taxonomy":"license","embeddable":true,"href":"https:\/\/digital.hfh.ch\/sprachetriffttechnologie\/wp-json\/wp\/v2\/license?post=71"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}