Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik
Johannsen K (2010)
Bielefeld (Germany): Bielefeld University.
Bielefelder E-Dissertation | Deutsch
Download
Autor*in
Gutachter*in / Betreuer*in
Abstract / Bemerkung
Dysarthrien sind die häufigsten neurologisch bedingten Kommunikationsstörungen. Ihre Diagnostik erfolgt derzeit überwiegend perzeptiv, also durch subjektive Urteile. Objektive Messverfahren können Diagnostik und Therapieevaluation in ihrer Reliabilität verbessern.
Akustische Analysen des Sprachschalls stellen eine wichtige objektive und nicht-invasive Ergänzung zur perzeptiven Dysarthriediagnostik dar (Kent et al., 1999), werden jedoch bislang trotz Verfügbarkeit kaum genutzt, obwohl viele auditive Merkmale akustisch quantifiziert werden können. Zudem kann die Diagnostik mit Hilfe einer akustischen Analyse durch perzeptiv nicht oder nur schwer erfassbare Parameter erweitert werden.
Im Rahmen dieses Promotionsprojektes wurde eine computergestützte, semi-automatische Analyse akustischer Variablen selektiver Sprachdaten entwickelt. Die Basis bildete dabei das Programm PRAAT (Boersma & Weenink 2008), das es ermöglicht, mit Hilfe der Skriptsteuerung Auswertungsalgorithmen zu programmieren und somit große Teile der sonst manuellen Auswertung phonetischer Eigenschaften des Sprachsignals zu automatisieren.
Der Nachteil, dass sich im Sprachsignal Einflüsse aller sprechmotorischen Funktionskomponenten vermischen, konnte durch eine gezielte Aufgabenauswahl teilweise kompensiert werden. Daher wurde vor der Erstellung der Skripte eine sorgfältige Literaturrecherche durchgeführt mit dem Ziel, valide und reliable Parameter zu finden, die einerseits einfach zu erfassen, andererseits zuverlässig auszuwerten sind und zudem klinisch relevante Informationen liefern. Ausgehend von diesen Kriterien wurden die vier Untersuchungsmodule Satzproduktion, Diadochokinese, Vokalanalyse und Vokalartikulation entwickelt.
Die Evaluation des entwickelten Untersuchungsprotokolls und der Auswertung erfolgte mit einer Normsprecher- (N=30) und einer Patientenstichprobe (N=29). Es zeigten sich für zahlreiche, aber nicht alle der erfassten Variablen Unterschiede zwischen Normsprechern und Patienten; einige Variablen eigneten sich zudem, die Patienten hinsichtlich dreier Schweregradstufen zu klassifizieren. Insbesondere die temporalen Variablen in den Modulen Satzproduktion und Diadochokinese wiesen eine hohe Trennkraft auf und bieten sich daher als reliable Parameter für die Ergänzung der auditiv-perzeptuellen Diagnostik an. Diese Variablen eröffnen die Möglichkeit einer detaillierten Quantifizierung, die im Rahmen einer auditiven Erfassung nicht möglich ist. Wird zudem die Auswertung durch einen externen Dienstleister übernommen und somit erheblich erleichtert, stellen diese Variablen aussichtsreiche Kandidaten für eine routinemäßige Ergänzung der klinischen Standarddiagnostik dar.
Die Analyse und Interpretation akustischer Parameter erfordern Zeitaufwand, Einarbeitung und phonetisches Know-how. Aus diesen Gründen werden akustische Analyseverfahren im klinischen Alltag bislang kaum eingesetzt, obwohl die Ergebnisse die Quantifizierung der Leistungen in Diagnostik und Therapieevaluation erleichtern und verbessern. Um diese Möglichkeit ohne die beschriebenen Nachteile zu eröffnen, wird die hier entwickelte akustische Analyse als modularer Baustein in das zentrale phonetische Labor (PhonLab) der Entwicklungsgruppe Klinische Neuropsychologie (EKN) integriert. Damit besteht für Interessenten die Möglichkeit, vorgegebene Sprechproben an das PhonLab zu schicken, die Ergebnisse nach externer Auswertung zurückgeschickt zu bekommen und somit eine präzise Quantifizierung der erfassten Variablen zu erhalten.
Da objektiv gewonnene Daten die Diagnostik und Therapieevaluation belegbarer machen, kann ein Effektivitätsnachweis besser erbracht werden, der im Hinblick auf die aktuelle ökonomische Situation des Gesundheitswesens zunehmend an Bedeutung gewinnt.
Das in dieser Arbeit entwickelte Instrument bietet Anwendern in Therapie und Forschung dementsprechend sowohl die Möglichkeit, die herkömmliche Dysarthriediagnostik in einfach umsetzbarer und effizienter Weise zu ergänzen, als auch die Möglichkeit, spezifischen Fragestellungen mithilfe akustischer Parameter nachzugehen.
Stichworte
Logopädie;
Diagnostik;
Akustisches Verfahren;
Sprechstörung;
Praat (Programm);
Dysarthrie
Jahr
2010
Page URI
https://pub.uni-bielefeld.de/record/2305303
Zitieren
Johannsen K. Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik. Bielefeld (Germany): Bielefeld University; 2010.
Johannsen, K. (2010). Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik. Bielefeld (Germany): Bielefeld University.
Johannsen, Katrin. 2010. Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik. Bielefeld (Germany): Bielefeld University.
Johannsen, K. (2010). Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik. Bielefeld (Germany): Bielefeld University.
Johannsen, K., 2010. Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik, Bielefeld (Germany): Bielefeld University.
K. Johannsen, Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik, Bielefeld (Germany): Bielefeld University, 2010.
Johannsen, K.: Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik. Bielefeld University, Bielefeld (Germany) (2010).
Johannsen, Katrin. Entwicklung, Implementierung und Evaluation eines Instrumentes für die akustische Dysarthriediagnostik. Bielefeld (Germany): Bielefeld University, 2010.
Alle Dateien verfügbar unter der/den folgenden Lizenz(en):
Copyright Statement:
Dieses Objekt ist durch das Urheberrecht und/oder verwandte Schutzrechte geschützt. [...]
Volltext(e)
Access Level
Open Access
Zuletzt Hochgeladen
2019-09-25T06:26:30Z
MD5 Prüfsumme
c0610588dbdfe6fc576082f72d945538