biene63
|
Hallo,
ich bin am Überlegen, wie ein "Virtueller Online-Joystick" zur Spracherkennung der NA gestaltet werden müsste.
Ich sehe in meinem Kopf ein Hologramm eines NA, wie der irgendwas redet. Und mittels Joystick / evt auch über solche neuen Elemtente wie "Wii" könnte man bestimmte Parameter hinzufügen / abschwächen / verstärken....
So ähnlich, als würde man eine Theater-Szenerie mittels neuem Kulissenbild versehen, die Beleuchtung ändern, abdimmen, Spots an, Farbigkeit verändern
Welche Parameter meine ich, die fürs Steuern dieses Joysticks relevant wären?
- Sprachmelodie (typisch in deutscher Lautsprache: Stimme hoch am Ende des Satzes bedeutet Frage)
- Mimikanteile (Blickrichtung, Augenbrauen-Bewegung, relative Mundwinkelbewegung, Stirnfalten, Muskelbewegung in den Wangen)
- Kopfhaltung (zB. Kopf zur Seite gleich "Ich weiss noch nicht, ich überlege noch")
- Gut wäre auch, die Handmotorik in solche sprachlichen Parameter übernehmen zu können. Aber dafür wäre wohl zuviel Rechnerleistung nötig?
Für Gebärdensprachler gibt es schon virtuelle Avatare. In Japan wird da viel gemacht.
Evt ist diese Technik auf die Bedürfnisse von Autisten abgewandelt von Interesse?
In diesen NA-Sprechstunden-Bereich hab ich diesen Thread gesetzt, weil ich persönlich mich so gern zusammen mit solchem Virtuellem Avatar mit einem NA zusammensetzen würde....und der würde mir dann lautsprachlichen Entsprechungen zu den geänderten Parametern sagen.....
Bin gespannt, ob verständlich ist, was ich ausdrücken möchte.
lg biene63
|