Köhlmann, M. (1984). Rhythmische Segmentierung von Sprach- und Musiksignalen und ihre Nachbildung mit einem Funktionsschema. Acustica 56, 193-204

Aus verschiedenen Musikrichtungen wurden 60 Ausschnitte mit einer Dauer von je ca. 5 s 11 Versuchspersonen dargeboten. Die Versuchspersonen reprodu- zierten den wahrgenommenen Rhythmus der Musik auf einer Morsetaste. Es ergaben sich rhythmische Segmentierungen mit signifikanten Häufungen der reproduzierten Zeitintervalle bei 125, 250 und 500 ms. Ein Vergleich mit entsprechenden, in einem weiteren Aufsatz dargestellten Ergebnissen zum Rhythmus von Sprache zeig- te signifikante Unterschiede des wahrgenommenen Rhythmus von Sprache und Musik. Die Zahlenverhältnisse aufeinanderfolgender Zeitintervalle ergaben bei Musik Häufungen bei den Verhältnissen 1:1 und 2:1, bei Sprache hingegen wurde eine eher gleichmäßige Verteilung der Zeitverhältnisse zwischen 1:1 und 2:1 beobach- tet. Es konnte gezeigt werden, daß Sprache und Musik bereits allein aufgrund des Rhythmus voneinander unterschieden werden können. Zur Beschreibung der rhythmischen Segmentierung wird ein Funktionsschema vorgeschlagen, das auf der Vorstellung beruht, daß rhythmische Ereignisse, welche die Segmentierung von Schallsignalen durch das Gehör kennzeichnen, durch zeitliche Änderungen im Lautheits- und Tonhöhenverlauf hervorgerufen werden. Mit Hilfe des Funktions- schemas können ca. 90% der gemessenen rhythmischen Ereignisse nachgebildet werden.