Wie (wenn überhaupt) würde die Fähigkeit, gleichzeitig zu sprechen und zuzuhören, die Struktur und Entwicklung der Sprache verändern?

Die gesprochene Kommunikation erfordert, dass Menschen zwei verschiedene Dinge tun können:

Die erste besteht darin, zu verstehen, was zu ihnen gesagt wird (einschließlich der Isolierung des Klangs der Stimme der anderen Person von allen anderen Geräuschen in der Umgebung, der Auflösung des Klangs in eine Reihe von Wörtern und Pausen und der Verarbeitung der Wörter und Pausen, um die Bedeutung zu extrahieren von ihnen). Die zweite besteht darin, der anderen Person ihre eigenen Ideen mitzuteilen (indem sie sie in einer Folge von Wörtern und Pausen formulieren und diese so laut aussprechen, dass die andere Person ihnen eine Bedeutung entnehmen kann).

Nun können wir meistens nur eines dieser Dinge gleichzeitig tun (und oft mit einer kleinen Pause zwischendurch, während wir das Gesagte verarbeiten und entscheiden, was wir im Gegenzug sagen wollen). Ich frage mich, wenn dies nicht der Fall wäre und beide Aufgaben gleichzeitig erledigt werden könnten, ohne sich gegenseitig zu stören, hätte sich die Sprache dann immer noch so entwickelt, wie sie es getan hat? Würde die Grammatik immer noch so funktionieren, wie sie es tut?

Wenn nicht, welche Unterschiede könnten wir erwarten?

Das können wir bereits. Der Hauptgrund, warum wir nicht gleichzeitig sprechen und zuhören, ist, dass das, was wir sagen, auf dem basieren muss, was wir hören.
FSK (Frequency Shift Keying), TDMA (Time Division Multiple Access) ... viele andere gut dokumentierte und interessante Telekommunikationstechnologien.
Ich habe gehört, dass Menschen in zeitkritischen Hochdruckjobs mit Informationsüberflutung (z. B. Piloten und Fluglotsen) die Fähigkeit entwickeln, mehrere Datenströme – insbesondere mehrere Audio-(Sprach-)Streams – gleichzeitig zu absorbieren . Ich gehe davon aus, dass die besten Disponenten der Notdienste (''911'') genau das tun, wovon Sie sprechen – die Polizei, Feuerwehr und/oder Sanitäter benachrichtigen, während sie dem Anrufer zuhören . (Zugegeben, dies kann eher digital als vokal erfolgen, aber ich bin mir nicht sicher, ob das einen Unterschied macht.)
Ich habe dieser Frage +1 gegeben, weil ich denke, dass es eine großartige Frage ist, aber ich wünschte, ich könnte ihr noch einmal +1 geben, weil sie all diese guten Antworten angeregt hat. Meine Antwort ist der Wettbewerb mit guter Gesellschaft! Tolle erste Frage, TheTermiteSociety, und willkommen bei WorldBuilding!
Wussten Sie, dass Frequenzen sich gegenseitig verstärken und aufheben können?
Du meinst, du kannst es nicht? Ich dachte, das könnte jeder; Ich kann es auf jeden Fall. Ich kann mehreren Gesprächen in mehreren Sprachen gleichzeitig zuhören und an ihnen teilnehmen (natürlich nur mit jeweils einer ;-).
Ein weiteres Beispiel für Menschen, die gleichzeitig zuhören und sprechen: Simultandolmetscher.
Das finde ich bei Gesprächen mit mehreren Teilnehmern sehr interessant. Sie könnten beispielsweise zuhören, was eine Person sagt, und gleichzeitig mit einer dritten Person oder Gruppe sprechen.
Das passiert bereits in Talkshows ... oh warte, sie hören einander nicht zu.

Antworten (4)

Das ist für mich interessant, weil das, was Sie erforschen wollen, sowohl passiert als auch nicht passiert. Wie Sie bemerkt haben, ist es mächtig schwierig, ein Gespräch zu führen, wenn beide Parteien versuchen, übereinander zu sprechen. Wir haben jedoch viele Beispiele beim Singen, wo wir tatsächlich über jemandem vokalisieren, während wir ihm zuhören. Es gibt keine andere Möglichkeit, wie ein Barbershop-Quartett die geschlossenen Harmonien aufrechterhalten kann, die es braucht, um so zu klingen, wie es klingt.

Dies weist auf etwas Tieferes in unserer Psyche hin. Etwas an der Art und Weise, wie wir über Kommunikation denken, veranlasst uns, nicht so zu sprechen, wie Sie es beschreiben. Das macht Spaß, weil dies auch darauf hindeutet, dass diese Unfähigkeit zu sprechen und zuzuhören möglicherweise kulturell und nicht biologisch ist. Es macht immer Spaß, sich mit kulturellen Dingen zu beschäftigen, aber zuerst etwas Biologie.

Eine wesentliche Einschränkung bei jeder menschlichen Wahrnehmung ist, wie langsam das Gehirn neue Reize verarbeitet. Wenn es auf einen Stimulus vorbereitet ist, kann das Gehirn innerhalb von 106 ms reagieren (diese Zeit wurde von einem olympischen Athleten in einem sorgfältig strukturierten Test erreicht). Wenn das Gehirn jedoch weniger vorbereitet ist, ist es langsamer. Es gibt zwei Gehirnwellen namens P300a und P300b, die Wissenschaftler gerne in psychologischen Experimenten verwenden. Jedes dieser Ereignisse tritt ungefähr 300 ms nach einem neuartigen Stimulus auf (daher P300). P300a reagiert auf einen unerwarteten Stimulus (z. B. ein lautes Geräusch), während P300b auf einen unerwarteten Stimulus reagiert, der mit der aktuellen Aufgabe zusammenhängt (z. B. wenn die Ampel während der Fahrt gelb wird). Wissenschaftler lieben diese, weil sie sehr leicht zu unterscheiden sind und gut mit der Kognition selbst korrelieren.

Dies zeigt eine Untergrenze für die Kommunikation „gleichzeitig“. Wenn Ihr Stimulus meine oberen kognitiven Funktionen erreichen muss, beginnen sie erst 300 ms, nachdem Sie Ihren Ton erzeugt haben, mit der Verarbeitung, und Sie benötigen wahrscheinlich einige hundert Millisekunden, um ihn zu verarbeiten. Die meisten Gespräche werden mit 110-150 wpm (400-545 ms pro Wort) geführt, und obwohl ich keine wissenschaftlichen Beweise dafür habe, sieht es so aus, als wären diese beiden Zeitlinien eng miteinander verbunden.

Eine weitere Grenze besteht darin, dass obere kognitive Funktionen dazu neigen, mehr seriell und weniger parallel zu sein. Es ist viel schwieriger, von 100 bis 7 rückwärts zu zählen, während man jemandem beim Sprechen zuhört, als das eine oder andere zu tun. Dadurch wird das Gespräch natürlich serialisiert.

Ich erwähnte jedoch, dass wir beim Sprechen zuhören, und nannte das Singen als Beispiel. In der Stimmung zu bleiben ist eine niedrigere kognitive Funktion, da Sänger die meiste Zeit nicht aktiv darüber nachdenken. Wir Sänger neigen dazu, automatisch in der Stimmung zu bleiben. Das bedeutet, dass wir keine dieser langsamen P300-Wellen brauchen, um in Stimmung zu bleiben. Wir können die niedrigeren und schnelleren Funktionen des Gehirns zur Kommunikation nutzen.

Was wäre also, wenn wir diese unteren Teile mehr verwenden würden, wenn wir kommunizierten? Ich denke, da gibt es viel Raum für Interpretationen, weil dieser Teil des Gehirns nicht sehr gut verstanden wird. Wir wissen nicht genau, wie es aussehen würde, wenn es direkter kommunizieren würde, als es tatsächlich der Fall ist. Wir haben jedoch einige Beispiele dafür, was es sein könnte. Da fällt mir ein besonderes Beispiel ein, die Aufführungen im Kecak- Stil aus Bali, Indonesien. Es wird angenommen, dass es seinen Ursprung in einem Exorzismus-Ritual hat. Ich werde der Erste sein, der zugibt, dass ich als weißer US-Bürger nicht ganz verstehe, was hier vor sich geht, aber wenn ich darüber nachdenke, wie es für uns aussehen würde, die Mauern, die wir um unser Gehirn errichtet haben, fallen zu lassen und lass die niederen Funktionen miteinander kommunizieren',. Ich weiß nicht, wie es euch geht, aber ich bekomme ein unheimliches Gefühl, wenn ich ihre Tänze beobachte, als würden sie mich auf eine Weise erreichen, die ich nicht ganz verstehe. Vielleicht steckt mehr dahinter, als man denkt.

Diese Antwort enthält einige faszinierende Ideen (danke). Ich denke, es gibt wahrscheinlich eine gewisse Bedeutung für die Unterscheidung zwischen dem, was Sie "höheres" Denken nennen (was ich als komplex und bewusst interpretiere), und dem, was Sie "niederes" Denken nennen (was ich als unterbewusst oder einfach verstehe ) Gedanke. Ich könnte mir eine Sprache vorstellen, die es den Sprechern ermöglicht, ihre Gefühle und die intuitivsten Überzeugungen über etwas (gleichzeitig) so ziemlich ständig zu kommunizieren, während sie dennoch verlangen, dass sie sich für eine anspruchsvollere Kommunikation abwechseln.
@TheTermiteSociety und das nennt man Mimics und Cues. Wir tun es die ganze Zeit, während wir sprechen, lesen wir den Gesichtsausdruck des Zuhörers und passen uns seinen Gefühlen an, während wir gleichzeitig unsere eigenen mit unserem Gesicht und unseren Händen kommunizieren. Wir sprechen und hören gleichzeitig, nur nicht mit Worten – Worte sind für hochrangige Konzepte.

Die Antwort von Cort Ammon ist gut, aber ich möchte Kommentare hinzufügen und habe mehr Kommentare, als der Kommentarbereich aufnehmen kann.

Die menschliche Sprache hat die Flexibilität für gleichzeitige Konversation

Erstens, wie er betonte, ist die menschliche Sprache sehr flexibel. Es gibt so viele Dinge, die Sie mit Ihrer Stimme tun können, die über das hinausgehen, was wir normalerweise zum Sprechen verwenden. Zum Beispiel verwenden englischsprachige Personen keinen Ton wie die Chinesen (während die Chinesen keine grammatikalische Zeitform verwenden). Es gibt mindestens 150 einzigartige Phoneme (ungefähr Laute), die von verschiedenen menschlichen Gruppen in der Sprache verwendet werden. !Xuun verwendet etwa 141 davon; Englisch verwendet bis zu 47 (21 Vokale, 26 Konsonanten, obwohl nicht alle Dialekte alle Laute aussprechen).

Der Punkt ist, dass zwei Personen durch die Verwendung unterschiedlicher Klänge oder Töne gleichzeitig sprechen und perfekt verständlich sein könnten, indem sie keine ähnlichen Klänge teilen, die sich gegenseitig stören würden. Theoretisch könnte sich eine Sprache entwickeln, in der es einen „ersten Sprecher“ und einen „zweiten Sprecher“ gibt, die unterschiedliche Laute und Töne verwenden, sodass zwei Personen gleichzeitig einen der beiden Sprecherdialekte verwenden können, um sich zu unterhalten. „1. Sprecher“ könnte beispielsweise alle kurzen Vokale verwenden und „2. Sprecher“ könnte alle langen Vokale verwenden. Oder es könnte in einer tonalen Sprache wie Chinesisch so einfach sein, dass der zweite Sprecher seine Stimme eine große Quinte vom ersten Sprecher entfernt hebt oder senkt, damit sich ihre Sprache nicht auf Töne überschneidet.

Unabhängig davon reichen das menschliche Ohr und Gehirn aus, um mehrere Gespräche gleichzeitig zu verfolgen. Es ist schwer, zwei Gespräche gleichzeitig zu „verstehen“, wie wir als nächstes besprechen werden, aber die meisten Menschen haben ihren eigenen Namen in einem Gespräch quer durch den Raum herausgesucht. Außerdem kann Ihnen jeder mit Kindern sagen, dass Sie hören können, was Ihre Kinder sagen, selbst wenn Sie mit jemand anderem sprechen.

Das menschliche Gehirn ist nicht für simultane Gespräche ausgelegt

Nochmals, Cort Ammon folgend, ist unser Gehirn nicht darauf eingestellt, Sprache zu verarbeiten, während wir sie sprechen. Probieren Sie es einfach aus, es ist sehr schwer, Ihre Gedanken zu ordnen, während Sie zuhören, oder sogar wenn Sie lesen.

Es ist interessant, dass expressive und rezeptive Aphasie (Unfähigkeit, Sprache zu sprechen bzw. Sprache zu verstehen) mit unterschiedlichen Bereichen des Gehirns verbunden sind. Es ist also nicht so einfach zu behaupten, dass es eine gemeinsame Hardware gibt, die sowohl zum Ausdrücken als auch zum Empfangen von Sprache verwendet wird, die uns daran hindert, beides gleichzeitig zu tun. Aber der Beweis besteht einfach darin, es selbst zu testen. Versuchen Sie, einen Satz aus dieser Antwort zu lesen, während Sie etwas rezitieren, das Sie auswendig gelernt haben, und versuchen Sie dann zu wiederholen, was Sie gerade gelesen haben. Du kannst es einfach nicht (zumindest ich kann es nicht).

Fazit

Die menschliche Sprache ist flexibel genug, um gleichzeitiges Sprechen und Zuhören zu unterstützen, aber das Gehirn ist dem einfach nicht gewachsen.

"unser Gehirn ist nicht darauf ausgelegt, Sprache zu verarbeiten, während wir sie sprechen" - das stimmt einfach nicht. Unser Gehirn kann noch mehr! Denken Sie an Simultandolmetschen, bei dem Sie in zwei verschiedenen Sprachen zuhören und sprechen müssen !
@vojta Ich gebe zu, ich hatte nicht an Echtzeitübersetzung gedacht. Ist es möglich, dass die Tatsache, dass sie zwei verschiedene Sprachen verwenden, es tatsächlich einfacher macht? Vielleicht nicht, aber wenn ja, könnte das eine enorme Bedeutung für jede Sprache haben, die sich für die gleichzeitige Kommunikation entwickelt hat.
@vojta Guter Punkt, obwohl ich argumentieren würde, dass die Echtzeitübersetzung unter einen anderen Fall fällt, da Sie dieselben Konzepte zuhören und wiederholen. was ich (um ehrlich zu sein nicht die geringste Autorität in der Sache) als einen anderen Fall betrachte, als mich gleichzeitig mit verschiedenen Konzepten zu befassen, wie ein Gespräch oder das oben erwähnte BeispielTry to read a sentance from this answer while reciting something you have memorized, then try to repeat what you just read.
@xDaizu Ich würde argumentieren, dass Echtzeitübersetzung viel schwieriger ist, als es scheint. Sprachen stimmen konzeptionell oft nicht 1:1 überein, und oft interpretiert man das Gesagte eher, als es wirklich zu übersetzen. Zum Beispiel hat Portugiesisch viel mehr Wörter als Englisch. Wenn Sie versuchen, Englisch-Portugiesisch in Echtzeit zu sprechen, müssten Sie riesige Wortblöcke auf einmal übersetzen, nur um zu verstehen, welche Nuancen Sie auf Portugiesisch vermitteln müssen. Überprüfe einfach, wie viele Wörter es gibt, um so etwas wie „over“ ins Portugiesische zu übersetzen – es sind über 20 direkte Übersetzungen möglich.
@vojta Du hast nicht genau gelesen, was ich sage. Beim Simultandolmetschen gibt es nur einen Gedankengang. Die Sprache kommt herein, wird in eine Reihe von Gedankenmustern interpretiert, und dann gehen die gleichen Gedankenmuster in einer anderen Sprache aus. Ein Gespräch erfordert, dass Sie gleichzeitig verarbeiten, was hereinkommt, und eine Antwort entwickeln. Das sind zwei verschiedene Gedankengänge. Das ist der Teil, der nicht möglich ist.
@ ThalesPereira Ich stimme allem zu, was du gesagt hast. Echtzeitübersetzung ist sehr schwierig und sollte niemals etwas anderes implizieren. Und Sie haben noch nicht einmal mit Redewendungen angefangen ! Was ich in meinem Kommentar argumentieren wollte, ist, dass es sich um eine andere Disziplin handelt (ohne zu argumentieren, ob schwieriger oder einfacher, nur anders ), und daher beweist oder widerlegt ihre Machbarkeit nicht die Machbarkeit der vom OP angegebenen Fähigkeit, was Ihrem ersten Kommentar widerspricht: (...)this is just not true. Our brain can even more! Think of simultaneous interpretation(...):)
@vojta Du hast irgendwie Recht, aber das Sprechen erfordert kein komplexes Denken, und in den meisten Fällen ist es praktisch selbst ein Reflex. Der Gedanke kommt von der Entscheidung, welche Worte gesagt werden sollen, aber unser Gehirn ist dazu in der Lage, dies wesentlich schneller zu tun, als wir jemals sprechen können. Argumente sind der beste Weg, dies zu zeigen. Die Leute können und werden mitten im Satz aufhören, um auf die Person zu antworten, die über ihnen spricht, oder manchmal sogar darum bitten, sie ausreden zu lassen, was nur funktioniert, wenn das Ende des Arguments Dinge enthält, die für das, was die andere Person sagt, relevant sind, was zeigt, dass sie die anderen verstanden haben Worte, während sie sprechen.

Es gibt ein reales Beispiel für das gleichzeitige Zuhören und Sprechen bei Echtzeitübersetzern. Dies ist eine andere Zeitskala als Millisekunden; Ein Übersetzer muss in der Regel einige Sekunden Sprache hören, bevor er mit der Übersetzung beginnt, und je nach den beteiligten Sprachen oder wenn Unklarheiten auftreten, möchte er möglicherweise einen längeren Sprachrückstand aufbauen. Beachten Sie, dass sie, obwohl sie ihre Reaktionen auf den anfänglichen Stimulus um einige Sekunden verzögern, gleichzeitig sprechen und den Sätzen zuhören, die sie einige Sekunden später übersetzen werden.

Nicht zuletzt ist es ein Beweis dafür, dass Menschen zu solchen Aufgaben fähig sind; die Seltenheit davon zeigt eher, dass es im Allgemeinen nicht nützlich ist, als dass es unmöglich ist. Der Grund, warum es nicht nützlich ist, wird in anderen Antworten erläutert: Die meiste Kommunikation ist seriell, und wir müssen das Ende einer Frage hören, um sie zu beantworten (es sei denn, wir erraten das Ende der Frage richtig; aber dies ist immer noch eine serielle Kommunikation, weil wir zumindest die wichtigen Teile hören müssen, bevor wir antworten).

Gleichzeitig sprechen und zuhören zu können, wäre nur für die nicht serielle Kommunikation nützlich, und ich bin mir nicht sicher, was der Vorteil einer solchen Kommunikation wäre. Eine Gruppe von Personen, die gleichzeitig Statusaktualisierungen weitergeben, kann sich qualifizieren oder zwei separate Gespräche gleichzeitig führen. Letzteres passiert häufig, wenn es zu Verzögerungen bei der Beantwortung kommt, beispielsweise in Briefen, E-Mails oder Chatrooms; es ist nicht ausgeschlossen, dass es bei gesprochenen Gesprächen passieren kann, da man oft genau weiß, was man sagen möchte, bevor man es zu Ende sagt, was den Kopf frei macht, um sich etwas anderes anzuhören und auch darauf eine Antwort zu formulieren. Auch hier scheint es von begrenztem Nutzen zu sein, es sei denn, Sie haben ein Vorstellungsgespräch mit vielen Fragen und nicht genug Zeit, um sie alle zu stellen.

Übersetzer verwirren mich. Wenn wir sie nicht jeden Tag dabei beobachten könnten, würde ich sagen, dass das, was sie tun, unmöglich ist!
Ich frage mich, bis zu welcher Tiefe Übersetzer erleben, was sie übersetzen, zum Beispiel, wenn sie einen TED-Vortrag übersetzen, gehen sie mit einem tieferen Verständnis davon als der durchschnittliche Zuhörer, da sie jedes gesprochene Wort sorgfältig verarbeiten, oder müssen sie zusehen eine Aufnahme später, um die höheren Konzepte zu verstehen, da sie sich so auf die Übersetzungen konzentrierten?
Ich habe gelesen, dass ein weiteres Beispiel aus der Praxis die Gebärdensprache zwischen 2 Personen ist (funktioniert natürlich nicht in größeren Gruppen).

Es gibt einen vernünftigen Fall, dass dies genau das ist, was passiert. Ziemlich viel menschliche verbale Kommunikation ist rein in Bezug auf den Informationsgehalt etwas überflüssig, und in vielen Fällen geht es bei der eigentlichen Konversation mehr um subtilere Hinweise auf Tonfall, Kontext, Tonfall und Körpersprache, und ziemlich viele Konversationen sind mehr oder weniger automatisch in Bezug auf die Mechanik der Grammatik und des Vokabulars.

Meistens sind wir in lockeren Gesprächen in der Lage, Konzepte zu formulieren und ziemlich subtile Nuancen zu betonen, ohne wirklich viel darüber nachzudenken. Nur eine Sache über den Unterschied in der Art und Weise, wie Sie mit einem guten Freund, einem flüchtigen Bekannten, Ihrem Chef, jemandem, zu dem Sie sich hingezogen fühlen, usw.

Ich habe erst heute ein gutes Beispiel in Form eines Theatervorspiel-Workshops gesehen, bei dem die Leute gebeten wurden, eine Geschichte zu erzählen, und gelegentlich angehalten wurden und einen neuen und unerwarteten Kontext erhielten. Zum Beispiel könnten sie mitten im Satz angehalten und gebeten werden, sich vorzustellen, dass sie dieselbe Geschichte erzählen, aber in einem Vorstellungsgespräch waren, eine Rede auf einer Hochzeit hielten oder versuchten, jemanden am Lagerfeuer zu erschrecken. Man konnte sofort die kompetenten Schauspieler sehen, nicht weil sie in der Lage waren, neue Zeilen vor Ort zu erfinden, sondern weil sie sich in diesen Kontext versetzen konnten und ihre gesamte Darbietung sich auf eine Weise veränderte, die man in einem geschriebenen Drehbuch vielleicht nicht bemerkt.

Der entscheidende Punkt hier ist, dass ein Großteil der Sprachmechanik völlig unabhängig von bewusstem, rationalem Denken ist und dass das Nachdenken darüber, was Sie als nächstes sagen werden, während die andere Person noch spricht, ein ganz normaler Teil des Gesprächs ist.

In der Tat gibt es ein Argument, dass in einem modernen Kontext, in dem wir mit sehr komplexen Konzepten und technischen Informationen umgehen müssen, die wir nie entwickelt haben, tatsächlich zu viel paralleles Sprechen und Zuhören stattfindet und wir mit einer Sprachkonvention besser dran wären, die dies nicht tut Verlassen Sie sich nicht so sehr auf eine mehr oder weniger sofortige Reaktion.

Bedenken Sie auch, dass in den meisten lockeren sozialen Kontexten Gesprächspausen oft als unangenehm empfunden werden (und akzeptable Pausen wurden tatsächlich als sehr kurz angesehen), dies an sich impliziert, dass wir gut in der Lage sind, eine Antwort zu formulieren, lange bevor die andere Person dies getan hat fertig gesprochen.

In gewisser Weise fasst die Literatur dies besser zusammen als die Wissenschaft, und es lohnt sich, einen Blick auf Autoren wie Pratchett, Pinter, Austin und Wodehouse zu werfen, um ein Gefühl dafür zu bekommen, wie flexibel und nuanciert Dialog sein kann.

Ich denke, Sie haben Recht mit den feinen Nuancen, und dass wir das teilweise schon tun. Wir neigen sicherlich dazu, eine ganze Menge „Ja“ und „Hmm“ und „Ah, in Ordnung“ zu sagen, wenn wir mit Menschen sprechen, mit denen wir vertraut (oder anderweitig vertraut) sind. Stimmt es wirklich, dass wir so viele Informationen wie möglich in diese Antworten packen? Unterscheiden wir auf diese Weise eindeutig zwischen „Ich stimme voll und ganz zu und freue mich darüber“, „Ich denke, ich stimme zu, aber ich muss noch mehr darüber nachdenken“, „Ich stimme zu, aber ich bin nicht erfreut darüber“ etc.? Vielleicht sind die Gründe, warum wir es nicht tun, kultureller Natur.
Das tust du bereits - wenn du darüber sprichst, wie cool Züge sind und deine Freundin dabei mit den Augen rollt. Sie werden Ihre Sprache an diese neuen Informationen anpassen, die Sie gleichzeitig mit dem Sprechen erhalten haben.
@Falco Ok, es ist völlig meine Schuld, schlechte Beispiele ausgewählt zu haben (da jedes, wie Sie zu Recht sagen, durch Körpersprache ausgedrückt werden kann), aber das habe ich nicht ganz gemeint. Ich vernachlässige nicht die Körpersprache oder die paralinguistischen Merkmale der Sprache. Vielmehr frage ich mich, wie viele zusätzliche Informationen dieser Art in die gesprochene Sprache eingebaut werden könnten, um sie zu ergänzen, und ich stelle fest, dass wir dies bereits in geringem Maße mit unseren Geräuschen (Worten) der Zustimmung, Ablehnung, Zustimmung, Missbilligung usw. (was mir nahelegt, dass diese Dinge nicht unbedingt nonverbal sein müssen) .