Kommentar von Prof. Dr. Britta Schneider, Professorin für Sprachgebrauch und Migration an der Europa-Universität Viadrina Frankfurt (Oder)
– Einreichung am 17. Juli 2023
Judith Purkarthofer und Christoph Schroeder zeigen, dass gesellschaftliche Teilhabe nicht per se durch Erwerb von Sprache ermöglicht wird – ein wichtiger und bisher wenig beachteter Punkt in öffentlichen Debatten um Sprache. Neben der Forderung nach einem pragmatischen Umgang mit Mehrsprachigkeit, der ich als Soziolinguistin in jeder Hinsicht zustimme, möchte ich mit meinem Kommentar darauf hinweisen, dass sich unsere Sprachkultur, die stark durch den Buchdruck geformt wurde, im Zeitalter digitaler Medien verändert. Pragmatismus bezüglich Sprache und ihren Normen ist im Kontext diverser und digitaler Öffentlichkeit daher relevant für den Umgang mit Sprache generell.
Sprachen versus Sprechen
Judith Purkarthofer und Christoph Schroeder betonen, dass kommunikative Praktiken nur dann zu Teilhabe führen, wenn sie sich um Austausch und Verständigung bemühen. Solche Praktiken basieren nicht notwendigerweise auf Einhaltung der gegebenen Regeln von Sprachen, sondern erfordern Sprechen als kommunikative Verständigungspraxis. Sprechen kann vielfältig und abhängig von Genres und Situationen sein. Gegenseitiges Verstehen und die Möglichkeiten, gleichberechtigt miteinander zu sprechen, hängen nicht nur mit Sprachkompetenzen zusammen, sondern auch mit den konkreten Situationen (z.B. Essensverkauf vs. öffentliche Aushandlung), den Rollen und Rechten der Sprechenden, sowie den materiellen Bedingungen, in die sprachliches Handeln eingebettet ist. Sprechen ist also viel mehr als der Austausch von Zeichen mit feststehender Bedeutung. Sprechen ist eine soziale Handlung, die im Zusammenspiel mit materiellen, diskursiven und sozialen Ressourcen praktiziert wird.
Einsprachigkeit und fixierte ‚Sprachen‘ als Ergebnis europäischer Schriftsprachkultur
Woher kommt es, dass wir, wenn wir über Sprachen reden, meist annehmen, dass es hierbei um ein immaterielles, starres System der Zuordnungen von Zeichen und Bedeutung geht? Und wie konnte es dazu kommen, dass Menschen glauben, dass das Erlernen eines solchen Systems automatisch zu gesellschaftlicher Teilhabe führt? Wenn wir über die mehrsprachige Verfasstheit von Gesellschaft reden, müssen wir auch die Bedingungen und die Geschichte unserer eigenen Glaubenssätze zu Sprache hinterfragen.
Heute ist die Vorstellung selbstverständlich, dass Sprache aus gegebenen Beziehungen zwischen Laut- oder Buchstabenzeichen und Bedeutung besteht. Es erscheint uns selbstverständlich, dass alle Mitglieder einer Sprachgemeinschaft das-selbe Sprachverständnis haben. Solche Annahmen sind keineswegs universell, sondern Ergebnis historischer Prozesse und medialer Technologien. Das Konzept von Sprache als systemischer Einheit ist ohne die Erfindung der Schrift kaum vorstellbar. In oralen Kulturen ist Sprache eine verkörperlichte und vergängliche Lautpraxis (Ong 1982) – und es bleibt greifbar, dass die Bedeutung von Zeichen veränderbar ist, weil sie sich aus sozialen Interaktionen ergibt. Schriftzeichen hingegen stellen Bedeutung visuell dar und fixieren sie. Dabei scheinen Zeichen, die Laute darstellen (also die uns bekannten Buchstaben) im Gegensatz zu Zeichen, die Konzepte darstellen (wie etwa ☼), in besonderer Weise den Effekt zu haben, dass Menschen annehmen, dass die Bedeutung im Wort liegt und immer schon da war (Abram 2017 (1996)).
Die interessensgeleitete Erschaffung nationaler Schriftsprachen
Die in Europa vorherrschende phonetische Schrift, in der Buchstaben einzelne Laute darstellen, wurde durch den Buchdruck normiert. Und erst mit der Buchdrucktechnologie wurde eine bestimmten Sprachform als Nationalsprache verbreitet und stabilisiert. Die neuen technologische Möglichkeiten entsprachen sowohl dem kommerziellen Interesse von Verlegern, als auch dem politischer Akteure, die sprachliche Homogenität anstrebten, um das Gefühl nationaler Identität zu fördern. So fand zum Beispiel 1876 in Berlin die Erste orthographische Konferenz statt, die von der preußischen Regierung initiiert wurde, um eine einheitliche Rechtschreibung zu schaffen (Nerius 2002). Die Homogenisierung einer nationalsprachlichen Schrift erfolgte also im Zusammenspiel von politischem Willen, technologischen Bedingungen und kommerziellen Interessen. Sprachliche Alltagspraktiken von Individuen sollten homogenisiert werden, um gemeinsame nationale Identität und einen größeren Markt zu schaffen. Die dominante, durch Schrift legitimierte Sprache entwickelte sich zu einer “Stimme aus dem Nichts”, die in nationalen Öffentlichkeiten heute als ‚neutral‘ wahrgenommen wird (Gal and Woolard 2001).
Bedeutung als interaktive Aushandlung in digitalen Kontexten
Inzwischen sind viel mehr Menschen als im Zeitalter des Buchdrucks daran beteiligt, schriftlich fixierte Sprache im digitalen öffentlichen Raum zu produzieren. So finden wir in sozialen Medien zum Beispiel transnationale Interaktionen, die fragmentierte, simultan existierende semantische Bedeutungen von Zeichen hervorbringen. Geringeres Gatekeeping – alle die schreiben können, können mitmachen – und interaktives, informelles schriftsprachliches Handeln machen sichtbarer, dass Zeichen nicht immer für alle dasselbe bedeuten. So können Emojis, die Obst oder Gemüse darstellen, in bestimmten Interaktionskontexten plötzlich auch als Zeichen für Geschlechtsteile verwendet und verstanden werden. Und Worte, die eben noch eine sachliche und beschreibende Bedeutung hatten, werden zu politischen Kampfbegriffen. Eine „blue pill“ ist zum Beispiel in manchen, zumeist misogynen, Internetforen nicht einfach eine blaue Pille, sondern ein zentrales Abgrenzungskonstrukt: In Anlehnung an die Filmtrilogie „Matrix” werden Personen, die dem liberalen Mainstream folgen, abwertend als ‚Bluepiller‘ bezeichnet. In digitaler Medialität werden multiple Wortbedeutungen noch weiter zunehmen. Damit einher gehen kann die Tendenz, dass nationale Standardsprachen immer weniger als quasi-natürliche Einheiten wahrgenommen werden.
Welche Kompetenzen brauchen Bürger*innen in einer diversen und digitalen Gesellschaft?
Wie Judith Purkarthofer und Christioph Schröder in ihrem Initiatilbeitrag verdeutlicht haben, dürfen Sprachen nicht als fixe und gegebene Bedeutungssysteme imaginiert werden. Eine demokratische Sprachkultur benötigt eine Vorstellung von Sprechen als gemeinschaftlicher Aushandlung. Historisch entwickelte Regeln sind in bestimmten Kontexten wichtig und praktisch, etwa in juristischen Interaktionen oder im Fremdsprachenunterricht. In vielen anderen Kontexten ist aber vorrangig, sich mit verschiedenen Menschen zu verständigen. Verständigung gelingt nicht allein auf Basis schriftsprachlicher Konventionen, sondern durch die Fähigkeit und die Bereitschaft zur Einbeziehung vielfältiger sprachlicher und nicht-sprachlicher Ressourcen (Gesten, Mimik, digitale Tools). Mehrsprachige Ressourcen, multimodale Kreativität und kritische Sprachreflexion sind daher nicht nur relevant für Menschen, die eine nicht-dominante Herkunftssprache sprechen. Zum Gelingen des Zusammenlebens in einer diversen Gesellschaft ist es unabdingbar, dass alle Bürgerinnen und Bürger lernen, Sprechen als eine flexible Praxis zu begreifen, Bedeutungen kritisch zu reflektieren und sprachliche sowie nichtsprachliche Ressourcen kooperativ zur Verständigung zu nutzen. Das Bewusstsein von Sprechen als kreativer Verständigungspraxis sollte daher in allgemeinbildenden Schulen aktiv gefördert werden. Sprachliche Diskriminierung – von Menschen, die ‚einen Akzent‘ haben, Dialekt sprechen, keinen Zugang zu Bildungssprache haben oder Sprachen mischen – könnte so überwunden werden und die Angst, ‚falsch‘ zu sprechen würde kleiner werden. Eine inklusive Sprachkultur für alle könnte entstehen.
Literatur
Abram, David. 2017 (1996). The Spell of the Sensuous. Perception and Language in a More-Than-Human World New York: Vintage Books.
Gal, Susan, and Kathryn A. Woolard. 2001. Languages and Publics: The Making of Authority. Manchester: St.Jerome.
Nerius, Dieter. 2002. Die Orthographische Konferenzen 1876 Und 1901. Hildesheim: Olms.
Ong, Walter J. 1982. Orality and Literacy. The Technologizing of the Word. London: Routledge.