etymologische aha-erlebnisse

Etymologie,gelesen — 18. Jan 2014

für mich gibt es kaum etwas schöneres in der sprachwissenschaft als etymologische aha-erlebnisse. auf einmal geht einem ein lichtlein auf und man versteht, wie die dinge zusammenhängen. unvergessen ist für mich zum beispiel der moment, als mich ein mitstudent darauf hingewiesen hat, dass atom und individuum eigentlich das gleiche ist. das benennungsmotiv und die wortbildung entsprechen sich in der tat genau: in beiden fällen war die ursprüngliche bedeutung ‘das unteilbare’, einfach einmal auf griechisch und einmal auf lateinisch.

ein ähnliches aha-erlebnis hatte ich heute, als mir aufgegangen ist, dass das dialektwort vergitzle ‘es nicht aushalten’ (meist in der wendung bin fascht vergitzlet ‘habe es kaum ausgehalten, bin (beinahe) aus der haut gefahren’) etwas mit dem gitzi, dem zicklein zu tun hat. es ist die gleiche bildung wie verchalbere ‘verwerfen, eine fehlgeburt haben’, das bei der kuh gebraucht wird, oder verlammere beim schaf. das wort bezeichnet also eigentlich das erleiden einer fehlgeburt bei der ziege. ich bin fascht vergitzlet heisst demnach im ursprünglichen sinn ‘ich hätte beinahe ein zicklein abortiert’ – wahrscheinlich im sinn von gezuckt und gezappelt wie eine abortierende ziege. ein drastisches bild!

das besondere an solchen aha-erlebnissen scheint mir zu sein, dass man im prinzip alles schon weiss, was man zur lösung des rätsels wissen muss, aber es im kopf noch nicht zusammengebracht hat. im erwähnten beispiel war mir etwa sowohl das verb vergitzle als auch das substantiv gitzi sowie die verben des typs verchalbere bekannt, ich bin aber nie auf die idee gekommen, dass sie etwas miteinander zu tun haben könnten. kommt dann der richtige hinweis – in der regel stösst man bei der lektüre eines etymologischen wörterbuchs darauf -, fällt es einem plötzlich wie schuppen von den augen und man versteht auf einen schlag, wie alles zusammenhängt.

das problem mit dem haufen

gelesen,off-topic,Wikipedia — 5. Sep 2013

kürzlich bin ich auf ein paradox aufmerksam geworden, das sorites-paradox oder auf deutsch paradoxie des haufens genannt wird. die entdeckung hat mich sehr gefreut, da ich mir über genau diese sache schon seit längerem gedanken gemacht habe und nun endlich die bestätigung gefunden habe, dass es sich dabei um ein anerkanntes problem handelt, das sogar einen namen hat. es ist irgendwodurch beruhigend, zu wissen, dass ich nicht der einzige bin, der sich über solche (etwas abstrusen) dinge den kopf zerbricht…

nun, was ist die paradoxie des haufens? es handelt sich dabei um ein problem, das bei der definition vager begriffe auftritt – im prinzip ein philosophisches problem, das aber, da es um eine definitionsfrage geht, auch eine sprachliche dimension hat. die paradoxie ergibt sich dadurch, dass wir in vielen fällen mit sicherheit sagen können, dass etwas ein haufen oder aber kein haufen ist, gleichzeitig aber nicht genau definieren können, was einen haufen ausmacht. man stelle sich etwa eine menge reiskörner vor. wenn es nur wenige sind, ein oder zwei reiskörner, wird man sie nicht als einen haufen bezeichnen, bei über 1000 körnern dagegen schon. aber wo ist die grenze zwischen haufen und nicht-haufen? wieviele körner kann man von den 1000 entfernen, so dass es weiterhin ein haufen bleibt? und ab dem wievielten entfernten korn hört der haufen auf, ein haufen zu sein? darauf gibt es keine klare antwort.

nun könnte man sich natürlich damit behelfen, dass man einfach eine fixe grenze festlegt, zum beispiel bei 50 körnern. ab 50 ist es ein haufen, sonst nicht. damit ist das problem aber natürlich nicht wirklich gelöst, denn man muss zugeben, dass die grenze willkürlich gewählt wurde. es lässt sich nicht begründen, warum 49 körner keinen haufen darstellen sollen, aber 50 schon. die grenze hätte damit genausogut bei 49 gewählt werden können, oder sonstwo. und ist es wirklich einsichtig, anzunehmen, dass ein einzelnes korn den unterschied zwischen einem haufen und einem nicht-haufen ausmachen kann? die allermeisten leute werden wohl von auge eine menge von 49 körnern gar nicht von einer mit 50 unterscheiden können – wieso sollte man dann gerade da die grenze ansetzen? und falls nicht da, wo sonst? wie man sieht, hilft das festsetzen einer willkürlichen grenze nicht wirklich weiter, eine befriedigende definition des haufens zu erreichen.

persönlich habe ich mir das problem jeweils anhand der temperatur des wassers, das aus einem wasserhahn kommt, überlegt. auch bei der wassertemperatur kann man in vielen fällen eindeutig eine einstufung als ‘warm’ oder ‘kalt’ vornehmen. gleichzeitig ist es aber nicht möglich, anzugeben, wo genau die grenze zwischen ‘warm’ und ‘kalt’ liegt. die paradoxie ergibt sich dadurch, dass wir zwischen ‘warm’ und ‘kalt’ unterscheiden können, ohne dass wir diese konzepte genau definieren könnten.

das problem mag vielleicht auf den ersten blick belanglos erscheinen, ist es aber meines erachtens nicht. die einsicht, dass man vage begriffe prinzipiell nicht genau definieren kann, bedeutet, dass wir auch einfache dinge wie warmes oder kaltes wassers nicht exakt beschreiben können, obwohl sie uns intuitiv so leicht verständlich sind. das gleiche gilt natürlich für jeden vagen begriff. da auch etwa ‘schön’ – ‘hässlich’ oder ‘gut’ – ‘böse’ vage sind, und wir in gleicher weise keine grenze zwischen beiden ziehen können, wie können wir dann überhaupt je eine sichere zuordnung zum einen oder anderen machen?

update 7. sept
nachdem ich ein bisschen mehr darüber nachgedacht und auch eine anregende diskussion mit meiner freundin geführt habe, komme ich zur einsicht, dass man die sache als kognitionsproblem angehen muss. man muss also den betrachter berücksichtigen: etwas ist nie in absoluter hinsicht, sondern immer nur im auge eines betrachters ein haufen (oder ein nicht-haufen). hierzu bietet etwa die prototypensemantik einen guten ansatz. vereinfacht gesagt liefern unsere nerven eine menge ‘rohdaten’ an unser hirn, und die aufgabe des hirns ist es dann, die gelieferten werte mentalen konzepten (‘warm’, ‘kalt’) zuzuordnen und mit einer entsprechenden ‘etikette’ (z.b. die wörter warm oder kalt) zu versehen. die werte liegen dabei auf einer graduellen skala, sagen wir zum beispiel von 0 (die tiefste temperatur, die wir mit unserer haptischen wahrnehmung registrieren können) bis 1000 (höchtste wahrnehmbare temperatur). in der prototypensemantik wird nun angenommen, das wir für konzepte wie ‘warm’ oder ‘kalt’ einen bestimmten wert als prototypisch abgespeichert haben. der in einer bestimmten situation von den sinnesorganen gelieferte wert wird dann mit den prototyp-werten auf der skala verglichen. ist er nahe an einem protoyp-wert dran, können wir eine entsprechende zuordnung vornehmen. wenn er aber ungefähr gleich weit von verschiedenen prototyp-werten entfernt ist, befinden wir uns in einer grauzone, die keine eindeutige zuordnung erlaubt.

so weit so gut – aber woher haben wir die prototyp-werte? nun, es sind wohl einfach erfahrungswerte. jeder hat schon so und so viele male entsprechende werte von unseren sinnesorganen geliefert bekommen und hat diese aus dem kontext – etwa weil jemand um uns herum diese als ‘warm’ oder ‘kalt’ bezeichnet hat – als gültige werte für ‘warm’ oder ‘kalt’ registriert. es gibt also eine art trainingsphase, in der wir lernen, bestimmte werte auf der temperaturskala einem mentalen konzept zuzuordnen und mit einem namen zu versehen. dadurch entsteht mit der zeit ein prototyp-wert (oder eher ein prototyp-bereich), der es ermöglicht, neue werte einzuordnen. dazu passt auch, dass verschiedene personen zum teil unterschiedliche zuordnungen von temperaturwerten vornehmen – was für eine person ‘warm’ ist, kann für eine andere person bereits ‘heiss’ sein, umgekehrt ist, was für jene person ‘warm’ ist, für diese vielleicht bereits ‘kalt’. das hängt dann eben (abgesehen von den natürlich nicht identisch funktionierenden sinnesorganen) mit unterschiedlichen erfahrungswerten und demzufolge verschiedenen prototyp-werten zusammen.


temperaturskala

die grafik zeigt, wie aus erfahrungswerten prototyp-bereiche erschlossen und diese dann für die zuordnung neuer werte verwendet werden. die zuordnung zu einem prototyp ist bei den werten 1 (kalt) und 3 (warm) leicht, bei 2, das in der übergangszone liegt, hingegen nicht.

in diesem rahmen wäre also die frage, wie wir etwas eindeutig als ‘warm’ oder ‘kalt’ einstufen können, obwohl wir nicht genau definieren können, wo ‘warm’ anfängt und wo es aufhört, folgendermassen zu beantworten: wir können einen bestimmten temperaturwert eindeutig als ‘warm’ oder ‘kalt’ bezeichnen, wenn er auf der temperaturskala genügend nahe an unserem auf erfahrung basierenden ideal- oder prototyp-wert für ‘warm’ oder ‘kalt’ liegt.

ebd. und a.a.O.

Diss,gelesen,Uni — 3. Aug 2012

wenn man mehrmals hintereinander auf die gleiche publikation verweist, benutzt man die abkürzungen ebd. (= ebenda) oder a.a.O. (= am angegebenen Ort). bisher hatte ich immer gedacht, dass beide austauschbar wären, ebenso wie zum beispiel zwischen etc. und usw. kein inhaltlicher unterschied besteht.

nun habe ich allerdings gelesen, das dies nicht zutreffen soll – offenbar gibt es tatsächlich einen unterschied zwischen ebd. und a.a.O.: ebd. verweist auf die zuletzt genannte stelle (d.h. die genannte publikation an der genannten stelle), wohingegen a.a.O. nur auf die letztgenannte publikation verweist, ohne über die genaue stelle eine auskunft zu geben. dies bedeutet, dass man ebd. nie, a.a.O. dagegen stets mit einer seitenangabe kombinieren muss. beispiele:

hühner legen eier (müller 1890: 12). ausserdem gackern sie (ebd.).

vs.

hühner legen eier (müller 1890: 12). ausserdem gackern sie (a.a.O., s. 13).

nun, ich kann nicht aus meiner eigenen erfahrung bestätigen, dass dies tatsächlich die “korrekte” verwendungsweise ist, aber es leuchtet mir jedenfalls ein und ich werde ab jetzt die augen offen halten, ob diese regel in der fachliteratur wirklich so angewendet wird. mit sicherheit ist es jedenfalls nicht die alleinig gültige regel und man findet leicht auch noch weitere ansichten, wie diese zwei abkürzungen zu verwenden seien.

übrigens: wer sich fragt, wieso man überhaupt eine dieser zwei abkürzungen benutzen soll und nicht einfach die blosse seitenzahl schreibt (der leser könnte sich ja denken, dass jeweils die zuletzt genannte publikation gemeint ist)… das problem dabei ist, dass eine einfache seitenangabe häufig auch zum verweis innerhalb des eigenen textes gebraucht wird. wenn man also nur “vgl. s. 12” ohne weitere angabe schreibt, muss der leser erraten, ob s. 12 des vorliegenden textes oder aber der zuletzt genannten publikation gemeint ist. um diese zwei fälle auseinanderzuhalten, setzt man eben entweder ebd./a.a.O. oder (im anderen fall) so etwas wie “oben s. 12”/“unten s. 12”.

breaking a cryptogram

on p. 206 of coulmas 1989 book the writing systems of the world, there is an image of the following cryptogram:

cryptogram

apparently, the author had given this encrypted text to some of his grad students, and gave them one week to study it and to find out as much about it as they could. surprisingly, one of the students managed to decrypt it completely in one week, without even knowing that the language of the encrypted text was english.

so, being intrigued by this riddle, i decided to give it a try myself. and i did eventually come up with the correct solution, though it took me a great effort and countless hours… during the process, i named and indexed every symbol of the script, did research on vowel and syllable frequencies, compiled a bunch of statistics, discussed my preliminary findings with various people, and even wrote a html/javascript tool to faciliate the testing of hypotheses :P the trouble was definitely worth it, though, since the feeling you get when the mess of letters before your eyes finally starts to make sense is very rewarding :)

in the following, i’ll explain what approaches i tried, what the largest obstacles were, and how i finally reached the solution. don’t read beyond this point if you want to give it a try yourself!

a few observations could be made right away from simply looking at the cryptogram:

  • there are more symbols than in the roman alphabet, but too few for a syllabary
  • we never find the same symbol twice in a row
  • there is a considerable number of single symbols which occur as words (i.e., between spaces)
  • there are no hyphenation marks, meaning there is either no hyphenation, or it is not indicated
  • because of the layout with a title and an indented first line of the paragraph, the text is clearly to be read left-to-right and top-to-bottom
  • one symbol that was evident was the one after the apostrophe in the title, which clearly had to be /s/

from these observations, i could draw one conclusion with certainty: because of the absence of doubled symbols, it couldn’t be a simple encoding of written english. rather, it was likely to be an encryption based on spoken english.

besided that, i faced a number of problems:

  • the amount of symbols (48) was certainly too low for a syllabary (since english has complex syllable codas, we’d expect at least 150), but surprisingly large for the amount of phonemes of english (usually assumed to be around 30). guessing that long vowels might be encoded separately, and that phonemes like the glottal stop /ʔ/ and possibly affricates like /tʃ/ might have their own symbols, it seemed possible to reach a number of phonemes as high as about 40. but 48 just seemed too high.
  • the high number of symbols, together with the high amount of 6 different symbols occurring alone, made me think that at least some of the symbols must represent a syllable rather than a phoneme. the only english word i could think of that consists of only one phoneme is the indefinite article a. it might be possible to reach more when counting diphthongs (personal pronoun i) and interjections (oh, ah etc.), but at least the latter seemed an unlikely assumption. this paradox was in fact a main obstacle for breaking the cryptogram, since i frequently discarded my attempts of assigning sounds to symbols when it resulted in some of the single symbols being assigned values like t or n, which are not words of the english language by any account.
  • because of the insufficient quality of the printed image, i was unsure about the reading of some signs. especially in the title, some symbol shapes were not properly printed, leading to some problems (how do we decide if small differences in appearence are significant? are we dealing with graph variants, or separate graphemes?), and the punctuation marks were overall hard to judge (comma or period?). if you check the list of symbols below, you will even notice that i listed one symbol (“ascending-spike”) which in fact turned out to be not a separate letter of the alphabet, but identical with the symbol “ascending-bent”, modified by a printing stain.

to make any progress, i decided that i needed to name and index all the symbols, so that i could make a transcript of the cryptogram and start compiling some statistics. here’s the list with names:

symbol names

using standard unix commands like sed, uniq and sort, as well as some regular expression magic, it was quite easy to compile statistics of 1) symbol frequencies 2) word frequencies 3) frequency list of symbols occurring in the beginning of words 4) frequency list of symbols occurring in the end of words.

but what could these statistics be compared to? i clearly needed some data about spoken english. luckily, i found a large transcript of a british english text on the internet, and i used it to compile similar statistics to the ones mentioned above, so that they could be compared easily.

thanks to that, i came up with some guesses of possible symbol – sound correlations. but how could i verify/falsify them easily? it seemed too tiresome to use a pencil and an eraser every time. that’s why i wrote a small HTML/javascript application that would substitute letters automatically and quickly. you can see it here (it’s actually still a bit buggy, but it was good enough for what i needed it).

one of the early ideas i had was that the sign i called “q” might have the value /ð/. the reason for that was that it was very frequent in anlaut, but never occured in auslaut, which matched the distribution of /ð/ in english.

but this – again – let to the problem that /ð/ is no word of the english language (not even in fast talk). this made me reconsider this guess repeatedly, even though it turned out to be correct in the end.

the breakthrough was then made possible by two observations. first, the second to last word in the title consisted of two symbols, and it was in the position right before a name. therefore, it was likely to be either an article or a preposition. i also spotted the same sequence in a frequent three-symbol word (being identical to symbol two and three in that word). so i checked the list of most frequent words in english to see if i could find a word consisting of three phonemes, where the phonemes two and three together would be identical to an article or a preposition. and i did in fact find one (actually, more than one, but this one seemed most promising): /ðæt/ and /æt/. since this fitted also with my guess that the “q” symbol might be /ð/, i felt that this was a good path to explore. with that, i was in fact already on the right track.

second, i noticed two sequences where /ðæt/ was followed by another word of length three, and they both started with /ð-/. these were likely to be one of /ðæt ðei/, /ðæt ðer/, /ðæt ðis/ or /ðæt ði:z/, and it turned out that the latter two fitted well. with that, i saw the hypothesis confirmed that long vowels were represented by separate symbols. in addition, i discovered that “it iz” had appeared in other parts of the cryptogram, giving me some confidence that i was going in the right direction.

next, i concentrated on a frequent two-symbol word ending in long /i:/, and i came to the conclusion that a /w/ would fit best for the first symbol. the sequence /w?t/ was then likely to be /wɒt/.

in the meantime, it had finally dawned on me how to read the single-letter words: it had to be the case that the most frequent functional words were given only by their characteristic consonant. therefore, /t/ was /to/, /ð/ was /ðə/, and one of the remaing ones had to be /n/ = /ænd/.

with these letters given, i managed to guess /wi: kænɒt/, occurring thrice in the first line, and this couldn’t possibly be a coincidence. so from there on forward, it wasn’t too hard anymore to guess the remaining symbols, though i admittedly didn’t get some of the symbols which represent a syllable (there were in fact a few of those in the alphabet, just as i had suspected based on the total number of symbols).

later, after decrypting the entire text, i found out that this script is in fact real. it’s known under the name of the shavian alphabet (check that link for the values of all the signs), and it was created at the occasion of a contest to invent an improved orthography for english (though it never became popular, for obvious reasons).

cryptogram
[the colored areas were crucial for the deciphering: blue – /æt/ and /ðæt/, green – /ðæt ði:z/ and /ðæt ðis/, orange – /wi:/]

the text turned out to be a part of lincoln’s gettysburg address. in full:

From Lincoln’s speech at Gettysburg

But, in a larger sense, we cannot dedicate…we cannot
consecrate…we cannot hallow…this ground. The brave men,
living and dead, who struggled here, have consecrated it
far above our poor power to add or detract. The world
will little note nor long remember what we say here, but
it can never forget what they did here. It is for us, the
living, rather, to be dedicated here to the unfinished
work which they who fought here have thus far so nobly
advanced. It is rather for us to be here dedicated to the
great task remaining before us…that from these honored
dead we take increased devotion to that cause for which
they gave the last full measure of devotion; that we here
highly resolve that these dead shall not have died in vain;
that this nation, under God, shall have a new birth of
freedom; and that government of the people, by the people,
for the people, shall not perish from the earth. (courtesy wikisource)

references
coulmas, florian: the writing systems of the world. oxford 1989.

sprachwandel nach a. s. diamond

Etymologie,gelesen,Linguistik — 7. May 2009

da der zeitpunkt, zu dem die menschliche sprache entstanden ist, sehr weit
in der vorgeschichte zurückliegt, werden wir nie eine sichere
antwort auf die frage haben, wie dieser vorgang genau abgelaufen
ist. das hat die leute aber nicht davon abgehalten, trotzdem die
verschiedensten sprachursprungstheorien zu entwickeln – allesamt
hochgradig spekulativ, aber dafür sehr originell. mittlerweile ist
die disziplin sogar so beliebt geworden, dass sie einen eigenen namen
erhalten hat: die glottogonie.

meine liebste sprachursprungstheorie ist nun die von einem herrn diamond
(1959:258ff). er ist der ansicht, dass am anfang der sprachentwicklung
geräusche standen, die man bei kräftigen bewegungen des arms
unwillentlich von sich gibt. bei verschiedenen arbeitstätigkeiten (er
nennt schneiden, brechen, zerquetschen, schlagen) hätten die menschen
aufgrund der anstrengung verschiedene geräusche produziert, die dann mit
der entsprechenden verbalhandlung assoziert worden seien. um anderen
menschen gegenüber klar zu machen, welche verbalhandlung man meint,
konnte man dann das jeweilige geräusch nachahmen. daraus
hätte sich durch präzisierung usw. eine richtige sprache entwickelt. am
anfang hätten dann genau die vier oben genannten verben gestanden, weil
diese einen “maximum arm effort” erforderten, also besonders anstrengend
waren und deshalb mit einem hörbaren geräusch einhergingen. diese wörter wären also die ältesten, und dies meint diamond sogar aufgrund der ältesten belegten sprachstufen nachweisen zu können.

na, überzeugt…? ;]

referenz

diamond, a. s.: the history and origin of language. london 1959.

der phonemstatus von /ɖ/ im norwegischen und braunmüllers minimalpaaranalyse

gelesen,Linguistik,VGS — 1. Mar 2009

braunmüller (2007:171) schreibt, dass dem retroflexen /ɖ/ im norwegischen phonemischer status zukomme, da minimalpaare der folgenden art gebildet werden können:

Norden [‘nu:ɖən] ‘der skand. norden’
noten [‘nu:tən] ‘nute, zugnetz’

das kann aber so nicht stimmen. wenn dies eine zulässige minimalpaaranalyse wäre, könnte man selbst bei parade-fällen von allophonie einen phonemstatus nachweisen. nehmen wir z.b. die allophonie von [ç] und [χ] im deutschen, wovon letzteres bekanntlich nur nach hinteren vokalen auftritt.

nach braunmüllers logik könnte man mit folgendem minimalpaar den phonemstatus von /ç/beweisen:

ichim
[ç] – [m]

und mit folgendem minimalpaar wäre der phonemstatus von /χ/ nachweisbar:

DachDamm
[χ] – [m(:)]

ebenso verhält es sich bei der englischen allophonie von [l] und [ɫ] (velarisiertes l). hier könnte folgendermassen phonemstatus nachgewiesen werden:

peelpeep
[ɫ] – [p]

bzw.

liftgift
[l] – [g]

es gilt zu betonen, dass die minimalpaaranalyse zwar die richtige methode ist, um den phonemstatus von lauten zu ermitteln, dass die hier verwendete methode aber ungültig ist. es wäre z.b. richtig, zu behaupten, dass [ç] und [χ] keine allophone sondern eigenständige phoneme sind, wenn es gelänge, ein minimalpaar zu finden, dass sich nur durch den unterschied von [ç] und [χ] unterscheidet (was aber nicht möglich ist). es ist jedoch nicht zulässig, eines der allophone mit einem unabhängigen laut (z.b. /t/) zu konstrastieren und auf diesem weg den phonemstatus für das allophon zu behaupten, wie dies von braunmüller gemacht wird.

für den fall von norw. /ɖ/ heisst das konkret, dass /ɖ/ solange als allophon von /d/ anzusehen ist, bis man ein minimalpaar findet, dass sich nur durch den unterschied von /ɖ/ und /d/ unterscheidet, was mir (ohne mich damit beschäftigt zu haben) eher unwahrscheinlich vorkommt.

referenz
Braunmüller, K.: Die skandinavischen Sprachen im Überblick. Tübingen 2007. 3. Auflage.

allophonische verteilung von zungenspitzen- und gaumen-r in mittelschweden

gelesen,Linguistik,VGS — 28. Feb 2009

viele sprachen kennen eine dialektale variation von r-lauten, aber dass es auch möglich ist, dass verschiedene r-varianten allophonisch verteilt sind, ist mir neu. nach braunmüller (2007:43) gibt es in einem “übergangsgebiet zwischen süd- und mittelschweden” einen dialekt, wo anlautend und inlautend (sofern der laut lang ist) ein gaumen-r [ʀ,ʁ] gesprochen wird, ansonsten zungenspitzen-r [r]. seine beispiele sind:

röra [”ʀœ:ra] ‘bewegen’
herre [‘hɛʀ:ę̜] ‘herr’

es ist schwer zu glauben, dass es wirklich zwei verschiedene gerollte r-varianten im selben wort geben kann, aber genau das scheint hier der fall zu sein.

referenz
Braunmüller, K.: Die skandinavischen Sprachen im Überblick. Tübingen 2007. 3. Auflage.

programmiersprachen und sprachen

gerade habe ich das buch ‘eine kleine geschichte der sprache’ von steven roger fischer gelesen (2. auflage 2004; engl. original aus dem jahr 1999). es ist ein nettes kleines büchlein, das einen sehr allgemeinen und für laien ausgericheten überblick über die entstehung der sprache, über die sprachwissenschaft, die wichtigsten sprachfamilien, sprachtypologie etc. bietet. natürlich kratzt der autor bei den einzelnen themengebieten nur an der oberfläche, doch liegt dies in der natur eines solchen buches, das auf ein breites, nicht ausgebildetes publikum zielt. im teil zu den germanischen sprachen, den ich aufgrund meiner ausbildung beurteilen kann, hat es zwar einige ungenauigkeiten und fehler drin (z.B. kann man altnordisch nicht als die ‘ursprüngliche germanische sprache’ bezeichnen, S. 132), aber es ist nichts allzu schlimmes dabei.

allerdings, und dies ist der grund für meinen blog post, bin ich in einem punkt ganz und gar nicht mit fischer einverstanden: nämlich damit, dass er programmiersprachen immer wieder mit natürlichen sprachen in einem atemzug nennt, und damit die grundlegenden unterschiede zwischen beiden missachtet. um es auf den punkt zu bringen: programmiersprachen sind überhaupt keine sprachen. sie haben, wenn man es genau nimmt, in einem linguistischen einführungsbuch über die geschichte der sprache nichts verloren.

zwei punkte mögen genügen, um dies zu klären:

  • es sind verschiedene definitionen von ‘sprache’ denkbar, aber man kommt in keinem fall um die grundlegende feststellung herum, dass die sprache ein medium für die kommunikation ist. das trifft zu bei gesprochener sprache, bei geschriebener sprache, bei gehörlosensprachen, und, wenn man will, sogar bei der pheromon-kommunikation von insekten und anderen tieren. bei programmiersprachen trifft dies aber gerade nicht zu. programmiersprachen ermöglichen keine kommunikation. oder hast du dich schon einmal mit einem computer in java unterhalten? hat er vielleicht eine frage von dir mit einigen zeilen python beantwortet? natürlich nicht, denn programmiersprachen dienen einem ganz anderen zweck: sie sind konstrukte, um komplizierte berechnungen an einem computer effizient und übersichtlich beschreiben zu können. von einer kommunikation zwischen mensch und computer kann somit keine rede sein. mit einer maschine kann man lediglich interagieren, aber nicht kommunizieren. für die kommunikation braucht es einen gleichwertigen gesprächspartner.
  • wenn die sprachwissenschaft zu einer grundlegenden einsicht gekommen ist, was das wesen der sprache betrifft, dann ist es die, dass sich sprachen im verlaufe der zeit verändern. gerade dieser fundamentale satz trifft bei programmiersprachen aber nicht zu – jedenfalls nicht in der gleichen art wie bei natürlichen sprachen, wo sich ein wandel der sprache ohne bewusstes eingreifen einer ‘normativen kraft’ vollzieht. programmiersprachen können zwar von ihren erfindern überarbeitet werden, doch hat dies mit sprachwandel gar nichts zu tun.

in meinen augen ist die benennung von programmiersprachen als ‘sprachen’ nur eine metapher, die aufgrund von einigen oberflächlichen eigenschaften (z.B. dass beide eine syntax haben) zustande gekommen ist. damit sollte aber nur gesagt werden, dass c++, assembler, fortran und java so etwas ähnliches wie sprachen sind, aber keineswegs, dass es sich tatsächlich um sprachen handelt. aussagen in der art, dass computer miteinander “sprechen” könnten, dass sie programmiersprachen “benutzten” und dass dies ganz ähnlich wie bei der kommunikation zwischen mensch und tier ablaufen solle (alles nachzulesen auf s. 223), sind irreführend und zeugen von einem grundsätzlichen unverständnis darüber, was programmiersprachen sind und wie sie funktionieren.