Ich bin in einer Vofeldentwicklungsabteilung tätig. Meine derzeitige Arbeit bringt es mit sich, dass ich mich mit neuen Technologien, Trends und Schlagwörtern befasse, die - im Sinne der Company - zunächst einmal mit Leben gefüllt werden müssen. So sind "smart" und "intelligent" immer wieder mit von der Partie. Menschliche Eigenschaften, jedoch nicht im Zusammenhang mit Menschen oder auf sie bezogen - nein. Es geht immer um intelligente Dinge und Maschinen.
Alles wird intelligent.
Es gibt Companies, die wollen sogar einen ganzen "Smart Planet" und andere suggerieren uns, dass ein Telefon intelligent ist. Dabei kann man das Ding nur streicheln. Wollen wir wirklich, dass Maschinen und Gegenstände, die uns umgeben, intelligent werden? Ich find es schon ungewöhnlich genug, dass die Dinger überall an und in und um uns herum sind. Und dann sollen die auch noch intelligent sein? Vielleicht auch noch "denken" und "Entscheidungen fällen"? "Frau Meier, es tut uns leid. dass ihr Mann verschieden ist, aber der Herzschrittmacher hat entschieden, dass es Zeit ist." Oder wie wäre es mit einer Dose Cola, die für uns entscheidet, dass sie sich nicht öffnen läßt, weil sie über ihren eingebauten Sensor herausgefunden hat, dass unser Körperumfang um Vergleich zu unserer Größe unproportional ist (sprich: wir sind zu dick) und weil der Microchip mit dem darauf implementierten Reasoning nun herausgefunden hat, dass der Genuß einer weiteren Cola einer "Genesung" - schließlich bildet die Cola Dose "Zu dick sein" auf eine Form von Krankheit ab - nicht zuträglich ist.
Wollen wir das? Wie "modelliert" man Menschen so, dass eine Maschine herausfindet, wie sie mit unterschiedlichen Menschen richtig umgeht? Ist das die erste Form der Bewährungsprobe des Menschen gegenüber der Maschine?
Wobei: Wenn ich es genau bedenke, dann finde ich es gar nicht so schlimm, dass ein Ding, das gestreichelt werden will - so wie das IPhone -, als intelligent bezeichnet wird. "Gestreichelt werden wollen" ist ja schließlich auch eine menschliche Eigenschaft, die als Ursache für so ziemlich den größten Teil des menschlichen Handelns gesehen werden kann. Allerdings ist sie beim Mensch mit einer Intelligenz verbunden, die tiefer liegt.
Irgendwann gibt es bestimmt Maschinen, die nicht mehr vom Menschen gestreichelt werden wollen, sondern von anderen Maschinen....
Und alles redet miteinander.
Einer der Themenkreise, in dem ich mich aufhalte, beinhaltet eine Diskussion zum Thema "Internet der Dinge", "Dezentrale Kommunikation" und so weiter. Wenn man sich mit diesem Thema beschäftigt, dann kommen immer wieder Formulierungen, wie "Dann redet die Getränkeflasche mit dem LKW und fragt, wann sie da ist." Oder so ähnlich.
Die Menschen sind komisch. Gerade haben sie entdeckt, dass sie Maschinen für die "Unterstützung" der zwischenmenschlichen Kommunikation nutzen können (wobei selbst das nicht ohne eine gewisse Skepsis zu betrachten ist). Nun bringen sie den Maschinen bei, sich selbst untereinander zu unterhalten - und intelligent noch dazu. Und dabei sind Menschen selbst stetig damit bemüht, ein gegenseitiges Verständnis zu schaffen, Mißverständnisse auszuräumen und die richtigen Worte zu finden. Und das funktioniert oft genug nicht - im Kleinen zwischen einzelnen Personen und im Großen zwischen Bevölkerungsgruppen.
Wenn Menschen sich nicht verstehen, dann kann das unterschiedliche Folgen haben. Im schlimmsten Fall bekriegen sie sich. Im besten Fall versöhnen sie sich. Aber was machen Maschinen, wenn eine Kommunikation nicht funktioniert? Abstürzen?
In der Softwareentwicklung gibt es die Aussage, dass die Struktur eines Programmes die Kommunikationsstruktur derjenigen Organisation widerspiegelt, die das Programm erstellt hat. Ich frage mich, ob bei der Realisierung des "Internets der Dinge" auch die "Kommunikationsverluste", die uns in unserer zwischenmenschlichen Kommunikation immer wieder heimsuchen, mit realisiert werden.
Und wenn ja, wie werden sich diese "Verluste" äußern? Hängt die Reaktion einer Maschine nach einem Kommunikationsproblem vom Gemütszustand des Entwicklers zum Zeitpunkt der Implementierung ab? Unter dieser Betrachtungsweise man ernsthaft in Frage stellen, inwieweit Maschinen jemals wirklich nur der "fleißige Helfer" werden. Wahrscheinlicher ist, dass sie irgendwann den Menschen nachahmen - schließlich besitzen sie durch die Tatsache, dass sie von uns programmiert wurden unsere Meme - die sie zu allem Überfluss durch eine beliebig schnelle Replikation zu Temen "mutieren" werden.
Das ist lustig, jetzt komme ich in Fahrt.
Wer schützt Maschinen eigentlich davor, dass sie von Menschen programmiert werden? Ist das nicht notwendig? Ich bin für die Einberufung einer "Kommision zum Schutze der noch nicht programmierten Intelligenz". Und wie wird eigentlich mit Computer-Intelligenz-Krüppeln umgegangen - ich meine die ganzen mißratenen KI-Versuche, die seit den 60er Jahren gestartet wurden. Neueste Inkarnation: Semantic Web! Der Mensch hat noch nicht mal kapiert, was "Bedeutung" ist - naja, vielleicht bis auf ein paar kognitive Linguisten - und schon versucht er ein Computermodell davon zu erstellen. Ist das nicht eine Art Clonen mit garantiertem Mißerfolg?
Die Schlussfolgerung liegt nahe: Zum Schutze der Maschine vor dem Menschen sollten alle Versuche, menschliche Intelligenz und menschliche Kommunikation auf MAschinen zu übertragen, unterbunden werden.