{"id":1948,"date":"2019-09-15T19:07:41","date_gmt":"2019-09-15T17:07:41","guid":{"rendered":"https:\/\/bayernedu.net\/?p=1948"},"modified":"2019-09-15T19:25:53","modified_gmt":"2019-09-15T17:25:53","slug":"subjekt-objekt-oder-etwas-dazwischen-das-humanum-im-zeitalter-der-digitalisierung","status":"publish","type":"post","link":"https:\/\/bayernedu.net\/index.php\/2019\/09\/15\/subjekt-objekt-oder-etwas-dazwischen-das-humanum-im-zeitalter-der-digitalisierung\/","title":{"rendered":"Subjekt, Objekt oder etwas dazwischen? &#8211; Das &#8222;humanum&#8220; im Zeitalter der Digitalisierung"},"content":{"rendered":"<p>Wenn mittlerweile &#8222;Offline statt Online&#8220; der Fehlzustand ist, dann stellt sich nat\u00fcrlich die Frage, was dies mit dem Menschen, dem Menschenbild sowie den Werten im digitalen Zeitalter macht. Diesen Aspekten ging vom 13. &#8211; 14.09. eine hochkar\u00e4tig besetzte Tagung an der Akademie f\u00fcr Politische Bildung in Tutzing nach, die unter o.g. Titel Interessierte aus zahlreichen verschiedenen Disziplinen an den Starnberger See lockte.<\/p>\n<p>Schon in der Begr\u00fc\u00dfungsrunde formulierte <strong>Frau Prof. Dr. Ursula M\u00fcnch (APB Tutzing)<\/strong> klar aus, dass Digitale Bildung besser in die Lehramtsausbildung integriert werden sollte, und zwar in jegliche Fachbereiche. Auch dass man in Bayern das Fach Informatik nicht gemeinsam mit einer Geisteswissenschaft studieren kann, wurde kritisch angemerkt, zeigt aber auch, wie der Bildungsf\u00f6deralismus unterschiedlichste Modelle offeriert. Zudem wurden einige Leitfragen von <strong>Alexander von Gemler (Gesellschaft f\u00fcr Informatik)<\/strong> und <strong>Patricia Scheiber (Initiative D21)<\/strong> formuliert, die im Laufe der beiden Tage immer wieder aufgegriffen wurden:<\/p>\n<ul>\n<li>Wie berechenbar sind Menschen, wenn sie mittlerweile schon im Pokern von Computern geschlagen werden k\u00f6nnen?<\/li>\n<li>K\u00f6nnen Roboter emotionalisieren? Und was bedeutet das im Umgang mit diesen?<\/li>\n<li>M\u00fcssen wir das Verst\u00e4ndnis von Humanit\u00e4t hinterfragen?<\/li>\n<li>Worin liegen die Grenzen der Digitalisierung? Wann h\u00f6rt Schutz auf, wann f\u00e4ngt Bevormundung an?<\/li>\n<\/ul>\n<p>Im ersten Vortrag entwickelte <strong>Prof. Dr. Dr. Wallacher (Hochschule f\u00fcr Philosophie M\u00fcnchen)<\/strong> eine geistesgeschichtliche Einordnung des Verh\u00e4ltnisses von Mensch und Maschine. So hinterfragte schon Aristoteles die Sklavenarbeit und philosophierte \u00fcber den Einsatz von Maschinen. Das dialektische Verh\u00e4ltnis von Herr und Knecht kann nach Hegel durchaus dazu f\u00fchren, dass sich die Verh\u00e4ltnisse umdrehen. Wenn der Knecht (im heutigen Fall die Maschinen) viele T\u00e4tigkeiten abnehmen, kann dann der Herr \u00fcberhaupt noch seine Rolle beibehalten, wenn er die wichtigsten Dinge verlernt hat (hier denke nicht zuletzt ich an die Rolle des Auto-Navis, dem ich mittlerweile (zu naiv?) vertraue)? Zudem wurde auf Adam Smith verwiesen, der in seinen Schriften eine gelingende Welt durch Arbeitsteilung erf\u00fcllt sah. Die Mechanisierung des 18. Jahrhunderts sah er als Fortschritt an, der mit den &#8222;soft skills&#8220; Fairness, Tausch, Kommunikation und Interaktion (der Leser erinnert sich an die 4K) zu einer aus seiner Sicht gelingenden Koexistenz von Mensch und Maschine f\u00fchrt. Prof. Wallacher sieht in der Digitalisierung durchaus eine disruptive Innovation, die aber das &#8222;Menschsein&#8220; elementar wichtig werden l\u00e4sst. Neben einer allzu euphorischen digitalen Machbarkeitshybris bekommt der Mensch mittlerweile zunehmend ein schlechtes Gewissen (was er anrichtet \/ anrichten kann) und Selbstzweifel, inwieweit er der Technik &#8222;unterlegen&#8220; ist &#8211; also ein Mangelwesen bzw. Objekt wird. Hierin liegt eine der derzeitigen Gefahren, denn Maschinen k\u00f6nnen nicht per se handeln, da ihnen ein Bewusstsein bzw. auch Intelligenz (viele Begriffe, wie KI oder &#8222;autonomes Fahren&#8220; sind laut Prof. Wallacher unscharf) fehlt. Trotzdem sei &#8222;Bildung zur digitalen M\u00fcndigkeit&#8220; absolut n\u00f6tig, um die Nutzungs- bzw. Gestaltungshoheit zu behalten. Deren Inhalte w\u00e4ren eine genauere Begriffsdefinition vieler &#8222;Digitalph\u00e4nomene&#8220;, eine Bewusstwerdung der Subjektivierung des Menschen und ein gesetzter ethischer Ordnungsrahmen.<\/p>\n<p>Sehr anschaulich und f\u00fcr meinen Geschmack eines der Highlights der Tagung war der Auftritt von <strong>Prof. Dr. Alin Abu-Sch\u00e4ffer (Deutsches Zentrum f\u00fcr Luft- und Raumfahrt Oberpfaffenhofen)<\/strong>, der \u00fcber den Stand der heutigen Robotik referierte. Roboter k\u00f6nnen, das war mir so auch nicht bewusst, neben einem Beitrag zur industriellen Wettbewerbsf\u00e4higkeit, auch in Gesundheit und Pflege &#8211; gerade in Zeiten des demographischen Wandels einen wichtigen Beitrag zur Sicherung unseres Wohlstands leisten. Im Weltraum gehen diese dann den Fragen nach dem Leben und der Intelligenz nach, indem sie das Sonnensystem erkunden und die Weltrauminfrastruktur in Gang halten. Erstaunliches ist hier bereits jetzt m\u00f6glich: &#8222;Roboter-Avatare&#8220; k\u00f6nnen \u00fcberall auf der Erde oder sogar im Weltraum gesteuert werden, Operationen wie im letzten (eher missgl\u00fcckten) Tatort millimetergenau vollzogen werden, bewegungseingeschr\u00e4nkten Personen kann zum Beispiel das Trinken oder das Zudecken erm\u00f6glicht werden. Abu-Sch\u00e4ffer r\u00e4umte en passent auch mit einigen Vorurteilen auf. So werden aufgrund des demographischen Wandels in den n\u00e4chsten Jahren so viele Personen in Rente gehen, dass die Digitalisierung diesen sicher nicht die Arbeitspl\u00e4tze in diesem Tempo so schnell wegnehmen kann. Eher entstehen neue Berufe wie ein &#8222;Pflegetechniker&#8220;, der die dazugeh\u00f6rigen medizinischen Roboter wartet und einsatzbereit macht. Die Akzeptanz dieser Helfer sei recht hoch, &#8222;wenn der Patient das Gef\u00fchl hat, dass der Roboter seinem Willen gehorcht&#8220;. Auf jeden Fall sei Europa in Sachen Robotik nicht, wie oft behauptet, abgeh\u00e4ngt, denn sowohl bei der Zuverl\u00e4ssigkeit als auch bei der Idee KI und Mechanik \/ Bionik miteinander zu fusionieren sei man an einer Schwelle diese Ziele zu erreichen. Nach dem Grundsatz &#8222;understanding by recreating&#8220; k\u00f6nne man mittlerweile auch selbst eigene Thesen aufstellen, wie biologische Abl\u00e4ufe sich vollziehen. Mit einer gewagten Prognose endete Abu-Sch\u00e4ffer: &#8222;Wahrscheinlich wird es in 200 Jahren nicht die Roboter und uns geben, sondern irgendwas dazwischen.&#8220;&#8220;<\/p>\n<p>Im abendlichen Akademiegespr\u00e4ch am See pr\u00e4sentierte daran anschlie\u00dfend <strong>Prof. Dr. Ina Ebert (Munich RE)<\/strong> die Sicht der Versicherer aufs autonome Fahren. Zun\u00e4chst ist wichtig zu sagen, dass sich die Technik momentan auf dem sog. Level 3 befindet (Fahrer kann Kontrolle ganz abgeben, muss aber \u00fcbernahmebereit bleiben). Dies ist bei den derzeitigen Stra\u00dfenverh\u00e4ltnissen, einem sog. Mischverkehr, auch das Maximum des M\u00f6glichen. Interessanterweise ist seit 2014 das autonome Fahren auch rechtlich abgedeckt, da das &#8222;Wiener \u00dcbereinkommen \u00fcber den Stra\u00dfenverkehr von 1968&#8220; im entscheidenden Artikel 8 &#8222;F\u00fchrer&#8220; eine Level 3 gem\u00e4\u00dfe Erg\u00e4nzung erhielt. Auch die StVG wurde 2017 (eine \u00dcberpr\u00fcfung dessen soll 2020 erfolgen) um diese Entwicklungsschritte hin erg\u00e4nzt, die Haftungssumme bei autonomem Fahren z. B. auf 10 Mio \u20ac angehoben. Die Ethik-Kommission sah 2017 den Schutz des Menschen als oberstes Gut an, es solle kein Zwang zum Nutzen automatisierter Systeme geben, auch wenn diese sicherer sein sollten. Bei Dilemmasituationen solle das Prinzip der Unfallvermeidung gelten und keine Opferaufrechnung stattfinden (vgl. Denkspiel &#8222;Moral Machine). Auch die Datenerhebung solle sparsam erfolgen, eine Blackbox in die Fahrzeuge integriert sein. Sehr anschaulich wurde dann erkl\u00e4rt, dass die Regelungen in den L\u00e4nder Deutschland, GB und USA v\u00f6llig unterschiedlich sind und neue Haftungsfragen auf die Versicherer zukommen. Es steht die Frage im Raum, dass ggf. die Produkthaftung die Autohaftpflicht &#8222;\u00fcberholen&#8220; k\u00f6nnte, da weniger Unf\u00e4lle durch menschliches Versagen zu erwarten sind. Wie sieht aber die Sache aus, wenn Malware oder Hacking ins Spiel kommen? Haftet der Software- oder der Autohersteller? Wie sind Updates versicherungsrechtlich einzuordnen? \u00c4ndert sich der Deckungsbedarf der Versicherten? Letztlich ist immer die Akzeptanz durch den Menschen ausschlaggebend daf\u00fcr, wie sich dieses Thema weiterentwickelt. Die anschlie\u00dfende Diskussion zeigte ganz klar, dass das Level 3 noch zu unattraktiv f\u00fcr die Fahrer ist und dass das heutige Autofahren in den USA schon jetzt deshalb recht riskant ist, da hier oft nur Deckungssummen von 20 000 US-Dollar abgesichert sind.<\/p>\n<p>Vor allem die Risiken betonte <strong>Prof. Dr. Christina B. Class (Ernst-Abbe-Hochschule Jena)<\/strong> in ihrem Vortrag zu den Themen Gesichtsscreening, Verhaltensprognose und Social Screening. Neu war zun\u00e4chst f\u00fcr mich, dass dieses Ph\u00e4nomen keine Erfindung der Digitalisierung ist. Schon 1927 wurde mit der Schufa begonnen, die Verkaufsdaten von Personen zu analysieren. Dass durch &#8222;Textmining\/Sentimentanalyse&#8220; mittlerweile auch die Spracherkennung zur Datenerhebung genutzt wird, wurde mehrfach betont. Auch die verschiedenen Einsatzszenarien von Social Screening bei &#8222;(politischen) Einstellungen, \u00dcberwachen von Angestellten und Visa-\/Reiseerlaubnissen&#8220; f\u00fchrte zu einem recht negativen Duktus des Vortrags, der zwar die richtigen Fragen stellte (Wie bewahren wir uns unsere Autonomie?), aber stets den &#8222;Worst Case&#8220; unterstrich. Leider wurde auch in der Diskussion nicht nach positiven Einsatzm\u00f6glichkeiten gefragt, so dass hier ein aus meiner Sicht etwas unfertiges Bild \u00fcberblieb. Im Umgang im Unterricht sollte man daher aus meiner Sicht dieses Thema immer unter dem Aspekt der Datenautonomie behandeln. Sch\u00fcler sollten m\u00fcndig mit ihren Daten umgehen, vor allem auch deshalb, da heutige Handlungen auch erst in 20 Jahren f\u00fcr sie relevant sein k\u00f6nnten.<\/p>\n<p><strong>Dr. Karl Teille (Volkswagen AutoUni)<\/strong> forschte dann nach der Rolle des Menschen, &#8222;wenn Systeme anfangen zu denken&#8220;. Nachdem zum Einstieg auf die Einzigartigkeit des homo sapiens, z. B. durch seine soziokulturellen F\u00e4higkeiten, hingewiesen wurde, wurden die Grenzen unserer Welt im historischen Abriss von Hubble bis Gore definiert. Die Digitale Revolution verbreitet immer vielschichtigere Softwaresysteme (ein PKW der Premiumklasse hat bis zu 100-mal komplexere Softwaresysteme als ein Kampfjet) und bietet eine Reihe von Chancen, die Dr. Teille nicht zuletzt immer mit dem Bezug zur Verlangsammlung des Klimawandels in Verbindung brachte. Hierbei interessant: Letztlich verbraucht z. B. ein Gehirn deutlich weniger Energie als ein heutiger Supercomputer, was auch an seinem Entwicklungsvorsprung von ca. 2 Mio Jahren liegt. Immer noch kann der Mensch schnellere Transferleistungen und Kontextwechsel vollziehen, ist der Maschine also auch in kognitiven Bereichen teilweise noch deutlich \u00fcberlegen. Daher wird es auch nicht zur Utopie Raymond Kurzweils kommen, der die KI ab 2045 die menschliche Intelligenz \u00fcberholen sieht. Ethisches Verhalten und die Nutzung der digitalen M\u00f6glichkeiten sollten Hand in Hand gehen, damit Unternehmen und Kunden davon profitieren k\u00f6nnen und der Mensch Subjekt bleiben kann.<\/p>\n<p>Zum Abschluss der Tagung wurden dann in drei Kurzimpulsen von <strong>Prof. Dr. Stefan Selke (Hochschule Furtwangen)<\/strong>, <strong>Anja Schaar-Goldapp (Softwareunternehmerin)<\/strong> und <strong>Hannes-Vincent Krause (Weizenbaum-Institut Berlin)<\/strong> Diskussionsforen zu den Themen &#8222;Lifelogging und Self-Tracking&#8220;, &#8222;Wirtschaftsfaktor Ethik&#8220; und &#8222;Wandel der Liebe durch Online-Dating&#8220; er\u00f6ffnet. Hier lassen sich folgende Ergebnisse festhalten:<\/p>\n<ul>\n<li>Lifelogging als Vermessung des Seins ist eine Art Blackbox f\u00fcr Menschen<\/li>\n<li>Der Mensch kann zum &#8222;indizierten Menschen&#8220; werden, was den Lebensumfang reduziert und ihn zur Zahl werden lassen kann<\/li>\n<li>Viele Tracking-Tools sind keine Werkzeuge, sondern smarte Objekt mit (zu?) korrelativer Macht<\/li>\n<li>Lifelogging erzeugt neuartige Digitale Vulnerabilit\u00e4ten<\/li>\n<li>Die Irrationalit\u00e4t des Menschen sollte gef\u00f6rdert werden, dies macht ihn aus (Das Erz\u00e4hlen muss auch weiterhin seine Berechtigung haben; trotz teilweise l\u00fcckenloser, digitaler Aufzeichnung des Lebens)<\/li>\n<li>KI sollte nicht \u00fcber Arbeitspl\u00e4tze und -chancen bestimmen<\/li>\n<li>Die Verf\u00fcgbarkeit von m\u00f6glichen Online-Partnern kann \u00fcberfordern<\/li>\n<li>Das textbasierte Flirten erh\u00f6ht die Erfolgschancen und kann ein genaueres Bild des Charakters erzeugen<\/li>\n<li>Die Profile auf Online-Partnerb\u00f6rsen sind dennoch recht plakativ und oberfl\u00e4chlich, gerade auch bei genutzten Algorithmen bei Partnervorschl\u00e4gen (meist \u00fcber Bildvorschl\u00e4ge)<\/li>\n<\/ul>\n<p>Insgesamt kann ich nur dazu ermuntern, derartige Veranstaltungen au\u00dferhalb der Lehrer-Bubble zu besuchen. Wie &#8222;das Ganze&#8220; zusammenh\u00e4ngt und wie der Stand wirklich ist, erf\u00e4hrt man nun doch am besten immer noch von den Experten selbst. Wenn dies dann noch im stimmungsvollen Ambiente des Starnberger Sees geschieht, mag das zudem dem einzelnen &#8222;humanum&#8220; nicht abtr\u00e4glich sein.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Wenn mittlerweile &#8222;Offline statt Online&#8220; der Fehlzustand ist, dann stellt sich nat\u00fcrlich die Frage, was dies mit dem Menschen, dem Menschenbild sowie den Werten im digitalen Zeitalter macht. Diesen Aspekten ging vom 13. &#8211; 14.09. eine hochkar\u00e4tig besetzte Tagung an der Akademie f\u00fcr Politische Bildung in Tutzing nach, die unter [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":1946,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[6],"tags":[],"class_list":["post-1948","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-fortbildung"],"_links":{"self":[{"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/posts\/1948","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/comments?post=1948"}],"version-history":[{"count":8,"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/posts\/1948\/revisions"}],"predecessor-version":[{"id":1954,"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/posts\/1948\/revisions\/1954"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/media\/1946"}],"wp:attachment":[{"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/media?parent=1948"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/categories?post=1948"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/bayernedu.net\/index.php\/wp-json\/wp\/v2\/tags?post=1948"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}