FIfF-Kommunikation 3/2023 erschienen
Gute Arbeit bedeutet Teamarbeit mit qualifizierten Beschäftigten, sie ist sicher und entwicklungsförderlich, wird fair bezahlt, umfasst einen präventiven Gesundheitsschutz und gute Führung, ist beteiligungsorientiert. Technik wird als Hilfsmittel, nicht zur Steuerung und Kontrolle eingesetzt. Menschen sollen die Kontrolle behalten. Wie sich die Anforderung der Intervenierbarkeit in der Human-Centered Artificial Intelligence (HCAI) umsetzen lässt, beschreiben Thomas Herrmann und Christoph Lentzsch in ihrem Beitrag. Die These von Moritz Niehaus und Jürgen Klippert ist, dass durch Manufacturing Execution Systems (MES) ohne kritische Begleitung von aktiven Betriebsräten die Totalüberwachung von Beschäftigten droht. Sie zeigen aber auch, dass gut gestaltete MES solche Risiken vermeiden können und sogar Arbeitserleichterungen möglich sind.
Es kommt auf die Machtverhältnisse im Betrieb an, wie weit die Eigentümer der Produktionsmittel diese Anforderungen umsetzen. Markus Hoppe zeigt in seinem Beitrag, wie schwierig es für die Interessenvertretung der Beschäftigten im Betrieb ist, frühzeitig an Informationen zum Transformationsgeschehen zu kommen. Besonders KMU haben selten einen Betriebsrat. Stephanie Porschen-Hueck beschreibt ein Projekt, in dem es aber doch funktioniert, Kunden, Beschäftigte und Software-Entwicklung beteiligen sich gemeinsam daran, diese Anforderungen zu definieren. An diesem Projekt zeigt sich, was auch Christoph Schmitz ausführt: Wenn die Technik im Arbeitsprozess eingesetzt werden soll, heißt es, direkt auch die Arbeitsbedingungen gut zu gestalten und von vornherein mitzudenken.
KI wird in der Arbeitswelt durchaus gewünscht, wie Sabine Pfeiffer zeigt. Ihr Beitrag stellt Ergebnisse einer repräsentativen Erhebung vor und konzentriert sich vor allem auf Beschäftigte im Gesundheits-/Sozialwesen und der Logistik. Frank Steinwender verweist auf die problematischen Seiten der allgemeinen Automatisierung. Das Betriebsverfassungs-Gesetz stößt an Grenzen, wenn Software nahezu täglich aktualisiert wird. Weder das Unternehmen noch die Betriebs- und Personalräte können darauf bestehen, dass Betriebsvereinbarungen entweder laufend angepasst oder Software ohne Zustimmung der betrieblichen Interessenvertretung eingesetzt werden. Welche Praktiken bereits im Einsatz sind und ob sie sich bewähren, beschreiben sowohl Karin Schuler/Thilo Weichert als auch Hoppe in ihren Beiträgen. Der Gesetzgeber muss tätig werden und die verschiedenen Konzepte auf eine rechtlich erzwingbare Grundlage stellen.
Ein wesentlicher Aspekt der aktuellen Entwicklungen ist die Künstliche Intelligenz, die in den letzten Jahren wieder eine beschleunigte Entwicklung nimmt, zuletzt in Form der Generativen Künstlichen Intelligenz und den Large Language Models (LLM), die in Systemen wie ChatGPT zum Einsatz kommen. Immer wieder kommt die Frage auf, wie sich diese Modelle und Systeme auf Arbeitsplätze auswirken – eine wohlbekannte Diskussion bereits seit den 1970er- und 1980er-Jahren. Doch heute sind auch zunehmend hochqualifizierte Berufe betroffen. „Noch sind keine massenhaften Entlassungen zu erkennen, manche Unternehmen setzen KI aber als Drohmittelein, wie auch die NGO AlgorithmWatch schreiben: ,Generative Modelle sind keine Arbeitsplatzkiller. Sie werden uns wahrscheinlich dabei helfen, manche Aufgaben zu bewältigen. Sie können uns aber auch noch mehr von unsererArbeit entfremden und sich negativ auf die Qualität vonDienstleistungen auswirken.‘“
Neben den Auswirkungen auf die Arbeit spielt auch das Militär eine wesentliche Rolle für die Entwicklung Künstlicher Intelligenz. Ein wichtiger Treiber für die Entwicklung von Technik ist leider immer wieder das Ziel, möglichst effektiv Menschen zu töten. Karl Hans Bläsius und Jörg Siekmann, unermüdliche Warner vor einem durch unkontrollierte Technik verursachten Atomkrieg aus Versehen, kommentieren das Ein-Satz-Statement, das vor den Risiken der Künstlichen Intelligenz für das Fortbestehen der Menschheit warnt: „Mitigating the risk of extinction from AI should be a globalpriority alongside other societal-scale risks such as pandemics and nuclear war.“ Sie nennen dabei als Beispiele u. a. autonome Waffensysteme, unkalkulierbare Wechselwirkungen zwischen Künstlicher Intelligenz und Atomwaffen und allgemein die Veränderung der Kriegführung durch Künstliche Intelligenz.
Außerdem werden in Beiträgen aus Netzpolitik.org weitere Themen behandelt. Daniel Leisegang schreibt über den Einfluss von Empfehlungsalgorithmen sozialer Plattformen auf politische Einstellungen. Anna Biselli schreibt über das Kommando Cyber- und Informationsraum, Ingo Dachwitz untersucht, wie präzise uns die Online-Werbeindustrie in Kategorien einordnet. Bianca Kastl kommentiert die Effizienz der Verwaltungsmodernisierung.
Das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) e. V. ist ein deutschlandweiter Zusammenschluss von Menschen, die sich kritisch mit Auswirkungen des Einsatzes der Informatik und Informationstechnik auf die Gesellschaft auseinandersetzen.
Unsere Mitglieder arbeiten überwiegend in informatiknahen Berufen, vom IT-Systemelektroniker bis hin zur Professorin für Theoretische Informatik. Das FIfF wirkt in vielen technischen und nichttechnischen Bereichen der Gesellschaft auf einen gesellschaftlich reflektierten Einsatz von informationstechnischen Systemen zum Wohle der Gesellschaft hin. Zu unseren Aufgaben zählen wir Öffentlichkeitsarbeit sowie Beratung und das Erarbeiten fachlicher Studien.
Zudem gibt das FIfF vierteljährlich die „FifF-Kommunikation – Zeitschrift für Informatik und Gesellschaft“ heraus und arbeitet mit anderen Friedens- sowie Bürgerrechtsorganisationen zusammen…und mehr lesen unter www.fiff.de
Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e.V.
Goetheplatz 4
28203 Bremen
Telefon: +49 (421) 336592-55
Telefax: +49 (421) 336592-56
http://www.fiff.de
E-Mail: redaktion@fiff.de
E-Mail: presse@fiff.de