Technologie und Gesellschaft Wie Hostile Tech zu Responsible Tech werden kann
Anbieter zum Thema
Technologien besitzen häufig die Macht, sich negativ auf die Gesellschaft auswirken zu können. Wie können Unternehmen dabei Künstliche Intelligenz, Robotik oder das Internet der Dinge verantwortungsvoll und im Sinne ihrer Stakeholder einsetzen und steuern?
Technologien spielen in unserem Alltag eine immer wichtigere Rolle. Eine Entwicklung, die auch dazu führt, dass vermehrt Entscheidungen und Aufgaben an besagte Technologien übertragen werden. Einher geht das mit Fragen nach ethischen Prinzipien und Werten, auf denen diese beruhen. Viele Unternehmen sind sich mittlerweile bewusst, dass die von ihnen geschaffenen Technologien nicht im luftleeren Raum agieren. Sie können gesellschaftspolitischen Machtdynamiken unterliegen und damit weitreichende Auswirkungen haben. Wo aber fangen solche Überlegungen an?
Eine Frage der Perspektive
Grundsätzlich gehen wir erst einmal davon aus, dass Technologie uns unterstützen und bereichern soll. Doch wie überall, gibt es auch hier eine zweite Seite der Medaille: Kriminelle Aktivitäten im Bereich digitaler Technologien sind ein Teil dessen, was wir geschaffen haben. Dazu haben wir noch etwas anderes hervorgebracht: Eine Technologie, die aufgrund von schlechtem Design, gierigen Stakeholdern und Stakeholderinnen oder Unwissenheit schädlich für Menschen sein kann. „Feindselige“ Technologie, bzw. Hostile Tech, ist also nicht nur ein Hackerangriff oder ein Identitätsdiebstahl. Genauso kann zum Beispiel Online-Werbung von Nutzern und Nutzerinnen als Bedrohung eingeordnet werden. Während einige Menschen personalisierte Werbung als praktisch empfinden, nehmen andere die dadurch gesammelten, personenbezogenen Daten als Bedrohung wahr.
Melden Sie sich an oder registrieren Sie sich und lesen Sie weiter
Um diesen Artikel vollständig lesen zu können, müssen Sie registriert sein. Die kostenlose Registrierung bietet Ihnen Zugang zu exklusiven Fachinformationen.
Sie haben bereits ein Konto? Hier einloggen