Videoarchiv

Alle Vorträge und Diskussionen zum Nachsehen

Ein ganzes Wochenende lang diskutierten Expert:innen aus KI-Forschung, Wissenschaft, Politik, Kultur und Zivilgesellschaft darüber, was mit dem schillernden Begriff der Künstlichen Intelligenz überhaupt gemeint ist, für welche Probleme ihr Einsatz Lösungen bieten kann und welche bestehenden gesellschaftlichen Konflikte KI-Anwendungen andererseits verstärken und womöglich selbst erst hervorbringen:

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

 (Vorschaubild zum Video)

2062: The Promise and the Peril of our Artificially Intelligent Future (en/de)

Prof. Dr. Toby Walsh, Informatiker und KI-Forscher, University of New South Wales, Sydney /Australien

WATCH THE VIDEO IN ENGLISH

Bis zum Jahr 2062 werden wir Maschinen entwickelt haben, die so intelligent sind wie wir, prognostiziert Toby Walsh, einer der weltweit führenden Wissenschaftler auf dem Feld der künstlichen Intelligenz und weiß sich darin mit der Mehrheit der KI-Forscher:innen einig. Wird der homo sapiens dann vom homo digitalis abgelöst? Welche Weichen müssen heute gestellt werden, um uns auf diese Zukunft vorzubereiten? In seiner Keynote schlägt Toby Walsh einen Bogen von der Geschichte der KI-Forschung und ihren Fragestellungen über die Gegenwart bis in eine Zukunft, die viele von uns noch erleben könnten. Er erläutert, in welchen Eigenschaften KI uns überlegen ist, worin andererseits der Mensch unschlagbar ist und geht auf Chancen wie Gefahren in unserer Co-Existenz mit Künstlicher Intelligenz ein.

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

Baecker Kaltheuner DE (Vorschaubild zum Video)

Ordnende Muster im Chaos des Sozialen? Künstliche Intelligenz und gesellschaftliche Regulierung (de)

Referent:innen: Prof. Dr. Dirk Baecker, Soziologe, Universität Witten/Herdecke; Frederike Kaltheuner, Analystin für Technologiepolitik, London
Moderation: Eva Wolfangel, Wissenschaftsjournalistin

Ansätze der statistischen Erfassung von Menschen und sozialen Phänomenen lassen sich bis ins frühe 19. Jahrhundert zurückverfolgen. Sie sind verknüpft mit dem Bestreben nach Kontrolle und Regulierung des gesellschaftlichen Lebens. Mustererkennung, wie sie gegenwärtige KI-Verfahren leisten, ist daher keineswegs ein neues Phänomen. Das Panel widmet sich der Frage, was es bedeutet, wenn gesellschaftliches Leben als Datensatz erfasst und nach statistischen Verteilungen kategorisiert und klassifiziert wird. Welche Möglichkeiten und Gefahren bringt der Einsatz von KI heute mit sich? Welche gesellschaftlichen Probleme, die sich vorher so vielleicht gar nicht stellten, geraten durch Mustererkennung in Big Data erst in den Blick?

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

DHMD08 DE (Vorschaubild zum Video)

Künstliche Intelligenz: Wobei kann sie uns helfen, und was sollten wir wissen, um sie sinnvoll zu nutzen? (de)              

Referentin: Prof. Dr. Elisabeth André, Informatikerin und KI-Forscherin, Universität Augsburg

mit Übersetzung in Deutsche Gebärdensprache

Mittlerweile kommen wir alle fast tagtäglich mit Techniken der Künstlichen Intelligenz in Berührung. Zu den prominenten Beispielen gehören Sprachassistentinnen wie Alexa und Siri, die Auskunft zum Wetter geben, an wichtige Termine erinnern oder auf Sprachkommando Heizung und Licht regeln. In der diagnostischen Medizin unterstützen Techniken der Künstlichen Intelligenz Ärzt:innen bei zentralen gesundheitskritischen Entscheidungen. In der industriellen Fertigung entlasten Roboter den Menschen bei der Durchführung von Montagearbeiten. Aber was kann Künstliche Intelligenz wirklich? Und welche Kompetenzen benötigen wir, um sie sinnvoll nutzen zu können? Hierzu soll der Vortrag einen Einblick geben.

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

DHMD11 DE (Vorschaubild zum Video)

Wie frei ist die KI-Demokratie? (Ent-)Politisierung durch Algorithmen (de)

Referent:innen: Anke Domscheit-Berg, Bundestagsabgeordnete der Fraktion „Die Linke“, Berlin; Prof. Dr. Jeanette Hofmann, Politikwissenschaftlerin, Freie Universität Berlin

Moderation: Eva Wolfangel, Wissenschaftsjournalistin

 

Social Media-Plattformen werden durch Algorithmen reguliert und deren Inhalte somit für Nutzer:innen automatisch vorgefiltert. Dies geschieht auf der Basis individueller Daten und mutmaßlicher Präferenzen, die Mechanismen bleiben größtenteils intransparent. Nutzer:innen können nur in begrenztem Maße selbst steuern, welche Inhalte sie zu sehen bekommen und wen sie mit ihren Beiträgen erreichen. Der durch Algorithmen gesteuerte Informationsfluss hat Auswirkungen auf die freie Meinungsbildung und damit auf ein zentrales demokratisches Prinzip: Algorithmen entscheiden (mit), wo Kontroversen und Probleme überhaupt erst sichtbar werden. Das Panel diskutiert: Wo wird der Einfluss von KI auf politische Prozesse unter- und wo vielleicht überschätzt? Wann entpolitisieren Anwendungen von KI gesellschaftliche Probleme und wie kann der Einsatz von KI andererseits dazu beitragen, neue Formen von Demokratie zu ermöglichen?

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

DHMD14 DE (Vorschaubild zum Video)

Intelligente Technik in den Händen weniger? Tech-Plattformen im digitalen Kapitalismus (de)

Referent:innen: Timo Daum, Autor, Leipzig; Prof. Dr. Jeanette Hofmann, Politikwissenschaftlerin, Freie Universität Berlin

Moderation: Dr. Florian Butollo, Forschungsgruppenleiter am Wissenschaftszentrum Berlin für Sozialforschung / Weizenbaum-Institut

 

 

Künstliche Intelligenz ist eingebettet in ein globales ökonomisches System, in dem Plattformunternehmen den Ton angeben und zunehmend selbst in der KI-Forschung dominant werden. Der Einfluss von Google, Facebook, Amazon & Co. geht dabei längst über wirtschaftliche Sphären hinaus. Sie sind wichtige Bühnen gesellschaftlicher Auseinandersetzungen und mächtige Akteure in politischen Prozessen. Unternehmensinterne Entscheidungen haben deutliche Folgen für Abermillionen von Nutzer:innen und ihr Einfluss wächst beständig. Was heißt es für Nutzer:innen der Plattformen, im Zweifelsfall deren Willkür ausgeliefert zu sein? Welche Ziele verfolgen die Tech-Giganten eigentlich? Welche Konsequenzen haben deren Pläne zur Nutzung künstlicher Intelligenz kurz- wie langfristig, für Individuen und Gesellschaft? 

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

DHMDD17 DE (Vorschaubild zum Video)

Das Schaufler Lab@TU Dresden: KI, Kunst und Wissenschaft (de/eng)

Referent:innen: Christian Kosmas Mayer, Künstler, Wien; Anton Ginzburg, Künstler, New York; Rebekka Roschy, Schaufler Kolleg@TU Dresden; Michael Klipphahn, Schaufler Kolleg@TU Dresden

Moderation: Gwendolin Kremer, Kuratorin, Schaufler Residency, Technische Universität Dresden

 

 

Im Oktober 2020 wurde das SCHAUFLER LAB mit dem Schaufler Kolleg und der Schaufler Residency an der TU Dresden eröffnet. Die Impulsvorträge und die Podiumsdiskussion geben erste Einblicke in die Projekte der beiden Künstler-Stipendiaten und in die Forschung der Wissenschaftler:innen vor Ort. Christian Kosmas Mayer (*1976 in Sigmaringen, lebt und arbeitet in Wien) und Anton Ginzburg (*1974 in St. Petersburg, lebt und arbeitet in New York), haben 2020/21 mit unterschiedlichen Disziplinen und Instituten der TUD für ihre künstlerische Forschung zusammengearbeitet – beispielsweise mit der Informatik, Mathematik, Biologie und der Kältetechnik. Korrespondierend dazu berichten die Schaufler-Kollegiat:innen Rebekka Roschy (Technikgeschichte) und Michael Klipphahn (Kunstgeschichte) von Fallbeispielen aus ihren Forschungen, die ebenfalls zwischen Kunst, KI und Technikgeschichte angesiedelt sind. 

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

GI10 ENG (Vorschaubild zum Video)

By whom and for whom? AI Ethics, Power, and the Problem of Representation (eng)

Referent:innen: Dr. Cynthia Bennett, Disability-Forscherin, Carnegie Mellon University; Dr. Tiara Roxanne, Künstlerin, Berlin; Dr. Nishant Shah, Kultur- und Medienwissenschaftler, ArtEZ University of the Arts

Moderation: Renata Ávila, Menschenrechtsanwältin und Aktivistin

 

Die KI-Forschung und Entwicklung ist schon immer mit bestimmten Absichten und Interessen ihrer Produzent:innen verbunden gewesen. Deren subjektive Vorstellungen, Fantasien und Wünsche haben einen wesentlichen Einfluss auf die konkrete Form und Funktion von KI-Anwendungen. Damit werden jedoch oft nur die sozialen Identitäten, Positionen und Interessen der Menschen repräsentiert, die an der Finanzierung und Produktion von KI beteiligt sind. Inwiefern stellt es ein Problem dar, dass Technik, die Millionen, wenn nicht Milliarden Menschen täglich nutzen, von bestimmten privilegierten sozialen Gruppen entwickelt wird, die dieser Technik ihre Projektion universeller Anliegen und Bedürfnisse einschreiben? Das Panel wird kritisch reflektieren, mit welcher Rhetorik und welchen Interessen KI-Verfahren präsentiert werden, zu wessen Nutzen die globale Verbreitung von KI ist und wem sie kaum etwas bringt oder gar schadet.

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

GI13 ENG (Vorschaubild zum Video)

Alternative AI Futures? (eng)

Referent:innen: Prof. Jason Edward Lewis, Medientheoretiker, Concordia University; Kathleen Siminyu, Informatikerin und Ingenieurin, Kilifi, Kenya; Priya Donti, Doktorandin in Computer Science and Public Policy, Carnegie Mellon University.

Moderation: Dr. Abhishek Gupta, AI Ethics Forscher, Montreal AI Ethics Institute

 

 

 

Angesichts der dominanten Rolle, die große Konzerne in der Entwicklung und Verbreitung von KI-Verfahren spielen und der Berichte über immer effizientere Gesichtserkennungssysteme, die von politischen Akteur:innen zu Überwachungszwecken eingesetzt werden, entsteht schnell der Eindruck, das Künstliche Intelligenz nicht viel mehr ist als ein Instrument der Kontrolle für politische und ökonomische Zwecke. Aber was kann KI außerdem sein? Dieses Panel beschäftigt sich mit alternativen Anwendungsbeispielen von KI in gemeinschaftlichen und kreativen Projekten. Welche Möglichkeiten können Kollaborationen mit KI bieten, die außerhalb von Profitdenken und Machtinteressen stattfinden? Welche neuen Vorstellungen – von KI wie von den Menschen, die mit ihr interagieren – können dabei entstehen und welche neuen Welten werden denkbar?

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

GI16 Eng (Vorschaubild zum Video)

(Mis)Reading Human Emotions (eng)

Referent:innen: Dr. Alexa Hagerty, Anthropologin und STS-Forscherin, University of Cambridge; Dr. Jessica L. Tracy, Psychologin, University of British Columbia; Mushon Zer-Aviv, Künstler, Designer und Medienaktivist, New York und Tel Aviv

Moderation: Devon Schiller, Kultursemiotiker, Österreichische Akademie der Wissenschaften und Universität Wie

 

 

Fortschritte im Bereich KI verleiten häufig zu der Annahme, dass bald sämtliche menschliche Emotionen “ausgelesen” werden können, beispielsweise durch die (angeblich) fehlerfreie Erfassung und Deutung der menschlichen Stimme oder von Gesichtsausdrücken. Algorithmische Entschlüsselungssysteme sollen zukünftig Stellenbewerber:innen beurteilen, Grenzkontrollen erleichtern, Lügen von Strafverfolgten erkennen, eine attraktivere Gestaltung von Werbung ermöglichen und Krankheiten wie Demenz oder Depression diagnostizieren. So umstritten wie diese Anwendungsfelder sind auch die Grundlagen, auf die sich die Forschungen für die Entwicklungen dieser Technologie stützen. So werden bis heute die Feldstudien des US-amerikanischen Psychologen Paul Ekman aus den 1960er und 1970er Jahren herangezogen, die davon ausgehen, dass emotionale Ausdrücke universell sind. In diesem Panel sprechen wir über die Gefahren der Annahme, jedes Gesicht agiere als lesbares Gefühlsorakel, sowie auf einer darauf fußenden Beeinflussung des Menschen. Ausgehend von psychologischen Forschungen auf dem Feld der Emotionen werden künstlerische und spielerische Interventionen vorgestellt, die das öffentliche Verständnis für die Systeme zur Erkennung von Gesichtern und Emotionen fördern wollen.

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

DHMD25 DE (Vorschaubild zum Video)

Wessen Intelligenz? Lernen und Handeln zwischen Bewusstsein, Maschine und Umwelt (de)

Referent:innen: Prof. Dr. Dirk Baecker, Soziologe, Universität Witten/Herdecke; Prof. Dr. Susanne Narciss, Psychologin und Lernforscherin, Technische Universität Dresden, Prof. Dr. Tim Landgraf, Informatiker mit dem Forschungsschwerpunkt „Collective Intelligence and Biorobotic“, Dahlem Center for Maschine Learning and Robotics Berlin

Moderation: Blanka Weber, Journalistin, Erfurt

 

In gegenwärtigen Diskussionen um künstliche Intelligenz ist oft von smarten Geräten, adaptiven Verfahren und automatisch optimierten Entscheidungen die Rede. Doch wird dabei selten explizit reflektiert, was eigentlich genau das Intelligente an maschinellem Lernen ist und woran sich die Leistungen der Maschinen messen sollten. Was verbirgt sich hinter dem Konzept der Intelligenz und sollte zwischen verschiedenen Formen von Intelligenz – etwa menschlicher, sozialer, technischer oder künstlerischer – unterschieden werden? Was trennt diese verschiedenen Formen und was verbindet sie? 

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

DHMD28 DE (Vorschaubild zum Video)

Künstliche Dummheit? Unfälle und Täuschungen technischer Intelligenz (de)

Referent:innen: Prof. Dr. Elisabeth André, Informatikerin und KI-Forscherin; Robert Geirhos, Informatiker (Forschungsschwerpunkt Deep Learning), Universität Tübingen; Jun. Prof. Dr. Moritz Ingwersen, Kulturwissenschaftler, Technische Universität Dresden  

Moderation: Ariana Dongus, Medienwissenschaftlerin, HfG Karlsruhe

 

Als ‚intelligent‘ darf Technik womöglich gelten, wenn ihr Einsatz Lösungen für Probleme liefert, auf die sonst niemand hätte kommen können. Was aber, wenn sie nicht wie erhofft funktioniert und Ergebnisse produziert, die sich niemand gewünscht hatte? Wie kann man sich überhaupt sicher sein, dass sie funktioniert? Das Podiumsgespräch widmet sich den Momenten, in denen KI scheitert, ‚dumme‘ Outputs liefert oder ihre Produzent:innen täuscht. Außerdem wird es darum gehen, welche Ressourcen selbst für künstliche Dummheit verschlungen werden und was mit ausrangierter Technik passiert.

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

DHMD GI30 DE (Vorschaubild zum Video)

Reclaim our Future: Generation A = Algorithmus (eng)

Referent*innen: Irina Buzu, Free University of Moldova, Johannes Ebert, Goethe-Institut, München; Elena Falomo, Designerin, Ingenieurin und Künstlerin, Italien; Emilija Gagrcin, Weizenbaum-Institut, Berlin; Veit Ulrich, Pledge4Future, Heidelberg 

Moderation: Fernanda Parente, Kuratorin, Berlin

 

Mit dem Festival findet das Projekt Generation A=Algorithmus seinen Abschluss. Das zweijährige Projekt des Goethe-Instituts hat es sich zum Ziel gesetzt, junge Erwachsene für die technischen und ethischen Entwicklungen im Bereich KI zu sensibilisieren. Schließlich sind sie es, die die Weichen für die nächste Generation, die Generation A, und deren alltäglichen Umgang mit Algorithmen stellen. Wie wird deren Lebensrealität aussehen? Wohin wird sich die Schlüsseltechnologie des 21. Jahrhunderts entwickeln? Wie kann jeder einzelne und jede einzelne diese Entwicklungen beeinflussen? Diesen und anderen Fragen ging das Projekt mit verschiedenen Formaten wie Hackathons, Residenzprogrammen, Diskussionsreihen oder einer Online-Befragung unter jungen Erwachsenen nach. Beim Festival werden einige der Teilnehmenden aus ganz Europa Antworten geben und ihre Visionen von einem zukünftigen Leben mit KI präsentieren sowie debattieren.

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

GI24 ENG (Vorschaubild zum Video)

Indigenous Protocol - The Blind Spots of AI (eng)

Referent:innen: Prof. Angie Abdilla, Gründerin und Geschäftsführerin von Old Ways, New, Sydney; Dr. Tyson Yunkaporta, Autor, Kunstkritiker und Forscher, Queensland; Megan Kelleher, Doktorandin, Royal Melbourne Institute of Technology, Melbourne; Rick Shaw, Informatiker, Sydney

Moderation: Sara Cole Stratton, Founder, Maori Lab, New Zealand

 

Die bisherigen Entwicklungen im Bereich der Künstlichen Intelligenz sind eng verwoben mit Fragen der Kolonialisierung. Bestehende gesellschaftliche Vorurteile werden verschärft und Ungleichheiten vertieft. Die 2019 gegründete Indigenous Protocol and Artificial Intelligence (A.I.) Working Group begegnet diesem negative Narrativ mit der Entwicklung neuer konzeptueller und praktischer Herangehensweisen an das Design von KI-Systemen. Denn KI bietet unter anderem eine Möglichkeit, neu und anders über Menschen und Nicht-Menschen nachzudenken und eine weniger anthropozentrische Sichtweise einzunehmen. Wie kann die Diskussion über die Rolle von Technologie in der Gesellschaft über die weitgehend kulturell homogenen Forschungslabore und die Startup-Kultur des Silicon Valley hinaus erweitert werden? Und wie können indigene Perspektiven zur globalen Diskussion über KI beitragen?

 

Wenn Sie dieses Video abspielen, werden Informationen über Ihre Nutzung an den Betreiber des Videos (YouTube) übertragen und unter Umständen gespeichert.

GI27 ENG (Vorschaubild zum Video)

How to Fix Bias in Machine Translation (eng)

Referent*innen: Janiça Hackenbuchner, Dolmetscherin, Hamburg; Dr. Danielle Saunders, Informatikerin, Cambridge; Marvin Mouroum, Ingenieur, Berlin

Moderation: Prof. Dr. Simon Caton, Professor für Informatik, University College Dublin

 

Sprache definiert die Welt. Maschinen, die sie übersetzen, arbeiten an dieser Definition zwangsläufig mit. Obwohl KI-basierte Übersetzungstools stetig bessere Ergebnisse hervorbringen: In Bezug auf „Gender“ oder „Race“ weisen sie viele Mängel und Verzerrungen auf. Das Goethe-Institut, das für eine inklusive Sprache steht, entwickelt im Projekt „Artificially correct“ zusammen mit Expert:innen neue Tools, die den Bias in Übersetzungen minimieren. Damit soll die Stellung von Übersetzer:innen und ein bewusster Umgang mit Übersetzungsmaschinen gestärkt sowie die Realität möglichst vieler Menschen in den Übersetzungsprozess inkludiert werden. Bei diesem Panel zeigen Teilnehmer:innen und Jurymitglieder eines „Artificially correct Hackathons“ wie man das Bias-Problem konkret angehen kann.