Sie sind hier:
Alles fake? Deepfakes, KI-Betrug und die Auswirkungen auf die Gesellschaft
in Kooperation mit der vhs Böblingen-Sindelfingen e.V. und mit dem BayernLab Wunsiedel
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Künstliche Intelligenz (KI) entwickelt sich in einem atemberaubenden Tempo, aber mit den Chancen kommt auch das Potenzial für Missbrauch: Generative KI-Modelle werden immer besser darin, täuschend echte "Deepfakes" zu erstellen - also Audio- oder Videoaufnahmen von Personen, die allerdings nicht echt, sondern komplett digital erstellt sind. Während sich die Technologie für Film und Fernsehen legitim nutzen lässt, so birgt sie doch ein großes Missbrauchspotenzial: Desinformation, Verleumdung und Betrug, wie z.B. der "Enkelkindertrick 2.0".
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Künstliche Intelligenz (KI) entwickelt sich in einem atemberaubenden Tempo, aber mit den Chancen kommt auch das Potenzial für Missbrauch: Generative KI-Modelle werden immer besser darin, täuschend echte "Deepfakes" zu erstellen - also Audio- oder Videoaufnahmen von Personen, die allerdings nicht echt, sondern komplett digital erstellt sind. Während sich die Technologie für Film und Fernsehen legitim nutzen lässt, so birgt sie doch ein großes Missbrauchspotenzial: Desinformation, Verleumdung und Betrug, wie z.B. der "Enkelkindertrick 2.0".
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
Sie sind hier:
Alles fake? Deepfakes, KI-Betrug und die Auswirkungen auf die Gesellschaft
in Kooperation mit der vhs Böblingen-Sindelfingen e.V. und mit dem BayernLab Wunsiedel
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Künstliche Intelligenz (KI) entwickelt sich in einem atemberaubenden Tempo, aber mit den Chancen kommt auch das Potenzial für Missbrauch: Generative KI-Modelle werden immer besser darin, täuschend echte "Deepfakes" zu erstellen - also Audio- oder Videoaufnahmen von Personen, die allerdings nicht echt, sondern komplett digital erstellt sind. Während sich die Technologie für Film und Fernsehen legitim nutzen lässt, so birgt sie doch ein großes Missbrauchspotenzial: Desinformation, Verleumdung und Betrug, wie z.B. der "Enkelkindertrick 2.0".
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Künstliche Intelligenz (KI) entwickelt sich in einem atemberaubenden Tempo, aber mit den Chancen kommt auch das Potenzial für Missbrauch: Generative KI-Modelle werden immer besser darin, täuschend echte "Deepfakes" zu erstellen - also Audio- oder Videoaufnahmen von Personen, die allerdings nicht echt, sondern komplett digital erstellt sind. Während sich die Technologie für Film und Fernsehen legitim nutzen lässt, so birgt sie doch ein großes Missbrauchspotenzial: Desinformation, Verleumdung und Betrug, wie z.B. der "Enkelkindertrick 2.0".
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
-
Gebührkostenlos
- Kursnummer: LSE11100
-
StartMo. 30.09.2024
19:00 UhrEndeMo. 30.09.2024
20:00 Uhr
Dozent*in:
Nicolas Müller
Geschäftsstelle: Selb