WiKH_Generative KI(1)

Bild: Freepik

Di. 08.10.2024

Wie Generative Künstliche Intelligenz lernt: Und was sie bereits über uns weiß

Seit ChatGPT scheint generative Künstliche Intelligenz (K.I.) in aller Munde, dabei gibt es zahlreiche Large Language Models (LLMs), die allesamt auf dem Prinzip der natürlichen Sprachverarbeitung (im englischen Original: Natural Language Processing) und der sogenannten Transformer-Architektur basieren, die 2017 erstmals von Google Brain und Google Research vorgestellt wurde.

Diese Transformer-Architektur hat den Prozess der natürlichen Sprachverarbeitung nicht nur maßgeblich verbessert, sondern ermöglicht es dem Computer Sprachen besser als bisher zu übersetzen, bereits vorhandene Texte detaillierter zu verstehen und sogar neue Texte zu generieren.

In diesem Vortrag begeben wir uns daher auf eine Art Spurensuche, beginnen bei dem generierten Text eines LLMs und verfolgen über einen Einblick in die Transformer-Architektur den Weg zurück in die tiefen neuronalen Netze der generativen KI, um Falschinforationen und sogar Halluzinationen von LLMs bezüglich Menschen und Gesellschaften aufzudecken.

Freuen Sie sich auf einen Vortrag von Prof. Dr. Dennis Klinkhammer an der FOM Hochschule mit Fragerunde und K.I. zum Anfassen und Ausprobieren. Sie können ein neuronales Netz als Grundlage der K.I. vor Ort in die Hand nehmen und selbst trainieren.

Wann

08.10.2024
18:00 – 19:30 Uhr

Termin in den eigenen Kalender importieren

Wo

FOM Hochschule, Agrippinawerft 4, 50678 Köln | Raum 51

Kosten

Eintritt frei

Anmeldung

Unter diesem Link

Veranstalter

FOM Hochschule Köln

Referierende

Prof. Dr. Dennis Klinkhammer