Warum gibt es nicht DIE Künstliche Intelligenz?
Verschiedene Definitionen, Konzepte und Systeme; Intelligenz ist schon nicht eindeutig definierbar
Nenne mindestens drei KI-Chatbots.
ChatGPT, Claude, Perplexity, CoPilot usw.
OpenAI macht seit Jahren Verlust wird sich nicht mehr lange halten können.
Der Verlust beträgt 2026 voraussichtlich 12.1 Milliarden US-Dollar. CEO Sam Altman gibt sich bzgl. der Verluste entspannt. Expert*innen gehen aber davon aus, dass OpenAI in ein paar Jahren insolvent ist, wenn sich nichts ändert.
Wo gilt der AI Act?
Prinzipiell EU, aber auch für Anbieter, die KI-Systeme in der EU auf den Markt bringen oder in Dienst stellen.
Context Engineering ist die bewusste Entscheidung, welche Informationen in die KI eingespeist werden.
Wahr.
Was sieht aus wie KI, ist aber keine?
z. B. viele Chatbots
Warum ist es wichtig, KI-Ergebnisse zu überprüfen?
Fehleranfälligkeit → Risiko Schaden zu verursachen
Es gibt eine Plattform, auf der KI Jobangebote für Menschen einstellen kann.
Rentahuman.ai - Jobangebote werden aber von Menschen erstellt.
Bin ich Urheber*in meiner KI-generierten Bilder und Texte?
Nein. Schöpfungshöhe meist dafür nicht ausreichend.
Mit DeepL können Bilder erstellt, bearbeitet und verbessert werden.
Falsch. DeepL wird für Übersetzungen genutzt.
Was ist der Unterschied zwischen einer Schach-Software und einer Schach-KI?
Schach-Software: bekommt genaue Anweisung zu Spielzügen
Schach-KI: bekommt nur die Kern-Spielmechaniken und lernt dann basierend auf den eigenen Spielen
Wie sollte ein guter Prompt aussehen?
Struktur, Aufgabe, minimalistisch, präzise, Format der Ausgabe, Rolle, Stil usw.
Bei Burger King checkt eine KI, ob die Mitarbeiter*innen höflich sind und „bitte“ und „danke“ sagen.
Kein Gerücht. Wird aktuell in 500-US-Filialen getestet. KI-System „BK Assistant“ ist im Headset der Mitarbeiter*innen implementiert.
Warum sollte man personenbezogene Daten nicht in einem KI-Tool eingeben?
Verstoß gegen DSGVO, KI vergisst nichts, Weitergabe an Dritte, Gefahr des Identitätsdiebstahls usw.
KI kann nicht aus sich heraus innovativ und kreativ sein.
Wahr. Sie arbeitet immer auf Basis der Daten, die sie erhalten hat und kopiert diese teils 1:1.
Nenne drei Risiken und Probleme im Bezug auf KI.
Datenmenge, Black Box, Fehler, Ressourcenverbrauch, Ausbeutung von Menschen, Nutzung für Verbrechen, Katastrophales Vergessen, Diskriminierung/Vorurteile, Einsatz für Überwachung, Manipulation und Propaganda
Nenne 3 Warnsignale, die ein Hinweis darauf sein können, dass die KI-Ergebnisse falsch sind.
Keine konkreten Quellen, Selbstsicherheit, sehr detaillierte Antwort, einfache Lösungen bei komplexen Fragen, verschiedene Antworten, Sycophancy
Auf einer Webseite können sich KI-Assistenten/KI-Agenten miteinander „unterhalten“.
Funktioniert ähnlich wie Reddit. Die KI-Agenten imitieren menschliches Verhalten.
Nenne drei im AI Act verbotene KI-Praktiken.
Unterschwellige manipulative Techniken (Dark Pattern), Ausnutzen von Schwachstellen von Personen, soziale Bewertung, Vorhersage des Risikos zukünftiger Straftaten, Gesichtserkennung, Emotionserkennung
Deepfakes stellen eine Verletzung des Urheberrechts dar.
Falsch. Verletzung von Persönlichkeitsrechten.
Warum kann KI (aktuell noch) – im Gegensatz zu uns – nicht multipel intelligent sein?
Katastrophales Vergessen, spezialisiert auf einen bestimmten Anwendungsfall
Worauf solltet ihr bei der Auswahl eines KI-Tools für eine Aufgabe achten?
Ob Tool für diese Art von Aufgabe gemacht wurde, Nutzungsbedingungen, AGB, was mit eingegebenen Daten passiert, Fehlerquote, Firma (und deren Verwicklungen und Haltung, Interessen) dahinter → Gefahr von Bias usw.
Der Stromverbrauch von KI könnte bald den von Japan erreichen.
2025 machte KI 1,5% des weltweiten Stromverbrauchs aus. Laut Prognosen wird dieser 2030 in etwa dem Stromverbrauch Japans (ungefähr 3% des weltweiten Stromverbrauchs) entsprechen.
Welche Daten dürfen für das Training von KI verwendet werden?
Die dafür frei gegeben sind, keinen Lizenzen/Urheberrecht usw. unterliegen
KI-Chatbots wie ChatGPT sind eine gute Hilfe bei psychischen Problemen (z. B. Umgang mit Todesfall, Depression usw.) – vor allem, wenn man keinen Therapieplatz bekommt.
Nein. Es gibt KI-Chatbots die für solche Szenarien trainiert und durch Fachpersonal überwacht werden. Tools wie ChatGPT sollten aber wenn überhaupt nur bei kleineren persönlichen Problemen genutzt werden. Durch Sycophany kann eine Abhängigkeit zum KI-Chatbot entstehen, der verhindert, dass sich professionelle Hilfe gesucht wird. Zusätzlich kann Sycophany dazu führen, dass schädliche Gedanken oder Verhalten verstärkt werden.