Wenn selber Denken zu unbequem wird: KI, Komfort und kognitive Erosion?
14.05.2025 48 min
Wer heute Texte schreibt, Konzepte entwirft oder Entscheidungen vorbereitet, tut das immer öfter mit Unterstützung generativer KI. Die Tools versprechen Effizienz, Struktur, neue Perspektiven – und liefern oft genau das. Aber was passiert, wenn wir uns zu sehr darauf verlassen? In dieser Folge fragen wir: Verlernen wir gerade stillschweigend das Denken? Wir sprechen über die psychologischen Mechanismen hinter Cognitive Offloading, über neue Studien zu kritischer Urteilskraft im KI-Zeitalter – und darüber, warum eine Kern-Herausforderung bei KI nicht nur in fehlerhaften oder problematischen Daten und Tools liegt, sondern vor allem auch in unserem unkritischen Umgang mit ihr. Wir diskutieren, wie sich unsere Beziehung zu Wissen, Wahrheit und Verantwortung verändert, wenn wir Entscheidungen vorformulieren lassen, Argumente nicht mehr hinterfragen, und KI-Modelle unter anderem auch mit Desinformationen trainiert werden. Und wir klären: Wo liegt die Grenze zwischen hilfreicher Entlastung und mentaler Entmündigung? Eine Folge über Bequemlichkeit, Denkfaulheit, und die unbequeme Frage, wie viel Autonomie wir bereit sind aufzugeben – für ein bisschen Text oder ein hübsches Bild auf Knopfdruck. Seid gespannt auf eine differenzierte Auseinandersetzung – und teilt eure Gedanken mit uns! Diskutiert auf unseren Social-Media-Kanälen oder schreibt uns an codeundkonsequenz@gmail.com oder schaut auf unserem Insta-Kanal vorbei: instagram.com/codeundkonsequenz. Wir freuen uns auf eure Perspektiven! Links & Referenzen:Intro-Geschichten: Studio Ghibli, Y Combinator Supports AI St...
Tech for Good: Große Ideen oder leere Versprechen?
31.12.2024 39 min Lelia Hanslik & André Cramer
Ihr seid sicherlich schon über den Begriff Tech for Good gestolpert. Aber was bedeutet das eigentlich? In dieser Folge werfen wir einen kritischen Blick auf die Akteur*innen, die Technologie oder ihren Einsatz als Lösung für gesellschaftliche und ökologische Herausforderungen positionieren. Von NGOs und Start-ups bis hin zu globalen Tech-Konzernen – wer schreibt sich auf die Fahne, mit Technologie die Welt zu verbessern? Und wer bleibt eher bei bloßen Versprechungen? Wir erkunden, wie Transparenz, ethische Verantwortung und langfristiger Impact mit diesem Anspruch zusammenspielen. Gleichzeitig hinterfragen wir, wo die Grenzen solcher Initiativen liegen. Und wollen herausfinden, welche Risiken entstehen, wenn technologische Lösungen dann doch die systemischen Ursachen von Problemen ignorieren. Und kann soziale Innovation in einem kapitalistischen Wettbewerb bestehen? Oder verkommt Tech for Good allzu oft zum Marketing-Schlagwort? Phänomene wie Ethics Washing und Virtue Signaling stehen ebenso im Fokus wie die Frage, was Technologie wirklich „gut“ macht. Seid gespannt auf eine differenzierte Auseinandersetzung – und teilt eure Gedanken mit uns! Diskutiert auf unseren Social-Media-Kanälen oder schreibt uns an codeundkonsequenz@gmail.com oder schaut auf unserem Insta-Kanal vorbei: instagram.com/codeundkonsequenz. Wir freuen uns auf eure Perspektiven! Links zu Organisationen und Initiativen:Microsoft AI for Earth ProgrammTech to the RescuePlan A (Berliner Startup für CO₂-Reduktion)GUIDING LIGHT (Wiener NGO für ethische Technologieprojekte)BenevolentAICorrelaid ITU AI for g...
Generative KI zwischen Regeln und Realität: Wer bleibt legal beim Wettrennen um Trainingsdaten?
19.09.2024 53 min
In unserer zweiten Folge geht es um den unersättlichen Datenhunger von Large Language Models – und die Herausforderungen für diejenigen, die sie entwickeln und trainieren. Die Branche scheint im Panikmodus zu sein. Denn sie befürchtet, dass es schon bald nicht mehr genug hochwertige Daten geben könnte. Um ihre Modelle nicht nur auf dem neuesten Stand zu halten, sondern immer weiter zu verbessern. Und das führt zu harten Zeiten für die Integrität mancher Akteur:innen und teils mehr als fragwürdigen Praktiken. Will man etwa das GenAI-Wettrennen verlieren, nur weil man sich an Regeln hält? Wir nehmen diese Situation unter die Lupe und beleuchten, wie die großen Tech-Konzerne und KI-Vorreiter:innen agieren – und was das für Content-Anbieter:innen, Creators und uns alle bedeutet. Gibt es Wege, diese vermeintliche Krise zu meistern, ohne Gesetze und bewährte Praktiken zu beugen oder gar zu brechen? Hört rein und teilt sehr gerne eure Gedanken und Feedback mit uns! Links & Quellen: · Consent in Crisis: The Rapid Decline of the AI Data Commons (MIT Studie)· 2024 AI Index Report (Stanford University)· Your Personal Information Is Probably Being Used to Train Generative AI Models (Scientific American)· For AI firms, anything "public" is fair game (Axios)· For Data-Guzzling AI Companies, the Internet Is Too Small (Wall Street Journal)· Adobe Is Buying Videos for $3 Per Minute to Build AI Model (Bloomberg)· How Tech Giants Cut Corners to Harvest Data for A.I. (New York Times)· Video: Interview Wall Street Journal mit Ope...
KI-Perspektiven: Von „Tech First“ bis „Doomerism“ - wer trägt wie zur Debatte bei?
07.06.2024 54 min Lelia Hanslik & André Cramer
In unserer ersten Folge werfen wir einen Blick darauf, wer wie über KI spricht. Wir haben uns das Spektrum der wichtigsten Akteur*innen im Themengebiet KI angeschaut und einige klar voneinander abgegrenzte Perspektiven identifiziert. Was ist „KI-Doomismus“ und was ist eine „Tech-First“-Weltsicht? Und wie wird KI aus der Perspektive der „wirtschaftsliberalen Normalos“ bewertet? Und welche Perspektiven gibt es sonst noch? Was wird dort über Artificial (General) Intelligence - gesagt... und was über Regulierung? Fragen über Fragen... Seid dabei und hört zu. Wir freuen uns auf euer Feedback! Links & Quellen: Buch „Our AI Journey“: https://www.forum3.com/book-artificial-intelligence Sam Altman über „wann kommt AGI?“: https://www.youtube.com/watch?v=0G3GTKPGQGM, https://www.marketingaiinstitute.com/blog/sam-altman-ai-agi-marketing Marc Andreessen „Techno Optimist Manifesto“: https://a16z.com/the-techno-optimist-manifesto/ Eliezer Yudkowsky „AGI will kill us all”: https://www.lesswrong.com/posts/uMQ3cqWDPHhjtiesc/agi-ruin-a-list-of-lethalities?s=09Guardian Interview mit Meredith Whittaker: https://www.theguardian.com/technology/2023/jun/11/signals-meredith-whittaker-these-are-the-people-who-could-actually-pause-ai-if-they-wanted-to Doomsday to utopia - Meet AI’s rival factions: https://www.washingtonpost.com/technology/2023/04/09/ai-safety-openai/ Figure01 Roboter: https://www.heise.de/news/Humanoide-Roboter-OpenAI-bringt-Figure-01-zum-Sprechen-und-Denken-9655861.html “Meta’s AI Chief Yann LeCun on AGI, Open-Source, and AI Risk” https://time.com/6694432/yann-lecun-meta-...