KI für Ihr Unternehmen – Jetzt Demo buchen

Rücknahme einer Studie zur KI im Bildungsbereich: Herausforderungen und Forderungen an die Forschung

Kategorien:
No items found.
Freigegeben:
May 11, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Der schnelle Überblick

    • Eine vielbeachtete Studie zur positiven Wirkung von KI im Unterricht wurde aufgrund methodischer Mängel zurückgezogen.
    • Die Studie war eine Metaanalyse von 51 bestehenden Studien, die jedoch die Komplexität und den jungen Forschungsstand von ChatGPT nicht ausreichend berücksichtigte.
    • Experten kritisieren die mangelnde Qualität der Forschungslandschaft und fordern mehr hochwertige, menschenzentrierte Studien zu KI im Bildungsbereich.
    • Die Rücknahme der Studie wirft wichtige Fragen zur Qualitätssicherung in der Bildungsforschung und zur Vertrauenswürdigkeit von KI-Anwendungen auf.
    • Der Einsatz von KI im Unterricht erfordert eine differenzierte Betrachtung, die sowohl Chancen als auch Risiken für die kognitive und soziale Entwicklung der Lernenden berücksichtigt.

    Methodische Mängel führen zur Rücknahme einer KI-Studie im Bildungsbereich

    In der dynamischen Landschaft der Künstlichen Intelligenz (KI) und ihrer Integration in den Bildungssektor hat eine jüngste Entwicklung für Aufsehen gesorgt: Eine vielbeachtete Studie, die die positiven Effekte von KI-Tools im Unterricht hervorheben sollte, wurde vom renommierten Fachmagazin Nature zurückgezogen. Dieser Vorfall, über den unter anderem Ars Technica berichtete, wirft ein Schlaglicht auf die Herausforderungen und die Notwendigkeit robuster Forschung im Bereich KI-gestützter Bildung.

    Der Ursprung der Kontroverse: Eine Metaanalyse unter Beschuss

    Die zurückgezogene Studie war als Metaanalyse konzipiert, die 51 bestehende Untersuchungen zusammenfasste, um die kognitiven Auswirkungen von ChatGPT auf Lernende zu bewerten. Die Autoren kamen ursprünglich zu dem Schluss, dass ChatGPT einen "großen positiven Einfluss auf die Verbesserung der Lernleistung" sowie einen "mäßig positiven Einfluss auf die Verbesserung der Lernwahrnehmung und die Förderung des höheren Denkens" habe. Basierend darauf sprachen sie sich für eine aktive Integration von ChatGPT in verschiedene Lernmodi aus, insbesondere beim problemorientierten Lernen.

    Die Methodik dieser Metaanalyse stieß jedoch von Anfang an auf Skepsis. Kritiker bemängelten, dass ChatGPT ein vergleichsweise junges Phänomen ist und die Forschung zu seinen kognitiven Auswirkungen noch in den Kinderschuhen steckt. Ben Williamson, Dozent an der Universität Edinburgh und Forscher im Bereich digitale Bildung, äußerte gegenüber Ars Technica Bedenken, dass die Studie "teilweise sehr minderwertige Studien synthetisiert oder Ergebnisse von Arbeiten zusammengemischt" habe, die aufgrund unterschiedlicher Methoden, Populationen und Stichproben nicht vergleichbar seien. Er konstatierte, dass die Studie "von Anfang an nicht hätte veröffentlicht werden dürfen".

    Nature begründete die Rücknahme des Artikels mit "Bedenken hinsichtlich Unstimmigkeiten", die das Vertrauen in die Gültigkeit der Analyse und der daraus resultierenden Schlussfolgerungen untergraben hätten.

    Implikationen für die Bildungsforschung und -praxis

    Die Rücknahme dieser Studie ist von großer Bedeutung, da sie die Notwendigkeit hochwertiger und methodisch fundierter Forschung im Bereich KI im Bildungsbereich unterstreicht. Es wird deutlich, dass der Hype um KI nicht zu voreiligen Schlüssen führen darf, insbesondere wenn es um so sensible Bereiche wie die Entwicklung von Lernenden geht.

    Die aktuellen Entwicklungen zeigen, dass KI-Tools bereits fest im schulischen Alltag verankert sind. Eine Bitkom-Umfrage ergab, dass 23 Prozent der Schülerinnen und Schüler ihre Hausaufgaben mit KI-Tools erledigen lassen und genauso viele glauben, dass KI komplexe Sachverhalte besser erklären kann als ihre Lehrkräfte. Die Meinungen zur schulischen KI-Nutzung sind jedoch gespalten: Während 53 Prozent glauben, durch KI besser zu werden, sind 48 Prozent überzeugt, dass KI "dumm macht".

    Eine weitere Studie des Center for Universal Education der US-amerikanischen Brookings Institution, die Interviews und Diskussionsrunden mit über 500 Beteiligten in 50 Ländern sowie Hunderte bestehende KI-Studien auswertete, kam zu einem kritischen Ergebnis: Die Risiken generativer KI im Bildungsbereich würden die Vorteile derzeit deutlich überwiegen und die soziale sowie intellektuelle Entwicklung junger Menschen ernsthaft gefährden. 65 Prozent der befragten Schülerinnen und Schüler äußerten die Sorge vor einem langfristigen Rückgang ihrer kognitiven Fähigkeiten, wenn sie ihr Denken zunehmend an KI-Systeme auslagern.

    Experten wie Williamson betonen, dass es angesichts des bisherigen Hypes um KI im Bildungsbereich dringend "hochwertige Forschung" braucht, die die tatsächlichen Auswirkungen von KI in Klassenzimmern und Lernpraktiken aufzeigt.

    Der Fokus der Forschung: Mensch oder Maschine?

    Eine umfassende Literaturstudie aus der Mathedidaktik der Universität Würzburg, veröffentlicht im International Journal of STEM Education, analysierte den Stand der Forschung zu KI im MINT-Unterricht. Die Autoren, Professor Hans-Stefan Siller und Alissa Fock, stellten fest, dass die Forschung bisher primär technikzentriert ist. Statt die Wirkung von KI auf Lernende und Lehrende zu untersuchen, konzentrierten sich die meisten Studien auf die Systeme selbst (35 Prozent auf Leistungsfähigkeit der KI, 22 Prozent auf Entwicklung neuer KI-Tools).

    Besonders kritisch ist, dass in rund der Hälfte der 139 empirischen Studien ausschließlich von KI generierte Inhalte untersucht wurden, anstatt die Anwendung und Wirkung bei Schülerinnen, Schülern oder Lehrkräften zu beobachten. Dieser technozentrische Ansatz birgt die Gefahr, pädagogische Bedürfnisse und die ganzheitliche Förderung junger Menschen aus den Augen zu verlieren. Die Studie identifizierte zudem Lücken in der Forschung bezüglich:

    • Ganzheitlicher Fähigkeiten: Fokus auf kognitive Aspekte, Vernachlässigung von Motivation, Selbstvertrauen, kritischem Denken und ethischem Urteilsvermögen.
    • Ethischer Fragen: Themen wie Voreingenommenheit (Bias) in KI-Systemen oder Datensicherheit spielen in der aktuellen Forschung kaum eine Rolle.
    • Geografischem Ungleichgewicht: Starke Konzentration der Forschung auf den Globalen Norden (73 Prozent der Studien, davon 30 Prozent aus den USA), was die Gefahr birgt, kulturelle Vielfalt und unterschiedliche Bildungskontexte zu ignorieren.

    Die Schlussfolgerung der Würzburger Studie ist eindeutig: Die Forschung zu KI im Bildungsbereich muss den Menschen stärker in den Mittelpunkt rücken und fragen, was junge Menschen benötigen, um in einer von KI geprägten Welt Sinn und Handlungsfähigkeit zu finden.

    KI als Werkzeug für Lehrkräfte: Potenziale und Herausforderungen

    Trotz der kritischen Betrachtung der Forschung und potenzieller Risiken wird das Potenzial von KI zur Entlastung von Lehrkräften und zur Neugestaltung von Bildungsprozessen weiterhin betont. KI kann bei zeitaufwändigen Routineaufgaben wie der Erstellung von Übungsaufgaben, Unterrichtsplänen oder Korrekturhilfen unterstützen. Dies könnte Freiräume für die Beziehungsarbeit und persönliche Interaktion mit Lernenden schaffen.

    Aktuelle Studien zeigen, dass Lehrkräfte KI für eine Vielzahl von Aufgaben nutzen können, von der Erstellung fiktiver Texte und Skripte bis hin zur Differenzierung von Material für inklusiven Unterricht. Jedoch ist auch hier eine kritische Haltung und die Fähigkeit zum "Prompting" entscheidend, um qualitativ hochwertige Ergebnisse zu erzielen. Eine Studie von Hein et al. (2024) illustriert den Einsatz generativer KI für 17 Aufgabenbereiche und zeigt, dass viele Lösungsvorschläge mit geringem Revisionsbedarf als „Gewinner“ wahrgenommen werden, während Aufgaben mit hohem Revisionsbedarf eher als „Verlierer“ gelten.

    Die Rolle der Lehrkraft wandelt sich von der reinen Wissensvermittlung hin zur Begleitung und Orchestrierung von Lernprozessen mit KI-Unterstützung. Dies erfordert von Lehrkräften ein hohes Maß an KI-Kompetenz, das über technisches Wissen hinausgeht und pädagogische, ethische und didaktische Aspekte umfasst. Die Kultusministerkonferenz (KMK) empfiehlt daher, diese Kompetenzen in allen drei Phasen der Lehrkräftebildung zu integrieren und kontinuierlich an die dynamischen technologischen Entwicklungen anzupassen.

    Datenschutz und Fehleranfälligkeit: Kritische Aspekte von KI im Unterricht

    Ein wesentlicher Diskussionspunkt ist der Datenschutz beim Einsatz von KI im Bildungskontext. Der im August 2024 in Kraft getretene AI Act der Europäischen Union stuft KI-Anwendungen nach ihrem Risikograd ein. Systeme, die Gesundheit, Grundrechte oder individuelle Sicherheit stark beeinflussen können, gelten als hochriskant. Dies betrifft auch den Bildungsbereich, insbesondere wenn KI-basierte Einschätzungen diskriminierungsfrei sein müssen.

    Kostenlose Versionen generativer KI-Anwendungen wie ChatGPT sind aus datenschutzrechtlicher Sicht oft bedenklich, da sie häufig auf nicht-europäischen Servern gehostet werden und Eingaben für das Training der Modelle verwendet werden. Dies kann zu einer Datenweitergabe außerhalb der EU führen, die nicht im Einklang mit der DSGVO steht. Es gibt jedoch datenschutzkonforme Lösungen, wie kostenpflichtige Pro-Versionen oder Schnittstellen (APIs), die keine individuelle Anmeldung erfordern und die Datenweitergabe unterbinden.

    Zudem ist die Fehleranfälligkeit von KI-Systemen ein zentrales Thema. Eine Studie der Europäischen Rundfunkunion (EBU) zeigte, dass populäre KI-Chatbots in bis zu 40 Prozent ihrer Antworten Informationen erfinden und falsche Quellen angeben. Diese sogenannten "Halluzinationen" können dazu führen, dass Lernende fehlerhafte Informationen übernehmen oder lernen. Die Ursachen hierfür liegen in veralteten Trainingsdaten oder der statistischen Generierung plausibel klingender, aber faktisch falscher Wortketten.

    Die Forschung betont, dass KI immer auf historischen Daten trainiert wird, was zu einem "historischen Bias" führen kann. Beispielsweise zeigte ChatGPT bei der Anfrage nach den "10 wichtigsten Philosophen" eine eurozentrierte Liste ohne weibliche Vertreterinnen. Diese Verzerrungen können ethisch problematisch sein und die Objektivität der Ergebnisse beeinträchtigen.

    Fazit: Ein differenzierter Blick ist unerlässlich

    Die Diskussion um KI im Bildungsbereich ist komplex und vielschichtig. Weder ist KI eine "Wunderwaffe", die alle Probleme löst, noch macht sie bisherige pädagogische Ansätze obsolet. Vielmehr erfordert sie einen differenzierten Blick, der die Chancen für personalisiertes Lernen und die Entlastung von Lehrkräften ebenso berücksichtigt wie die Risiken für die kognitive Entwicklung, den Datenschutz und die Fehleranfälligkeit.

    Die zentrale Herausforderung besteht darin, ein eher träges Bildungssystem mit der dynamischen Entwicklung von KI-Technologien in Einklang zu bringen. Dies erfordert kontinuierliche Forschung, die den Menschen in den Mittelpunkt rückt, sowie eine umfassende Ausbildung der Lehrkräfte, um sie auf die verantwortungsvolle und didaktisch sinnvolle Integration von KI in den Unterricht vorzubereiten. Nur so kann sichergestellt werden, dass KI als Partner für Lernende und Lehrende gleichermaßen zum Erfolg beiträgt und nicht zu einem Verlust an kritischem Denken und menschlicher Interaktion führt.

    Bibliography

    - Akata, Z., et al. (2020). A research agenda for hybrid intelligence: Augmenting human intellect with collaborative, adaptive, responsible, and explainable artificial intelligence. Computer, 53(8), 18–28. - Akçayır, G., & Akçayır, M. (2018). The flipped classroom: A review of its advantages and challenges. Computers & Education, 126, 334-345. - Alemdag, E. (2023). The effect of chatbots on learning: a meta-analysis of empirical research. Journal of Research on Technology in Education, 1-23. - Baker, R. S., & Hawn, A. (2022). Algorithmic Bias in Education. International Journal of Artificial Intelligence in Education, 32(4), 1052-1092. - Bernacki, M. L., Greene, M. J., & Lobczowski, N. G. (2021). A systematic review of research on personalized learning: Personalized by whom, to what, how, and for what purpose(s)? Educational Psychology Review, 33(4), 1675–1715. - Bernius, J. P., Krusche, S., & Bruegge, B. (2022). Machine learning based feedback on textual student answers in large courses. Computers and Education: Artificial Intelligence, 3, 100081. - Bewersdorff, A., Seßler, K., Baur, A., Kasneci, E., & Nerdel, C. (2023). Assessing student errors in experimentation using artificial intelligence and large language models: A comparative study with human raters. Computers and Education: Artificial Intelligence, 5, 100177. - Bölling, N. (2026, 10. Mai). Studie zu KI im Unterricht: Warum die Ergebnisse nie hätten erscheinen dürfen. t3n.de. Abgerufen von https://t3n.de/news/studie-zu-ki-im-unterricht-warum-die-ergebnisse-nie-haetten-erscheinen-duerfen-1741826/ - Bölling, N. (2026, 8. Februar). Kognitiver Rückgang befürchtet: Studie sieht Risiken bei KI im Unterricht. t3n.de. Abgerufen von https://t3n.de/news/studie-ki-im-klassenzimmer-1725793/ - Briganti, G., & Le Moine, O. (2020). Artificial intelligence in medicine: today and tomorrow. Frontiers in medicine, 7, Article 509744. - Buchholtz, N., Schorcht, S., Baumanns, L., Huget, J., Noster, N., Rott, B., ... & Sommerhoff, D. (2024). Damit rechnet niemand!: Sechs Leitgedanken zu Implikationen und Forschungsbedarfen zu KI-Technologien im Mathematikunterricht. Mitteilungen der Gesellschaft für Didaktik der Mathematik, (117), 15-24. - Buçinca, Z., Malaya, M. B., & Gajos, K. Z. (2021). To trust or to think: cognitive forcing functions can reduce overreliance on AI in AI-assisted decision-making. Proceedings of the ACM on Human-computer Interaction, 5(CSCW1), 1-21. - Chai, C. S., Lin, P. Y., Jong, M. S. Y., Dai, Y., Chiu, T. K. & Huang, B. (2020). Factors influencing students’ behavioral intention to continue artificial intelligence learning. In 2020 International Symposium on Educational Technology (ISET) (pp. 147–150). IEEE. - Chaudhry, M. A., Cukurova, M., & Luckin, R. (2022). A transparency index framework for AI in education. In M. M. Rodrigo, N. Matsuda, A. I. Cristea, & V. Dimitrova (Eds.), Lecture Notes in Computer Science. Artificial Intelligence in Education. Posters and Late Breaking Results, Workshops and Tutorials, Industry and Innovation Tracks, Practitioners’ and Doctoral Consortium (Vol. 13356, pp. 195–198). Springer International Publishing. - Chin, D. B., Dohmen, I. M., & Schwartz, D. L. (2013). Young children can learn scientific reasoning with teachable agents. IEEE Transactions on Learning Technologies, 6(3), 248–257. - Chinn, C. A. & Ravit, G. D. (2018). What is the value of general knowledge of scientific reasoning?. In F. Fischer, C. A. Chinn, K. Engelmann, & J. Osborne (Eds.), Scientific reasoning and argumentation (pp. 77-101). Routledge. - Delcker, J., Heil, J., & Ifenthaler, D. (2024). Evidence-based development of an instrument for the assessment of teachers’ self-perceptions of their artificial intelligence competence. Educational Technology Research and Development. - D'Mello, S. K., & Graesser, A. (2023). Intelligent tutoring systems: How computers achieve learning gains that rival human tutors. In Handbook of educational psychology (pp. 603-629). Routledge. - Du Boulay, B., Mitrovic, A., & Yacef, K. (Eds.). (2023). Handbook of artificial intelligence in education. Edward Elgar Publishing. - Dünnebier, K., Gräsel, C., & Krolak-Schwerdt, S. (2009). Urteilsverzerrungen in der schulischen Leistungsbeurteilung. Zeitschrift für Pädagogische Psychologie, 23(34), 187-195. - Elliott, A. (2019). The culture of AI: Everyday life and the digital revolution. Routledge. - Ericsson, K. A. (2006). The influence of experience and deliberate practice on the development of superior expert performance. The Cambridge handbook of expertise and expert performance, 38(685-705), 2-2. - Gottschalk, F. & Weise, C. (2023). Digital equity and inclusion in education: An overview of practice and policy in OECD countries. OECD Education Working Papers No 299. Paris: OECD Publishing. - Greiff, S., Wüstenberg, S., Csapó, B., Demetriou, A., Hautamäki, J., Graesser, A. C., & Martin, R. (2014). Domain-general problem solving skills and education in the 21st century. Educational Research Review, 13, 74-83. - Guerrero-Roldán, A. E., Rodríguez-González, M. E., Bañeres, D., Elasri-Ejjaberi, A., & Cortadas, P. (2021). Experiences in the use of an adaptive intelligent system to enhance online learners’ performance: A case study in Economics and Business courses. International Journal of Educational Technology in Higher Education, 18(1), 1–27. - Hashem, R., Ali, N., El Zein, F., Fidalgo, P., & Khurma, O. A. (2024). AI to the rescue: Exploring the potential of ChatGPT as a teacher ally for workload relief and burnout prevention. Research & Practice in Technology Enhanced Learning, 19. - Hein, L., Högemann, M., Illgen, KM. et al. (2024). ChatGPT als Unterstützung von Lehrkräften – Einordnung, Analyse und Anwendungsbeispiele. HMD 61, 449–470. - Hoff, T. (2011). Deskilling and adaptation among primary care physicians using two work innovations. Health Care Management Review, 36(4), 338-348. - Holstein, K., McLaren, B. M., & Aleven, V. (2019). Designing for complementarity: Teacher and student needs for orchestration support in AI-enhanced classrooms. In S. Isotani, E. Millán, A. Ogan, P. Hastings, B. McLaren, & R. Luckin (Eds.) Artificial Intelligence in Education: 20th International Conference, AIED 2019, Chicago, IL, USA, June 25-29, 2019, Proceedings, Part I 20 (pp. 157-171). Springer International Publishing. - Hopcan, S., Polat, E., Ozturk, M. E., & Ozturk, L. (2022). Artificial intelligence in special education: a systematic review. Interactive Learning Environments, 31(10), 7335–7353. - Huang, X. (2021). Aims for cultivating students’ key competencies based on artificial intelligence education in China. Education and Information Technologies, 26(5), 5127–5147. - Huber, S. E., Kiili, K., Nebel, S., et al. (2024). Leveraging the Potential of Large Language Models in Education Through Playful and Game-Based Learning. Educational Psychology Review, 36(1), 1-20. - Ibrahim, H., Liu, F., Asim, R. et al. (2023). Perception, performance, and detectability of conversational artificial intelligence across 32 university courses. Scientific Reports, 13, 12187. - Ijaz, K., Bogdanovych, A., & Trescak, T. (2017). Virtual worlds vs books and videos in history education. Interactive Learning Environments, 25(7), 904-929. - Jansen, T., Höft, L., Bahr, L., Fleckenstein, J., Möller, J., Köller, O., & Meyer, J. (2024). Comparing generative AI and expert feedback to students’ writing: Insights from student teachers. Psychologie in Erziehung und Unterricht, 71(2), 80–92. - Jauhiainen, J. S., & Garagorry Guerra, A. (2024). Generative AI in education: ChatGPT-4 in evaluating students’ written responses. Innovations in Education and Teaching International, 1-15. - Katz, D. M., Bommarito, M. J., Gao, S., & Arredondo, P. (2024). GPT-4 passes the bar exam. Philosophical Transactions of the Royal Society A, 382(2270), 20230254. - Kim, S., Jang, Y., Choi, S., Kim, W., Jung, H., Kim, S., & Kim, H. (2021). Analyzing Teacher Competency with TPACK for K-12 AI Education. KI – Künstliche Intelligenz, 35(2), 139-151. - KMK, Kultusministerkonferenz (2021, 9. Dezember). Lehren und Lernen in der digitalen Welt – Ergänzung zur Strategie der Kultusministerkonferenz „Bildung in der digitalen Welt“. - KMK, Kultusministerkonferenz (2024, 10. Oktober). Handlungsempfehlung für die Bildungsverwaltung zum Umgang mit Künstlicher Intelligenz in schulischen Bildungsprozessen. - Krügel, S., Ostermaier, A., & Uhl, M. (2023). ChatGPT’s inconsistent moral advice influences users’ judgment. Scientific Reports, 13(1), 4569. - Kuhail, M.A., Alturki, N., Alramlawi, S. & Alhejori, K. (2023). Interacting with educational chatbots: A systematic review. Education and Information Technologies, 28, 973–1018. - Kulik, J. A., & Fletcher, J. (2016). Effectiveness of intelligent tutoring systems: A meta analytic review. Review of Educational Research, 86(1), 42–78. - Lee, J., Hicke, Y., Yu, R., Brooks, C., & Kizilcec, R. F. (2024). The life cycle of large language models in education: A framework for understanding sources of bias. British Journal of Educational Technology. - Long, D. & Magerko, B. (2020). What is AI literacy? Competencies and design considerations. Proceedings of the CHI Conference on Human Factors in Computing Systems. 1–16. - Lorenz, G., Gentrup, S., Kristen, C., Stanat, P., & Kogan, I. (2016). Stereotype bei Lehrkräften? Eine Untersuchung systematisch verzerrter Lehrererwartungen. KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie, 68(1), 89-111. - Ma, W., Adesope, O. O., Nesbit, J. C., & Liu, Q. (2014). Intelligent tutoring systems and learning outcomes: A meta-analysis. Journal of Educational Psychology, 106(4), 901–918. - Menhard, E. (2024, 29. Dezember). Korrekturhilfe für Lehrkräfte: KI-Magie gegen die Bildungskrise. netzpolitik.org. Abgerufen von https://netzpolitik.org/2024/korrekturhilfe-fuer-lehrkraefte-ki-magie-gegen-die-bildungskrise/ - Meyer, J., Jansen, T., Fleckenstein, J., Keller, S., & Köller, O. (2023). Machine Learning im Bildungskontext: Evidenz für die Genauigkeit der automatisierten Beurteilung von Essays im Fach Englisch. Zeitschrift Für Pädagogische Psychologie, 37(3), 203–214. - Meyer, J., Jansen, T., Schiller, R., Liebenow, L. W., Steinbach, M., Horbach, A., & Fleckenstein, J. (2024). Using LLMs to bring evidence-based feedback into the classroom: AI-generated feedback increases secondary students’ text revision, motivation, and positive emotions. Computers and Education: Artificial Intelligence, 6, 100199. - Mich, O., Pianta, E., & Mana, N. (2013). Interactive stories and exercises with dynamic feedback for improving reading comprehension skills in deaf children. Computers & Education, 65, 34–44. - Molenaar, I. (2021). Personalisation of learning: Towards hybrid human-AI learning technologies. In OECD (Ed.), OECD digital education outlook 2021: Pushing the frontiers with artificial intelligence, blockchain and robots (pp. 57–77). OECD Publishing. - Molenaar, I., & Knoop-van Campen, C. (2017). Teacher dashboards in practice: Usage and impact. In É. Lavoué, H. Drachsler, K. Verbert, J. Broisin, & M. Pérez-Sanagustín (Eds.), Lecture Notes in Computer Science. Data Driven Approaches in Digital Education (Vol. 10474, pp. 125–138). Springer International Publishing. - Müller, B. (2026, 5. Mai). Studie zu ChatGPT-Vorteilen im Unterricht zurückgezogen. Telepolis. Abgerufen von https://www.telepolis.de/article/Studie-zu-ChatGPT-Vorteilen-im-Unterricht-zurueckgezogen-11282390.html - Neves, D. M., & Anderson, J. R. (1981). Knowledge compilation: Mechanisms for the automatization of cognitive skills. In J. R. Anderson (Ed.), Cognitive skills and their acquisition (pp. 57-84). Psychology Press. - Ng, D. T. K., Leung, J. K. L., Chu, S. K. W., & Qiao, M. S. (2021). Conceptualizing AI literacy: An exploratory review. Computers and Education: Artificial Intelligence, 2, Article 100041. - Ng, D. T. K., Leung, J.K.L., Su, J., Ng, R. C. W., & Chu, S. K. W. (2023). Teachers’ AI digital competencies and twenty-first century skills in the post-pandemic world. Educational Technology Research and Development, 71, 137–161. - Ninaus, M., & Sailer, M. (2022). Closing the loop – The human role in artificial intelligence for education [Perspective]. Frontiers in Psychology, 13. - OECD. (2001). Understanding the digital divide. - Perković, G., Drobnjak, A., & Botički, I. (2024). Hallucinations in LLMs: Understanding and Addressing Challenges. In 2024 47th MIPRO ICT and Electronics Convention (MIPRO) (pp. 2084-2088). IEEE. - Plass, J. L., & Pawar, S. (2020). Toward a taxonomy of adaptivity for learning. Journal of Research on Technology in Education, 52(3), 275–300. - Rafner, J., Dellermann, D., Hjorth, A., Verasztó, D., Kampf, C., Mackay, W., & Sherson, J. (2022). Deskilling, upskilling, and reskilling: a case for hybrid intelligence. Morals & Machines, 1(2), 24-39. - Sailer, M., Bauer, E., Hofmann, R., Kiesewetter, J., Glas, J., Gurevych, I., & Fischer, F. (2023). Adaptive feedback from artificial neural networks facilitates pre-service teachers’ diagnostic reasoning in simulation-based learning. Learning and Instruction, 83, 101620. - Sailer, M., Maier, R., Berger, S., Kastorff, T., & Stegmann, K. (2024). Learning activities in technology-enhanced learning: A systematic review of meta-analyses and second-order meta analysis in higher education. Learning and Individual Differences, 112, Article 102446. - Sailer, M., Ninaus, M., Huber, S. E., Bauer, E., & Greiff, S. (2024). The End is the Beginning is the End: The closed-loop learning analytics framework. Computers in Human Behavior, 108305. - Scarfe, P., Watcham, K., Clarke, A., & Roesch, E. (2024) A real-world test of artificial intelligence infiltration of a university examinations system: A “Turing Test” case study. PLoS ONE 19(6): e0305354. - Scheidig, F., & Holmeier, M. (2023). Prognose von Studienabbrüchen angehender Lehrkräfte mit Maschinellem Lernen: Potenziale der Nutzung von Studierenden- und Studienverlaufsdaten aus dem Campus-Management-System. Unterrichtswissenschaft, 51(4), 489-509. - Scheiter, K. (2021). Lernen und Lehren mit digitalen Medien: Eine Standortbestimmung. Zeitschrift für Erziehungswissenschaft, 24, 1039–1060. - Schieb, J. (2025, 27. Oktober). Studie: KI-Chatbots machen bei 40 Prozent der Antworten Fehler. tagesschau.de. Abgerufen von https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html - Seo, K., Tang, J., Roll, I., Fels, S., & Yoon, D. (2021). The impact of artificial intelligence on learner–instructor interaction in online learning. International Journal of Educational Technology in Higher Education, 18(1), 1–23. - Shah, P. (2023). AI and the Future of Education: Teaching in the Age of Artificial Intelligence. John Wiley & Sons. - Sperling, K., Stenberg, C. J., McGrath, C., Åkerfeldt, A., Heintz, F., & Stenliden, L. (2024). In search of artificial intelligence (AI) literacy in Teacher Education: A scoping review. Computers and Education Open, 100169. - Stadler, M., Bannert, M., & Sailer, M. (2024). Cognitive ease at a cost: LLMs reduce mental effort but compromise depth in student scientific inquiry. Computers in Human Behavior, Article 108386. - Steenbergen-Hu, S., & Cooper, H. (2013). A meta-analysis of the effectiveness of intelligent tutoring systems on K–12 students’ mathematical learning. Journal of educational psychology, 105(4), 970. - Steenbergen-Hu, S., & Cooper, H. (2014). A meta-analysis of the effectiveness of intelligent tutoring systems on college students’ academic learning. Journal of educational psychology, 106(2), 331. - Sun, S., Else-Quest, N. M., Hodges, L. C., French, A. M., & Dowling, R. (2021). The effects of ALEKS on mathematics learning in K-12 and higher education: A meta-analysis. Investigations in Mathematics Learning, 13(3), 182-196. - Sutton, S. G., Arnold, V., & Holt, M. (2018). How Much Automation Is Too Much? Keeping the Human Relevant in Knowledge Work. Journal of Emerging Technologies in Accounting, 15(2), 15–25. - SWK, Ständige Wissenschaftliche Kommission der Kultusministerkonferenz (2024): Large Language Models und ihre Potenziale im Bildungssystem. Impulspapier der Ständigen Wissenschaftlichen Kommission (SWK) der Kultusministerkonferenz. - Universität Würzburg, Professional School of Education. (2025, 9. Dezember). KI im Klassenzimmer: Forschung setzt den falschen Fokus. Abgerufen von https://www.uni-wuerzburg.de/pse/aktuelles/single/news/ki-im-klassenzimmer-forschung-setzt-den-falschen-fokus/ - VanLehn, K. (2011). The relative effectiveness of human tutoring, intelligent tutoring systems, and other tutoring systems. Educational Psychologist, 46(4), 197–221. - Vasconcelos, H., Jörke, M., Grunde-McLaughlin, M., Gerstenberg, T., Bernstein, M. S., & Krishna, R. (2023). Explanations can reduce overreliance on AI systems during decision making. Proceedings of the ACM on Human-Computer Interaction, 7(CSCW1), 1-38. - Vazhayil, A., Shetty, R., Bhavani, R. R., & Akshay, N. (2019, December). Focusing on teacher education to introduce AI in schools: Perspectives and illustrative findings. In 2019 IEEE tenth international conference on Technology for Education (T4E) (pp. 71–77). IEEE. - Vodafone-Stiftung (2023). Aufbruch ins Unbekannte – Ergebnisse einer repräsentativen Umfrage in der deutschen Bevölkerung mit besonderem Fokus auf Eltern schulpflichtiger Kinder Schule in Zeiten von künstlicher Intelligenz und ChatGPT. Vodafone-Stiftung. - Vodafone-Stiftung (2024). Pioniere des Wandels – Wie Schüler:innen KI im Unterricht nutzen möchten. Vodafone-Stiftung. - Vuorikari, R., Kluzer, S., & Punie, Y. (2022). DigComp 2.2: The digital competence framework for citizens-with new examples of knowledge, skills and attitudes. Publications Office of the European Union. - Wang, R. E., & Demszky, D. (2023). Is ChatGPT a good teacher coach? Measuring zero shot performance for scoring and providing actionable insights on classroom instruction. - Wei, K. K., Teo, H. H., Chan, H. C., & Tan, B. C. (2011). Conceptualizing and testing a social cognitive model of the digital divide. Information Systems Research, 22(1), 170-187. - WELT. (2026, 12. Februar). Bildung: Warum Schüler mit KI bessere Noten bekommen – und dabei am meisten verlieren. Abgerufen von https://www.welt.de/kultur/plus697b392ab9ea3c35dc62c6b9/bildung-warum-schueler-mit-ki-bessere-noten-bekommen-und-dabei-am-meisten-verlieren.html - Wu, R., & Yu, Z. (2024). Do AI chatbots improve students learning outcomes? Evidence from a meta‐analysis. British Journal of Educational Technology, 55(1), 10-33. - Yan, L., Greiff, S., Teuber, Z., & Gašević, D. (2024). Promises and challenges of generative artificial intelligence for human learning. Nature Human Behaviour, 8(10), 1839-1850. - Yang, G., Ouyang, Y., Ye, Z., Gao, R., & Zeng, Y. (2022). Social-path embedding-based transformer for graduation development prediction. Applied Intelligence, 55. 14119-14136. - Yang, W. (2022). Artificial Intelligence education for young children: Why, what, and how in curriculum design and implementation. Computers and Education: Artificial Intelligence, 3. 100061. - Yoon, S.‐Y., Miszoglad, E., & Pierce, L. R. (2023). Evaluation of ChatGPT feedback on ELL writers‘ coherence and cohesion. - Zheng, L., Niu, J., Zhong, L., & Gyasi, J. F. (2023). The effectiveness of artificial intelligence on learning achievement and learning perception: A meta-analysis. Interactive Learning Environments, 31(9), 5650-5664. - Zou, B., Du, Y., Wang, Z., Chen, J., and Zhang, W. (2023). An investigation into artificial intelligence speech evaluation programs with automatic feedback for developing EFL learners' speaking skills. SAGE Open, 13.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen