
Too Close for Comfort – Wenn eine KI übergriffig wird!
No se pudo agregar al carrito
Add to Cart failed.
Error al Agregar a Lista de Deseos.
Error al eliminar de la lista de deseos.
Error al añadir a tu biblioteca
Error al seguir el podcast
Error al dejar de seguir el podcast
-
Narrado por:
-
De:
KI belästigt Nutzer*innen?!
Was nach Clickbait klingt, ist der Vorwurf einer aktuellen Studie. Replika, eine Chat-KI für emotionale Nähe, soll sich wiederholt übergriffig verhalten haben – sogar gegenüber Minderjährigen.
In unserer ersten Folge von Trust Issues – KI trifft Psychologie fragen wir:
Wie kann eine KI überhaupt Grenzen überschreiten?
Warum fühlen sich diese Interaktionen für viele real an?
Und was bedeutet das für unser Vertrauen in KI?
Wir sprechen über parasoziale Beziehungen, psychologische Verletzlichkeit – und warum uns KI manchmal näher kommt, als uns lieb ist.
Jetzt reinhören & mitdenken!
Habt ihr noch 2-3 Minuten Zeit? Dann lasst uns gern Feedback da, damit wir die nächsten Folgen noch besser auf euch zuschneiden können:
https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Replika
Quellen:
Pauwels, H., & Razi, A. (2025). AI-induced sexual harassment: Investigating Contextual Characteristics and User Reactions of Sexual Harassment by a Companion Chatbot. arXiv preprint arXiv:2504.04299.
Bickmore, T. W., & Picard, R. W. (2005). Establishing and maintaining long-term human-computer relationships. ACM Transactions on Computer-Human Interaction (TOCHI), 12(2), 293-327.
Cave, S., Coughlan, K., & Dihal, K. (2019, January). " Scary Robots" Examining Public Responses to AI. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (pp. 331-337).
Ciriello, R., Hannon, O., Chen, A. Y., & Vaast, E. (2024). Ethical tensions in human-AI companionship: A dialectical inquiry into Replika.
Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W., Pataranutaporn, P., ... & Agarwal, S. (2025). How ai and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.
Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, relational, and emotional effects of self-disclosure after conversations with a chatbot. Journal of Communication, 68(4), 712-733.
Horton, D., & Richard Wohl, R. (1956). Mass communication and para-social interaction: Observations on intimacy at a distance. psychiatry, 19(3), 215-229.
Johnson, D.G., & Verdicchio, M. (2017). AI anxiety. Journal of the Association for Information Science and Technology, 68(9), 2267-2270.
Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D., & Campos-Castillo, C. (2024). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society, 26(10), 5923-5941.