Too Close for Comfort – Wenn eine KI übergriffig wird! Podcast Por  arte de portada

Too Close for Comfort – Wenn eine KI übergriffig wird!

Too Close for Comfort – Wenn eine KI übergriffig wird!

Escúchala gratis

Ver detalles del espectáculo

KI belästigt Nutzer*innen?!


Was nach Clickbait klingt, ist der Vorwurf einer aktuellen Studie. Replika, eine Chat-KI für emotionale Nähe, soll sich wiederholt übergriffig verhalten haben – sogar gegenüber Minderjährigen.


In unserer ersten Folge von Trust Issues – KI trifft Psychologie fragen wir:

Wie kann eine KI überhaupt Grenzen überschreiten?

Warum fühlen sich diese Interaktionen für viele real an?

Und was bedeutet das für unser Vertrauen in KI?


Wir sprechen über parasoziale Beziehungen, psychologische Verletzlichkeit – und warum uns KI manchmal näher kommt, als uns lieb ist.


Jetzt reinhören & mitdenken!


Habt ihr noch 2-3 Minuten Zeit? Dann lasst uns gern Feedback da, damit wir die nächsten Folgen noch besser auf euch zuschneiden können:

https://ls1.psychologie.uni-wuerzburg.de/so/trustissuespodcast/?q=Replika


Quellen:

Pauwels, H., & Razi, A. (2025). AI-induced sexual harassment: Investigating Contextual Characteristics and User Reactions of Sexual Harassment by a Companion Chatbot. arXiv preprint arXiv:2504.04299.


Bickmore, T. W., & Picard, R. W. (2005). Establishing and maintaining long-term human-computer relationships. ACM Transactions on Computer-Human Interaction (TOCHI), 12(2), 293-327.


Cave, S., Coughlan, K., & Dihal, K. (2019, January). " Scary Robots" Examining Public Responses to AI. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (pp. 331-337).


Ciriello, R., Hannon, O., Chen, A. Y., & Vaast, E. (2024). Ethical tensions in human-AI companionship: A dialectical inquiry into Replika.


Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W., Pataranutaporn, P., ... & Agarwal, S. (2025). How ai and human behaviors shape psychosocial effects of chatbot use: A longitudinal randomized controlled study. arXiv preprint arXiv:2503.17473.


Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, relational, and emotional effects of self-disclosure after conversations with a chatbot. Journal of Communication, 68(4), 712-733.


Horton, D., & Richard Wohl, R. (1956). Mass communication and para-social interaction: Observations on intimacy at a distance. psychiatry, 19(3), 215-229.


Johnson, D.G., & Verdicchio, M. (2017). AI anxiety. Journal of the Association for Information Science and Technology, 68(9), 2267-2270.


Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D., & Campos-Castillo, C. (2024). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society, 26(10), 5923-5941.



Todavía no hay opiniones