TRR 318 - Subproject C4 - Metaphern als Werkzeug des Erkl?rens

?berblick

Mithilfe von Metaphern lassen sich abstrakte Konzepte leichter erkl?ren: Indem die Erkl?rer*innen Metaphern verwenden, greifen sie auf vertraute Strukturen und Erfahrungen zurück und stellen ausgew?hlte Eigenschaften der erkl?rten Konzepte in den Vordergrund, andere hingegen in den Hintergrund. Im Projekt C04 wird beleuchtet, wie Metaphern in Erkl?rungen funktionieren, wann und wie sie beim Erkl?ren verwendet werden und welche Auswirkungen sie auf Verst?ndnis haben. Neben der psychologischen Perspektive auf diese Fragen werden computerlinguistische Methoden entwickelt, die den semantischen Raum von Metaphern modellieren und die repr?sentierten Eigenschaften automatisch benennen k?nnen. Langfristiges Ziel des Projektes ist es, dass KI-Systeme auf angemessene Weise Metaphern verwenden und diese im Laufe der Erkl?rung dem Verst?ndnis des Gegenübers anpassen k?nnen.

Key Facts

Laufzeit:
07/2021 - 12/2025
Gef?rdert durch:
DFG
Website:
Homepage

Detailinformationen

Projektleitung

contact-box image

Prof. Dr. Ingrid Scharlau

Kognitive Psychologie und Psychologiedidaktik

Zur Person
contact-box image

Henning Wachsmuth

Universit?t Hannover

Zur Person (Orcid.org)

Publikationen

Analyzing the Use of Metaphors in News Editorials for Political Framing
M. Sengupta, R. El Baff, M. Alshomary, H. Wachsmuth, in: K. Duh, H. Gomez, S. Bethard (Eds.), Proceedings of the 2024 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Volume 1: Long Papers), Association for Computational Linguistics, Mexico City, Mexico, 2024, pp. 3621–3631.
Modeling Highlighting of Metaphors in Multitask Contrastive Learning Paradigms
M. Sengupta, M. Alshomary, I. Scharlau, H. Wachsmuth, in: Findings of the Association for Computational Linguistics: EMNLP 2023, Association for Computational Linguistics, 2023.
Back to the Roots: Predicting the Source Domain of Metaphors using Contrastive Learning
M. Sengupta, M. Alshomary, H. Wachsmuth, in: Proceedings of the 3rd 365足彩投注_365体育投注@ on Figurative Language Processing (FLP), Association for Computational Linguistics, 2023.
Modeling Highlighting of Metaphors in Multitask Contrastive Learning Paradigms
M. Sengupta, M. Alshomary, I. Scharlau, H. Wachsmuth, in: H. Bouamor, J. Pino, K. Bali (Eds.), Findings of the Association for Computational Linguistics: EMNLP 2023, Association for Computational Linguistics, Singapore, 2023, pp. 4636–4659.
Back to the Roots: Predicting the Source Domain of Metaphors using Contrastive Learning
M. Sengupta, M. Alshomary, H. Wachsmuth, in: Proceedings of the 2022 365足彩投注_365体育投注@ on Figurative Language Processing, 2022.
Alle Publikationen anzeigen