4 Publikationen
-
2023 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2985109Bunzeck, B. & Zarrieß, S. (2023). GPT-wee: How Small Can a Small Language Model Really Get? In A. Warstadt, A. Mueller, L. Choshen, E. Wilcox, C. Zhuang, J. Ciro, R. Mosquera, B. Paranjabe, A. Williams, T. Linzen & R. Cotterell (Hrsg.), Proceedings of the BabyLM Challenge at the 27th Conference on Computational Natural Language Learning (S. 35-46). Gehalten auf der BabyLM Challenge at the Conference on Computational Natural Language Learning , Stroudsburg, PA: Association for Computational Linguistics. doi:10.18653/v1/2023.conll-babylm.2.
-
2023 | Zeitschriftenaufsatz | Veröffentlicht | PUB-ID: 2980943Druskat, S., Krause, T., Lachenmaier, C. & Bunzeck, B. (2023). Hexatomic: An extensible, OS-independent platform fordeep multi-layer linguistic annotation of corpora. Journal of Open Source Software, 8(86): 4825. The Open Journal. doi:10.21105/joss.04825.
-
-
2023 | Konferenzbeitrag | Veröffentlicht | PUB-ID: 2982902Bunzeck, B. & Zarrieß, S. (2023). Entrenchment Matters: Investigating Positional and Constructional Sensitivity in Small and Large Language Models. In E. Breitholtz, S. Lappin, S. Loaiciga, N. Ilinykh & S. Dobnik (Hrsg.), Proceedings of the 2023 CLASP Conference on Learning with Small Data (LSD) (S. 25-37). Gehalten auf der 2023 CLASP Conference on Learning with Small Data, Stroudsburg, PA: Association for Computational Linguistics.