Метод формування набору даних для перевірки якості вивчення мовними моделями транзитивного відношення у контексті задачі логічного висновку

2023;
: cc. 46 - 60
1
Національний університет «Львівська політехніка», кафедра інформаційних систем та мереж
2
Національний університет «Львівська політехніка»,кафедра інформаційних систем та мереж
3
Національний університет "Львівська політехніка", кафедра інформаційних систем та мереж; Університет Оснабрюка, Інститут комп’ютерних наук, Німеччина

Розроблено метод формування набору даних для перевірки вивчення готовими моделями залежності транзитивності. Сформований набір даних використано для тестування якості вивчення моделями залежності транзитивності у задачі логічного висновку (NLI). Тестування набору даних розміром 10 000 зразків (MultiNLI) відбувалось на моделі RoBerta. Також досліджено, що у задачі логічного висновку клас подібний є більш спрямованим, ніж протиріччя і нейтральний. Бо якщо поміняти місцями передумову і гіпотезу у наборі даних, то точність моделі RoBerta зменшується на коефіцієнт $2.97, 1.17, 1.26$ для класу подібний ($(0.98 \rightarrow 0.33)$, нейтральний $(0.90 \rightarrow 0.77)$ та протиріччя $(0.98 \rightarrow 0.78)$ відповідно. Час ітерації дослідження  становить 0,0028 с, тому лише половина набору даних потребує приблизно 84 год обчислень. Це дослідження актуальне, оскільки можливість моделей природної мови досліджувати такі  залежності, як транзитивність, яка не задана явно у наборі тренувальних даних, є важливим елементом вміння моделей узагальнювати. Виявлено, що модель RoBerta добре вивчає транзитивні залежності у задачі логічного висновку, бо на всіх зразках зі сформованого набору даних правильно класифікувала належність до класів подібний, протиріччя та нейтральний.ask because it correctly classified belonging to the class similar, contradiction, and neutral  on all samples from the generated data set.

  1. Adina Williams, Nikita Nangia, Samuel R. Bowman, A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference, 2018. https://doi.org/10.48550/arXiv.1704.05426
  2. Doina Tatar, Gabriela Serban, Mihis Andreea, Textual Entailment as a Directional Relation, 2008. URL: https://search.informit.org/doi/abs/10.3316/INFORMIT.836390534395451
  3. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin, Attention Is All You Need, 2017. URL: https://proceedings.neurips.cc/paper_files/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html
  4. Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2019. https://doi.org/10.48550/arXiv.1810.04805
  5. Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov, RoBERTa: A Robustly Optimized BERT Pretraining Approach, 2019. https://doi.org/10.48550/arXiv.1907.11692
  6. William McDaniel Albritton, ICS 241: Discrete Mathematics II, Waterloo, 2015
  7. Petro Zdebskyi, Vasyl Lytvyn, Yevhen Burov, Zoriana Rybchak, Petro Kravets, Olga Lozynska, Roman Holoshchuk, Solomiya Kubinska, Alina Dmytriv, Intelligent System for Semantically Similar Sentences Identification and Generation Based on Machine Learning Methods, CEUR workshop proceedings, Vol. 2604, 317–346, 2020. https://ceur-ws.org/Vol-2604/paper25.pdf
  8. Aikaterini-Lida Kalouli, Annebeth Buis, Livy Real, Explaining Simple Natural Language Inference, 2019. DOI: 10.18653/v1/W19-4016
  9. Tongfei Chen, Zhengping Jiang, Adam Poliak, Keisuke Sakaguchi, Benjamin Van Durme, Uncertain Natural Language Inference, 2020. https://doi.org/10.48550/arXiv.1909.0304
  10. Adam Poliak, A Survey on Recognizing Textual Entailment as an NLP Evaluation, 2020. https://doi.org/10.48550/arXiv.2010.03061
  11. Hanwen Zha, Zhiyu Chen, Xifeng Yan, Large Batch Optimization for Deep Learning: Training BERT in 76 minutes, 2021. https://doi.org/10.48550/arXiv.1904.00962
  12. Leo Z. Liu, Yizhong Wang, Jungo Kasai, Hannaneh Hajishirzi, Noah A. Smith, Probing Across Time: What Does RoBERTa Know and When?, 2021. https://doi.org/10.48550/arXiv.2104.07885
  13. Zdebskyi P., Berko A., Vysotska V. (2023). Investigation of Transitivity Relation in Natural Language Inference, CEUR Workshop Proceedings, Vol. 3396,  334–345.
  14. Bisikalo O., Vysotska V., Burov Y., Kravets P. (2020). Conceptual Model of Process Formation for the Semantics of Sentence in Natural Language, CEUR workshop proceedings, Vol. 2604, 151–177.
  15. Vysotska V., Holoshchuk S., Holoshchuk R. (2021). A comparative analysis for English and Ukrainian texts processing based on semantics and syntax approach. CEUR Workshop Proceedings, Vol. 2870,  311–356.
  16. Rogushina J. (2023). Ontological Approach in the Smart Data Paradigm as a Basis for Open Data Semantic Markup. CEUR Workshop Proceedings, Vol. 3403, 12–27.
  17. Hryhorovych V. (2023). Calculation of the Semantic Distance between Ontology Concepts: Taking into Account Critical Nodes, CEUR Workshop Proceedings, Vol. 3396, 206–216.
  18. Albota S. (2023). Creating a Model of War and Pandemic Apprehension: Textual Semantic Analysis. CEUR Workshop Proceedings, Vol. 3396,  228–243.
  19. Taran A. (2023). Corpus Аnalysis of Word Semantics. CEUR Workshop Proceedings, Vol. 3396, 373–384.
  20. Basyuk T., Vasilyuk A., Lytvyn V. (2019). Mathematical model of semantic search and search optimization. CEUR Workshop Proceedings, Vol. 2362, 96–105.
  21. Sharonova Natalia, Kyrychenko Iryna, Gruzdo Iryna, Tereshchenko Glib (2022). Generalized Semantic Analysis Algorithm of Natural Language Texts for Various Functional Style Types. CEUR Workshop Proceedings, Vol. 3171, 16–26.