ПІДХІД ДО ГЕНЕРАЦІЇ ТЕКСТУ НА ОСНОВІ МОВНОЇ МОДЕЛІ BERT

Автор(и)

  • А. А. Яровий Вінницький національний технічний університет
  • Д. С. Кудрявцев Вінницький національний технічний університет

DOI:

https://doi.org/10.31649/1997-9266-2024-177-6-113-120

Ключові слова:

BERT, термінологічні бази знань, семантичний пошук, мовні моделі, генерація термів

Анотація

Запропоновано застосування мовної моделі BERT для задач пошуку і генерації термів у термінологічних базах знань (ТБЗ) з використанням оптимізації для інтелектуальних чат-ботів. Описується архітектура моделі BERT, механізм уваги, алгоритми обробки тексту та основні етапи навчання моделі. Розглянуто використання BERT для семантичного пошуку термів, а також методи адаптації моделі для генерації тексту з урахуванням семантичної цінності кожного терму. Виконано порівняльний аналіз мовної моделі BERT з моделями серії GPT, який продемонстрував сильні та слабкі сторони BERT у контексті пошукових і генеративних задач. У статті також детально розглянуто метрики оцінки якості пошуку термів, такі як Precision, Recall, F1-score, Mean Reciprocal Rank (MRR), Normalized Discounted Cumulative Gain (nDCG) та інші, що дозволяють комплексно оцінювати ефективність пошуку та генерації термів. Розглянуто практичні аспекти інтеграції BERT у системи управління знаннями та надано рекомендації щодо донавчання моделі для вузькоспеціалізованих ТБЗ. До того ж, зосереджено увагу на етичні аспекти використання мовних моделей, зокрема ризики виникнення упередженості (bias) у пошуку та генерації термів, а також важливість забезпечення точності й об’єктивності згенерованих результатів. Обговорюється відповідальне використання BERT для уникнення помилкових або шкідливих висновків під час автоматичної обробки знань. Здійснено розробку програмного забезпечення для тестування мовної моделі BERT. Виконано тестування навчання мовної моделі на різних наборах даних. Результатом тестування доведено високу ефективність використання мовної моделі BERT з урахуванням оптимізації для задачі генерації тексту. Зазначено можливі покращення BERT для роботи з ТБЗ, зокрема методи донавчання моделі на специфічних доменних даних, використання мультимовної версії BERT для обробки багатомовних баз знань, а також техніки оптимізації моделі для підвищення продуктивності в умовах обмежених обчислювальних ресурсів. Запропоновано підходи до тестування та оцінки ефективності пошуку, зокрема використання автоматичних метрик. У заключній частині статті окреслено подальші напрямки досліджень, зокрема інтеграцію BERT з нейронними пошуковими системами, автоматичну генерацію нових термів та розширення функціоналу систем управління знаннями на основі глибокого навчання.

Біографії авторів

А. А. Яровий, Вінницький національний технічний університет

д-р техн. наук, професор, завідувач кафедри комп’ютерних наук

Д. С. Кудрявцев, Вінницький національний технічний університет

аспірант, асистент кафедри комп’ютерних наук

Посилання

СПИСОК ВИКОРИСТАНОЇ ЛІТЕРАТУРИ

A. Subakti, H. Murfi, and N. Hariadi, “The performance of BERT as data representation of text clustering,” J. Big Data, no. 9, 15, 2022. https://doi.org/10.1186/s40537-022-00564-9 .

W. Liu, et al., “K-BERT: Enabling Language Representation with Knowledge Graph,” in Proceedings of the AAAI Conference on Artificial Intelligence, no. 34 (03), 2020, pp. 2901-2908. https://doi.org/10.1609/aaai.v34i03.5681 .

S. Shen, et al., “Q-BERT: Hessian Based Ultra Low Precision Quantization of BERT,” in Proceedings of the AAAI Conference on Artificial Intelligence, 34(05), 2020, pp. 8815-8821. https://doi.org/10.1609/aaai.v34i05.6409 .

M. Pankiewicz, “Large Language Models (GPT) for automating feedback on programming assignments,” in 31st International Conference on Computers in Education (ICCE), vol. 13, 2023. https://doi.org/10.48550/arXiv.2307.00150 .

A. Moffat, “Computing Maximized Effectiveness Distance for Recall-Based Metrics,” in IEEE Transactions on Knowledge and Data Engineering, vol. 30, no. 1, pp. 198-203, 1 Jan. 2018. https://doi.org/10.1109/TKDE.2017.2754371 .

J. Sun, et al., “Deep learning-based methods for natural hazard named entity recognition,” Sci Rep., no. 12, pp. 4598, 2022. https://doi.org/10.1038/s41598-022-08667-2.

A. Bello, S.-C. Ng, and M.-F. Leung, “A BERT Framework to Sentiment Analysis of Tweets,” Sensors, no. 23, pp. 506, 2023. https://doi.org/10.3390/s23010506 .

Y. Chen, X. Kou, J. Bai, and Y. Tong, “Improving BERT With Self-Supervised Attention, ” in IEEE Access, vol. 9, pp. 144129-144139, 2021. https://doi.org/10.1109/ACCESS.2021.3122273 .

M. H. Syed, S-T. Chung, “MenuNER: Domain-Adapted BERT Based NER Approach for a Domain with Limited Dataset and Its Application to Food Menu Domain,” Applied Sciences, no. 11(13), pp. 6007, 2021. https://doi.org/10.3390/app11136007 .

A. Wang, and K. Cho, BERT has a Mouth, and It Must Speak: BERT as a Markov Random Field Language Model, 2019. https://doi.org/10.48550/arXiv.1902.04094 .

Dr. A. Shaji George, A. S. Hovan George, Dr. T. Baskarand A. S. Gabrio Martin, “Revolutionizing Business Communication: Exploring the Potential of GPT-4 in Corporate Settings,” Partners Universal International Research Journal (PUIRJ), vol. 2, no. 1, pp. 149-157, Mar. 2023, https://doi.org/10.5281/zenodo.7775900 . ISSN: 2583-5602.

S. Jacobs, and S. Jaschke, “Leveraging Lecture Content for Improved Feedback: Explorations with GPT-4 and Retrieval Augmented Generation, ” in 36th International Conference on Software Engineering Education and Training (CSEE&T), Würzburg, Germany, 2024, pp. 1-5, https://doi.org/10.1109/CSEET62301.2024.10663001 .

Gabriel A., Kensho Derived Wikimedia Dataset, 2020. [Electronic resource]. Available: https://www.kaggle.com/datasets/kenshoresearch/kensho-derived-wikimedia-data. Accessed on September 1, 2024.

B. D. Lund, and T. Wang, “Chatting about ChatGPT: how may AI and GPT impact academia and libraries?” Library Hi Tech News, vol. 40, no. 3, pp. 26-29, 2023. https://doi.org/10.1108/LHTN-01-2023-0009 .

##submission.downloads##

Переглядів анотації: 4

Опубліковано

2024-12-27

Як цитувати

[1]
А. А. Яровий і Д. С. . Кудрявцев, «ПІДХІД ДО ГЕНЕРАЦІЇ ТЕКСТУ НА ОСНОВІ МОВНОЇ МОДЕЛІ BERT», Вісник ВПІ, вип. 6, с. 113–120, Груд. 2024.

Номер

Розділ

Інформаційні технології та комп'ютерна техніка

Метрики

Завантаження

Дані завантаження ще не доступні.

Статті цього автора (авторів), які найбільше читають