ФІЛОСОФІЯ «ВЧЕНОЇ НЕОСВІДЧЕНОСТІ»: ЛІНГВІСТИЧНІ ТА КОНЦЕПТУАЛЬНІ АСПЕКТИ ГАЛЮЦИНАЦІЙ У ВЕЛИКИХ МОВНИХ МОДЕЛЯХ

Автор(и)

DOI:

https://doi.org/10.32782/2410-0927-2025-23-2

Ключові слова:

штучний інтелект (ШІ), великі (статистичні) мовні моделі (LLM), лінгвістичний аналіз, галюцинації, філософія, docta ignorantia

Анотація

Велик (статистичні) мовні моделі (LLM), такі як GPT-4, Claude, Gemini та PaLM, демонструють вражаючі лінгвістичні можливості, протре усі мають один критичний недолік: «галюцинації» – упевнені, необґрунтовані відповіді. Ці вигадки виникають тоді, коли моделі генерують правдоподібну на вигляд інформацію без фактичного підґрунтя. Попри технічний прогрес, ця базова проблема й досі залишається невирішеною: LLM не здатні розпізнати момент, коли їм бракує знань. У цій статті явище галюцинацій розглядається крізь лінгвістичну й філософську призму docta ignorantia («вченої неосвідченості») – концепції, запропонованої у ХV столітті середньовічним мислителем Миколою Кузанським. Він стверджував, що справжня мудрість починається з усвідомлення меж власного знання. Застосовуючи цю ідею до штучного інтелекту, автори доводять, що галюцинації мовних моделей випливають із браку епістемічної скромності – вони «не знають, що не знають». Замість того щоб виявляти невизначеність, моделі вигадують лінгвістично коректні відповіді, що спричиняє поширення дезінформації та підривати довіру до систем ШІ. У статті окреслюється кілька ключових моментів зазначеної проблеми. По-перше, аналізується docta ignorantia («вчена неосвідченість») та її значення для епістемології ШІ. По-друге, розглядаються лінгвістичні й технічні причини галюцинацій, зокрема ймовірнісне генерування тексту та відсутність «усвідомленого» розуміння. По-третє, продемонстровано, що наявні стратегії пом’якшення проблеми – як-от калібрування впевненості та доповнення через пошук (retrieval augmentation) – лише імітують усвідомлення незнання, але не усувають глибинний епістемологічний розрив. Запропоновано підхід до створення ШІ, який відображає засадничий принцип мудрості: розуміння меж власних знань. Пропонується переосмислити галюцинації не просто як технічний збій у системах ШІ, а як філософську та лінгвістичну поразку.

Посилання

Bengio, Y. (2023, May 7). AI scientists: Safe and useful AI? Yoshua Bengio. https://yoshuabengio.org/2023/05/07/ai-scientists-safe-and-useful-ai/

Cusa, N. (1440/1981). On learned ignorance (J. Hopkins, Trans.; 2nd ed.). Minneapolis, MN: Arthur J. Banning Press. https://dl1.cuni.cz/pluginfile.php/1019097/mod_resource/content/1/On%20Learned%20Ignorance%20by%20Nicholas%20of%20Cusa%2C%20translated%20by%20Jasper%20Hopkins.pdf

Detommaso, G., Bertran, M., Fogliato, R., & Roth, A. (2024). Multicalibration for confidence scoring in LLMs (arXiv:2404.04689). arXiv. https://arxiv.org/abs/2404.04689

Hopkins, J. (2020). Nicholas of Cusa. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall 2020 Edition). Stanford University. https://plato.stanford.edu/entries/cusanus/

Hopkins, J. (Trans.). (2001). Complete philosophical and theological treatises of Nicholas of Cusa. Banning Press.

Jones, N. (2025, January 21). AI hallucinations can’t be stopped – but these techniques can limit their damage. Nature, 637(8047), 778–780. https://doi.org/10.1038/d41586-025-00068-5

Klapper, S. (2025, March 24). Beyond Turing: The next test for AI. Discourse Magazine. https://www. discoursemagazine.com/p/beyond-turing-the-next-test-for-ai

Kumar M, Mani U, Tripathi P, et al. (August 10, 2023) Artificial Hallucinations by Google Bard: Think Before You Leap. Cureus 15(8): e43313. doi:10.7759/cureus.43313

Liu, H., Xue, W., Chen, Y., Chen, D., Zhao, X., Wang, K., Hou, L., Li, R., & Peng, W. (2024). A survey on hallucination in large vision-language models. arXiv. https://arxiv.org/abs/2402.00253

Liu, Q., Chen, X., Ding, Y., Xu, S., Wu, S., & Wang, L. (2025). Attention-guided self-reflection for zero-shot hallucination detection in large language models (arXiv:2501.09997). arXiv. https://doi.org/10.48550/arXiv.2501.09997

Ma, S., Wang, X., Lei, Y., Shi, C., Yin, M., & Ma, X. (2024). “Are you really sure?” Understanding the effects of human self-confidence calibration in AI-assisted decision making (arXiv:2403.09552). arXiv. https://doi.org/10.48550/arXiv.2403.09552

Miller, Clyde Lee, «Cusanus, Nicolaus [Nicolas of Cusa]», The Stanford Encyclopedia of Philosophy (Summer 2025 Edition), Edward N. Zalta & Uri Nodelman (eds.), forthcoming URL = <https://plato.stanford.edu/archives/sum2025/entries/cusanus/>.

Rao, S., & Ramstad, A. (2023, December 21). Legal fictions and ChatGPT hallucinations: ‘Mata v. Avianca’ and generative AI in the courts. New York Law Journal. https://www.law.com/newyorklawjournal/2023/12/21/legal-fictions-and-chatgpt-hallucinations-mata-v-avianca-and-generative-ai-in-the-courts/

Sun, Y., Sheng, D., Zhou, Z., & et al. (2024). AI hallucination: Towards a comprehensive classification of distorted information in artificial intelligence-generated content. Humanities and Social Sciences Communications, 11, 1278. https://doi.org/10.1057/s41599-024-03811-x

Trotolo, F., Ahmed, A., Hayat, H., & Hayat, D. (2025, April 16). Retrieval-Augmented Generation (RAG): Bridging LLMs with external knowledge. Walturn. https://www.walturn.com/insights/retrieval-augmented-generation-(rag)-bridging-llms-with-external-knowledge

Wikipedia contributors. (2025, May 11). Hallucination (artificial intelligence). Wikipedia. https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)

Xu, Z., Jain, S., & Kankanhalli, M. (2024, January 22). Hallucination is inevitable: An innate limitation of large language models [Preprint]. arXiv. https://doi.org/10.48550/arXiv.2401.11817

##submission.downloads##

Опубліковано

2025-12-30

Як цитувати

БІСКУБ, І., & ЛЕВАНДОВСЬКИЙ, В. (2025). ФІЛОСОФІЯ «ВЧЕНОЇ НЕОСВІДЧЕНОСТІ»: ЛІНГВІСТИЧНІ ТА КОНЦЕПТУАЛЬНІ АСПЕКТИ ГАЛЮЦИНАЦІЙ У ВЕЛИКИХ МОВНИХ МОДЕЛЯХ. Актуальні питання іноземної філології, (23), 12–21. https://doi.org/10.32782/2410-0927-2025-23-2

Статті цього автора (авторів), які найбільше читають