Journal of Global Tourism and Technology Research, cilt.7, sa.1, ss.1-9, 2026 (Hakemli Dergi)
Bu çalışma, üretken yapay zekânın akademik üretim süreçlerinde hızla yaygınlaşmasıyla birlikte gündeme gelen yapay zekâ tespit araçlarının metodolojik sınırlarını ve etik entegrasyonunu tartışan kavramsal bir incelemedir. Büyük dil modellerinin (LLM) insan yazımına çok yakın metinler üretebilmesi, dedektör tespitlerinin editörler ve değerlendiriciler için pratik bir kanıt gibi yorumlanmasına yol açabilmektedir. Ne var ki mevcut çalışmalar bu araçların yanlılığa sebep olabildiğini, farklı dedektörlerin aynı metin için tutarsız oranlar verebildiğini ve küçük düzenlemelerle kolayca aşılabildiğini göstermektedir. Uluslararası yayın etiği ilkeleri ve ulusal kılavuzlar yapay zekânın yazar olamayacağını, kullanımın şeffaf biçimde beyan edilmesini ve çıktıların sorumluluğunun araştırmacıda olduğunu vurgulamaktadır. Bu nedenle çalışma, dedektör çıktılarının tek başına yaptırım gerekçesi olamayacağını, bunun yerine şeffaf beyan, yazar sorumluluğu ve insan kontrolünün merkezde olduğu editöryal değerlendirme temelli bir yaklaşımın benimsenmesi gerektiğini savunmaktadır. Sonuç olarak dedektörler yalnızca karar destek amacıyla kullanılmalı, nihai değerlendirmeler kanıtlanabilirlik, kaynak doğrulanabilirliği ve entelektüel katkı ölçütleri üzerinden yürütülmelidir.
This study is a conceptual review that discusses the methodological limitations of AI detection tools and their ethical integration into academia, in a context where generative AI is rapidly spreading across scholarly production processes. Because large language models (LLMs) can generate texts that closely resemble human writing, detector outputs may be treated by editors and evaluators as practical evidence. However, the existing literature shows that these tools can introduce bias, that different detectors may produce inconsistent scores for the same text, and that they can be easily bypassed through minor edits. International publication ethics principles and national guidelines emphasize that AI cannot be credited as an author, that any use should be transparently disclosed, and that responsibility for the outputs rests with the researcher. Accordingly, this study argues that detector results alone cannot justify sanctions; instead, an editorial approach centred on transparent disclosure, author responsibility, and human oversight should be adopted. Ultimately, detectors should be used only for decision support, while final evaluations should be based on evidentiary strength, source verifiability, and intellectual contribution.