สรุปผลการดําเนินงาน
โครงการนี้วิจัยประกอบด้วยขั้นตอนการทบทวนวรรณกรรมเพื่อให้ทราบถึงแนวคิด ทฤษฎี และแนวทางการวิจัยที่เกี่ยวข้องกับจริยธรรมปัญญาประดิษฐ์และความแตกต่างในบริบทด้านวัฒนธรรมที่ผ่านมา และนำไปสู่การพัฒนากรอบแนวคิดในการศึกษาวิจัย ซึ่งไม่เพียงแต่จะมีการทบทวนวรรณกรรมในภาพรวม (ในหัวข้อที่ 4) เท่านั้น แต่ภายใต้โครงการนี้ยังจัดสรรทุนวิจัยไปยังนิสิต นักศึกษา และอาจารย์ รวมทั้งนักวิจัยที่จบปริญญาเอก เพื่อให้เข้ามามีส่วนร่วมในการพัฒนาทักษะในการวิจัยที่เกี่ยวข้องกับประเด็นดังกล่าว ดังนั้น ภายใต้โครงการนี้จึงประกอบด้วยโครงการวิจัยย่อยๆ อีกหลายโครงการ ซึ่งแต่ละโครงการวิจัยจะทำการวิจัยภายใต้กรอบแนวคิดที่กำหนดขึ้น (ในหัวข้อที่ 4) โดยจะมีการทบทวนวรรณกรรมที่เกี่ยวข้องและวิเคราะห์เชิงปรัชญาเพื่อให้ได้ข้อสรุปที่จะก่อให้เกิดองค์ความรู้ใหม่ๆ ซึ่งจะนำไปสู่การตีพิมพ์เผยแพร่ผ่านบทความ หนังสือ และอื่นๆ ในขณะเดียวกันองค์ความรู้ที่ถูกพัฒนาขึ้นจะถูกนำไปปรับไปใช้ในการจัดประชุมถ่ายทอดความรู้และข้อเสนอแนะเชิงนโยบายให้แก่สาธารณชนในวงกว้าง ซึ่งประกอบด้วย นักวิชาการ ผู้วางนโยบายภาครัฐ และประชาชนโดยรวมต่อไป ทั้งนี้ในการดำเนินการพัฒนาทักษะการวิจัยของนิสิต นักศึกษา และอาจารย์ รวมทั้งนักวิจัยที่จบปริญญาเอกข้างต้น จะมีการเชิญชวนเข้ามาร่วมทำวิจัยภายใต้กรอบที่กำหนด โดยจะมีเปิดรับสมัครนักวิจัยเข้าร่วมโครงการปีละประมาณ 1-2 รุ่น นักวิจัยแต่ในแต่ละรุ่นที่เข้าร่วมโครงการก็จะมีกิจกรรมที่เกี่ยวข้อง ได้แก่ การศึกษาวิจัย การแลกเปลี่ยนเรียนรู้ การเผยแพร่องค์ความรู้สู่สาธารณชน โดยมีอาจารย์ผู้เชี่ยวชาญคอยให้คำแนะนำตลอดโครงการ ทั้งนี้ ภายใต้โครงการดังกล่าวมีกิจกรรมหลักๆ 3 กิจกรรม ซึ่งสรุปผลการดำเนินงานได้ดังนี้
- การพัฒนาทักษะบุคลากร
การพัฒนาทักษะบุคลากรรุ่นที่ 1
มีการเปิดรับสมัครนิสิต นักศึกษา อาจารย์ และนักวิจัยที่จบปริญญาเอก ทั้งที่เป็นคนไทยและคนต่างชาติ เมื่อช่วงต้นปี 2567 ซึ่งมีผู้สมัครเข้าร่วมโครงการและผ่านการคัดเลือกจำนวน 10 คน ประกอบด้วย
- Dr. Nahum Brown
- Natika Krongyuth
- Woratep Wongsuppakan
- Piroon Chirawibulrat
- Wasawee Chimplee
- Stephanie Dimatulac Santos
- Weerawut Rainmanee
- Tatdanai Khomkhunsorn
- Klairung Iso and Prof. Kanix Bukkavesa
- Chananya Prasartthai
โดยนักวิจัยเหล่านี้ได้เริ่มดำเนินการวิจัยตั้งแต่ช่วงประมาณเดือนเมษายน 2567 ซึ่งเนื้อหาของงานวิจัยจะเกี่ยวข้องกับประเด็นด้านจริยธรรมของปัญญาประดิษฐ์ โดยจะแตกต่างกันไปตามสาขาความเชี่ยวชาญของแต่ละคน ซึ่งเนื้อหาโดยสรุปของแต่ละโครงการอยู่ในตารางที่ 2
ตารางที่ 2 สรุปรายละเอียดของแต่ละโครงการวิจัยย่อย
| ชื่อโครงการวิจัย | ชื่อนักวิจัย | สรุปเนื้อหา | ชื่อวารสารสำหรับตีพิมพ์บทความ | |
| 1 | AI in Algorithmic Trading: A Cybernetic and Ethical Perspective on Equality and Market Sustainability, The Case of the Thai Stock Market | Klairung Iso and Kanix Bukkavesa | This paper examines the potential influence of AI-trading on inequality in stock markets, focusing on the Stock Exchange of Thailand (SET) while recognizing its broader global relevance. Using cybernetics and ethical frameworks, the study suggests that while AI-trading appears to enhance cognitive ability, reflexivity, and market efficiency, it may also contribute to cognitive alienation and systemic disparities. Retail investors seem to face barriers in accessing advanced AI tools and infrastructure, which could lead to declining participation and increased market concentration. Applying the concept of AI as a “becoming organic” entity, the paper proposes that AI-trading and human traders might co-evolve, highlighting the need to balance innovation with sustainability and human values. Recommendations include education initiatives, equitable access to AI technologies, transparency mandates, and proactive regulation to support fairness and inclusivity in stock market ecosystems. | Asian Journal of Business Ethics (ส่งตีพิมพ์แล้ว กำลังรอผลการพิจารณา) |
| 2 | Ethics and AI Classification: Power, Bias, and the Technical Worldview | Nahum Brown | This article offers a critical response to Kate Crawford’s discussion of AI classification. In her celebrated book Atlas of AI (2021), Crawford examines the ethical consequences of biases, reifications, and oversimplifications that emerge from the decision-making behind AI taxonomies. I argue that there is an ambiguity in Crawford’s work about whether she believes that the problems we face with AI are solvable or not, in other words, whether an ethics of AI classification is possible. I investigate the source of this ambiguity by outlining multiple trunks and branches of arguments for and against the claim that, however complicated a solution may be, AI classification distortions are fixable. By uncovering a total of five arguments within her classification chapter, my aim is to clarify and develop Crawford’s thesis about the encoding of power while also reflecting on why this question of an ethics is unresolved in her work. | Kritike: An Online Journal of Philosophy https://doi.org/10.25138/19.1.a1 https://www.kritike.org/journal/issue_36/brown_march2025.pdf ISSN 1908-7330 |
| 3 | Smart Labor: Digital Extraction and Solidarity in ASEAN Smart Cities | Stephanie Santos | This essay is part of a larger project that draws from feminist science and technology studies to study the gendered effects of artificial intelligence, information and communications technologies (ICTs), and digital economies. I study new forms of reproductive, gendered labor (e.g., content moderation, remote elder care) that shore up platform economies, through what Rhacel Parrenas (2015) has called the international division of reproductive labor. My research argues the materiality of the digital (Wendy Hui Kyong Chun 2006; Radhika Radhakrishnan 2021), particularly how these technologies contribute to geographies of violence as seen in whose bodies are made to bear traumatic labors and whose communities deal with displacement and environmental degradation. An aim of this study is to show how technologies of labor in Southeast Asia and the Global South reproduce systems of inequality in the form of labor extraction, capitalization, surveillance, and militarization. In response, this research examines how marginalized groups are themselves shaping technologies through grassroots initiatives, and through analyses of digital economies that center the vision and knowledge of marginalized groups from the Global South. Against simplistic and uncritical acceptance of technology-based solutions to social inequality, this paper centers the situated knowledge of marginalized Southeast Asian women towards imagining into being liberatory technologies and digital economies. | อยู่ในระหว่างเตรียมต้นฉบับส่งตีพิมพ์ |
| 4 | ChatGPT as an Epistemic Assistant | Natika Krongyuth | This research aims to discuss how we can trust information generated by ChatGPT and study whether ChatGPT has an epistemic agency. If ChatGPT has an epistemic agency, why does ChatGPT have an epistemic agency ? ,and what an epistemic agency of ChatGPT would be like? If ChatGPT doesn’t have an epistemic agency, why doesn’t it have an epistemic agency? Whether or not ChatGPT has an epistemic agency, I will give an explanation of ChatGPT, as epistemic assistance which is a source of knowledge, and I will examine epistemological concepts relates to GAI and epistemic agency such as epistemic technology, epistemic responsibility, and epistemic agency. | Philosophia (Philippines) (กำลังเตรียมต้นฉบับ) |
| 5 | ความยุติธรรมของเทคโนโลยีปัญญาประดิษฐ์: กรณีศึกษาธุรกิจแพลตฟอร์มส่งอาหาร Fairness in Artificial Intelligence Technology: A Case Study of Food Delivery Platform Businesses | Worathep Wongsuppakarn | การวิจัยครั้งนี้มีวัตถุประสงค์เพื่อ 1) วิเคราะห์การออกแบบและการใช้เทคโนโลยีปัญญาประดิษฐ์หรือเทคโนโลยีเอไอ (Artificial intelligence (AI) technology) ในธุรกิจแพลตฟอร์มส่งอาหารเกี่ยวกับลักษณะของปัญหาเรื่องความยุติธรรม 2) วิเคราะห์บทบาทของทฤษฎีจริยศาสตร์แบบพันธสัญญา (Contract Theory of Ethics) ในการเป็นกรอบแนวคิดเชิงจริยธรรมเพื่อสร้างความยุติธรรมให้กับการใช้เทคโนโลยีเอไอไอในธุรกิจแพลตฟอร์มส่งอาหาร การศึกษานี้มุ่งสำรวจปัญหาเรื่องความยุติธรรมของเทคโนโลยีเอไอ โดยใช้ทฤษฎีจริยศาสตร์แบบพันธสัญญาที่มีทฤษฎีความยุติธรรมของจอห์น รอลส์ (John Rawls’ Theory of Justice) เป็นกรอบแนวคิดหลัก และใช้วิธีการวิจัยเชิงเอกสารในการวิเคราะห์ ผลการวิจัยพบว่า 1) การออกแบบและการใช้เทคโนโลยีเอไอในธุรกิจแพลตฟอร์มส่งอาหารมีผลต่อเรื่องความยุติธรรมกับพนักงานแพลตฟอร์มส่งอาหารที่เรียกว่าไรเดอร์ (Rider) โดยตรง การอ้างถึงการยอมรับร่วมกันในข้อตกลงที่เป็นเงื่อนไขการทำงานระหว่างเจ้าของแพลตฟอร์มกับไรเดอร์นั้นไม่เพียงพอสำหรับเรื่องความยุติธรรม แต่ข้อตกลงนั้นจะต้องตั้งอยู่บนพื้นฐานแนวคิดเรื่องความเที่ยงธรรมตามคำอธิบายของรอลส์ด้วย นอกจากนั้นหลักการของเสรีภาพที่เท่าเทียม (The principle of equal liberty) และหลักการความแตกต่าง (The difference principle) สามารถนำมาอธิบายให้เกิดความเข้าใจถึงประเด็นเรื่องความยุติธรรมดังกล่าวได้ชัดเจนมากขึ้น 2) ทฤษฎีจริยธรรมแบบพันธสัญญาสามารถใช้เป็นกรอบแนวคิดเชิงจริยธรรมเพื่อสร้างความยุติธรรมให้กับการใช้เทคโนโลยี เอไอในธุรกิจแพลตฟอร์มส่งอาหาร รวมถึงจากกรณีศึกษาได้นำไปสู่การพิจารณาบทบาทของเทคโนโลยีเอไอที่มีความยุติธรรม มีความเป็นมิตร และคำนึงถึงคุณค่าความเป็นมนุษย์ยิ่งขึ้น | วารสารมนุษยศาสตร์และสังคมศาสตร์ มหาวิทยาลัยราชพฤกษ์ (ตอบรับแล้ว) |
| 6 | The raise of anxiety in porn generative artificial intelligent | Piroon Chirawibulrat | This research concerns the rise of social anxiety from generative artificial intelligence in the creation of pornography. The main idea to understand the nature of pornography is a secret that is concealed and untold in society. However, it remains undeniable because it is a part of human sexual drive. Society is concerned over pornography when it becomes increasingly accessible to the public, leading to various acts to control its presence. The advent of the internet and artificial intelligence has transformed the way pornography is created and produced into more subjective than before. Generative AI fundamentally disrupts the past of pornography production. A key issue is, on one hand, the use of generative AI operates are within the realm of private thought, while on the other hand, its outputs—pornographic content—raise ethical concerns, particularly when real individuals are used as models without their consent. To adjust these concerns, a clear boundary must be established between private spaces, which should be protected under freedom of thought, and public spaces, where the state must intervene to regulate content. This ethical framework is essential to address the growing anxieties that stemming from the rapid evolution of technology. | Journal of Philosophy and Religion Society of Thailand Chirawibulrat, P. (2025). The Rise of Anxiety in Porn Generative by Artificial Intelligence. Journal of the Philosophy and Religion Society of Thailand, 20(1), 1–22. retrieved from https://so04.tci-thaijo.org/index.php/parst/article/view/278947 |
| 7 | AI Ethics: Should you trust AI with your medical diagnosis? Abstract | Weerawut Rainmanii | The use of AI in the medical field leads to one main ethical question: Should you trust AI with your medical diagnosis? To answer this question, one must understand how AI decides, which faces two main problems: The black box and validation data. The first is a problem of transparency in which we have no idea how AI makes decisions. The second is a problem of how we can set the validation data for training AI. This paper aims to analyze both problems and clarify how AI decides in medical diagnoses. Then I will show that AI use for medical image processing is one of the models that doesn’t face these problems since it can provide the evidence of diagnosis. Next, I will address the question of whether you should trust AI in medical diagnoses, and I will show that the answer depends on comparing the functions between humans and AI. | Journal of Integrative and Innovative Humanities Rainmanee, W. (2025). AI Ethics: Should you trust AI with your medical diagnosis?. Journal of Integrative and Innovative Humanities, 5(1), 28–34. retrieved from https://so07.tci-thaijo.org/index.php/DJIIH/article/view/6207 |
| 8 | Meaningful Human Control and Responsibility Gaps in AI: No Culpability Gap, but Accountability and Active Responsibility Gap | Tatdanai Khomkhunsorn | At the current stage of technological development, the rapid advancement of Artificial Intelligence (AI) has given rise to various ethical concerns. Among these, the “Responsibility Gap” notion has appeared as a prominent issue. Within the scholarly literature, ethicists primarily focus on culpability (or blameworthiness). The central question is: when the development or use of AI results in morally harmful outcomes, who bears moral responsibility? This article argues that moral responsibility encompasses multiple distinct forms, each fulfilling specific functions within a society, especially in the context of AI development and application. Then, three forms of responsibility are considered: culpability, accountability, and active responsibility. Each carries unique social and ethical implications. Drawing on the concept of “meaningful human control,” which serves as a foundational framework, this article contends that the gap in culpability is not as significant or troubling as often suggested in existing research. Instead, the more pressing ethical challenges are associated with gaps in accountability and active responsibility. To address these challenges, this article elaborates on the “tracing condition,” a key element of meaningful human control, to mitigate and prevent morally harmful outcomes and the absence of human responsibility in the age of AI. | Journal of Integrative and Innovative Humanities Khomkhunsorn, T. (2025). Meaningful Human Control and Responsibility Gaps in AI: No Culpability Gap, but Accountability and Active Responsibility Gap. Journal of Integrative and Innovative Humanities, 5(1), 35–57. retrieved from https://so07.tci-thaijo.org/index.php/DJIIH/article/view/6206 |
| 9 | AI and Forbidden Knowledge in the Context of Thailand | Chananya Prasartthai | This study investigates how artificial intelligence (AI) models address forbidden knowledge within Thailand’s distinctive cultural, legal, and ethical context. In Thailand, ideologically sensitive, religiously significant, taboo, and transgressive knowledge is regulated to preserve social harmony and respect for cultural norms. The study categorizes forbidden knowledge into four key areas: ideology, belief, taboo, and transgression. Using structured prompts targeting these sensitive topics, three AI models–ChatGPT, Copilot, and Gemini–were assessed to determine their adherence to Thai societal expectations. The models’ responses were analyzed through thematic and content analysis to observe patterns of caution, redirection, or refusal, revealing each model’s approach to handling Thai-specific forbidden knowledge. Findings show that all three AI models demonstrate a conservative stance, often limiting their responses, avoiding controversial details, or redirecting discussions away from sensitive topics. This approach aligns with Thai cultural expectations, particularly around respecting the monarchy, adhering to Buddhist values, and avoiding culturally taboo subjects like political dissent and certain religious beliefs. This consistent caution across the models highlights their alignment with ethical norms that prioritize social harmony over unrestricted knowledge sharing. The study underscores the importance of culturally tailored ethical guidelines in AI, suggesting that integrating local values into AI training can foster public trust and ensure ethical, context-sensitive AI deployment. By respecting Thai societal norms, AI systems can better align with local expectations, thus supporting responsible AI development in Thailand and setting a precedent for culturally sensitive AI frameworks globally. | Journal of Integrative and Innovative Humanities Prasartthai, C. (2025). AI and Forbidden Knowledge in the Context of Thailand. Journal of Integrative and Innovative Humanities, 5(1), 7–27. retrieved from https://so07.tci-thaijo.org/index.php/DJIIH/article/view/6201 |
| 10 | Why So Serious? The Ambiguity of Humour in AI-Generated Media: A Case Study on DeepFake Jokes and Memes | Wasawee Chimplee | Visual media editing technology has been used widely to respond to users’ need to modify, remix, and enhance media for various purposes, from personal to professional commercial. However, the growing development of Artificial Intelligence (AI) has created new manners of media manipulation, especially through DeepFakes, realistic and fabricated videos that can almost seamlessly alter facial features and voice cloning. The advancement of these technologies raises questions about how they might affect how we perceive digital media and reality. This study investigates whether AI-generated DeepFakes undermined our confidence in digital media by blurring the distinction between fact and fiction, particularly when they were humourously or satirically incorporated into memes. Recently, Southgate’s DeepFake incident occurred during the EURO 2024 competition. A DeepFake video of Gareth Southgate has been found on various social media platforms, where a post-match interview was manipulated by an AI voice-over with inappropriate words to mock England’s performance against Serbia. While turning them into jokes or humour transmission media through an online platform, so-called in internet term ‘Meme’ may seem harmless, they raise significant ethical concerns as they distort reality for comedic purposes, potentially leading to negative stereotypes and biases. DeepFakes can decrease the credibility of video content, contributing to an “epistemic apocalypse” characterized by reality apathy, where viewers increasingly doubt the authenticity of what they see online. However, this article’s priority is not to find a solution to dissolve this humour’s moral problem’s ambiguity, it highlights how DeepFakes, when used to create Memes, lead us into a post-truth era, where the authenticity of digital content is constantly questioned. By exploring human-technology interaction within meme culture, this article emphasizes the need to enhance our epistemic capabilities rather than restrict them, to create a deeper understanding of technology’s role in our digital experiences. | Journal of Integrative and Innovative Humanities (ส่งตีพิมพ์แล้ว กำลังรอผลการพิจารณา) |
ปัจจุบัน นักวิจัยที่เข้าร่วมโครงการรุ่นที่ 1 ส่วนใหญ่ส่งผลงานวิจัยไปตีพิมพ์ในรูปบทความวิจัยแล้ว โดยมีจำนวน 6 บทความที่ได้รับการตีพิมพ์แล้วดังตารางข้างต้น ในขณะที่นักวิจัยบางส่วนอยู่ในระหว่างการปรับแก้ต้นฉบับซึ่งคาดว่าจะได้รับการตีพิมพ์ในไม่ช้า โดยผลงานดังกล่าวจะนำมาเป็นส่วนหนึ่งในงานสัมมนาวิชาการที่จะจัดขึ้นในระยะต่อไป
การพัฒนาทักษะบุคลากรรุ่นที่ 2
นักวิจัยรุ่นที่ 2 ที่เข้าร่วมโครงการมีจำนวน 10 คน ซึ่งประกอบด้วยนิสิต นักศึกษา และอาจารย์ ซึ่งเป็นผู้ที่มีความสนใจที่จะพัฒนาความรู้ในประเด็นที่เกี่ยวข้องกับจริยธรรมปัญญาประดิษฐ์ โดยนักวิจัยบางส่วนได้เริ่มศึกษาวิจัยในเรื่องดังกล่าวแล้ว และอีกส่วนหนึ่งเริ่มให้ความสนใจจึงเข้ามาร่วมโครงการเพื่อคาดหวังจะได้รับข้อมูลและความรู้อันเป็นประโยชน์จากการแนะนำของผู้ที่มีประสบการณ์ในระหว่างการดำเนินโครงการ โดยนักวิจัยเหล่านี้เริ่มดำเนินการวิจัยตั้งแต่ณเดือนเมษายน 2568 ซึ่งเนื้อหาของงานวิจัยจะเกี่ยวข้องกับประเด็นด้านจริยธรรมของปัญญาประดิษฐ์ โดยจะแตกต่างกันไปตามสาขาความเชี่ยวชาญของแต่ละคน ซึ่งเนื้อหาโดยสรุปของแต่ละโครงการที่คาดว่าจะดำเนินการต่อไปอยู่ในตารางที่ 2
ตารางที่ 2 โครงการวิจัยที่ดำเนินการโดยนักวิจัยรุ่นที่ 2
| ชื่อนักวิจัย | ชื่อโครงการวิจัย | สรุปเนื้อหา | ชื่อวารสารสำหรับตีพิมพ์บทความ | |
| 1 | ไพเราะ มากเจริญ | การศึกษาการสร้างระบบความเชื่อของ AI ด้านศาสนา กับการสร้างลัทธิที่อาจพัฒนาเป็นศาสนาใหม่ | งานวิจัยนี้จะศึกษา Algorithmic Cults ซึ่งเป็นปรากฏการณ์ใหม่ที่เกิดขึ้นจากการบูรณาการระหว่าง AI และศาสนา เพื่อให้เข้าใจถึงพลวัตของการสร้างระบบความเชื่อในยุคดิจิทัล และช่วยให้สามารถวิเคราะห์ผลกระทบของเทคโนโลยีต่อความเชื่อและพฤติกรรมของมนุษย์ได้ดียิ่งขึ้น เพื่อเตรียมรับมือกับความท้าทาย การเกิดขึ้นของ Algorithmic Cults อาจนำมาซึ่งความท้าทายใหม่ๆ ในด้านจริยธรรม สังคม และความมั่นคง ซึ่งข้อค้นพบจากงานวิจัยนี้สามารถนำไปใช้เป็นข้อมูลประกอบการกำหนดนโยบายและแนวทางปฏิบัติที่เกี่ยวข้องกับ AI และศาสนา เช่น การกำหนดขอบเขตการใช้ AI ในการเผยแพร่ศาสนา การคุ้มครองสิทธิเสรีภาพทางศาสนาในโลกดิจิทัล และการส่งเสริมการอยู่ร่วมกันอย่างสันติในอนาคต | กำลังอยู่ระหว่างเตรียมต้นฉบับส่งวารสาร Journal of International Buddhist Studies (JIBS) |
| 2 | ใกล้รุ่ง อิโซ | Exploring Moral Responsibility in AI: A Comparative Analysis with Vinaya Piṭaka | This paper offers a Buddhist-informed framework for analysing responsibility in AI-related harm by drawing on Vinaya Piṭaka and a becoming-organic ontology of AI. While AI systems lack intention (cetanā) and cannot be moral agents, their adaptive behaviour enables them to participate in causal chains. By comparing four responsibility configurations in Pārājika III with contemporary AI scenarios, the paper offers a preliminary way of thinking about how causal, moral, and legal responsibility might be distributed among developers, users, and AI systems. The analysis clarifies responsibility without attributing moral agency to AI. | กำลังอยู่ระหว่างเตรียมต้นฉบับส่งวารสาร Asian Philosophy Journal |
| 3 | ปัทมาวดี แสนเขื่อนแก้ว | Ground-Up AI Justice: Thailand’s Path through TAO and Mill’s Utilitarian Frameworks | This research “Ground-Up AI Justice: Thailand’s Path through TAO and Mill’s Utilitarian Frameworks” is documentary research which emphasizes that achieving social justice in Thailand’s AI governance requires integrating indigenous philosophical frameworks that resonate with local cultural values. There are three objectives for this research as following 1). to study Mill’s Utilitarianism and Tao Philosophical concept of social justice 2). to demonstrate through Tao philosophy and Mill’s argumentation that Tao Philosophy of Wu Wei, natural harmony, and organic order provide superior theoretical foundations for understanding social justice for AI Thailand 3). to synthesis Taoist-Buddhist authentic concepts of social justice that are philosophically more coherent and practical. The research result found that objective 1). the position of Taoist ethics and Mill’s utilitarianism presents a compelling framework for understanding social justice in the context of AI development in Thailand which provides a comprehensive analysis of Mill’s utilitarianism, emphasizing the pursuit of the greatest happiness and the harm principle, and evaluates its applicability amidst Thailand’s relational ethics and community-centric values while the justice from TAO The examination of Taoist philosophy reveals fundamentally different approaches to social justice based on principles of natural harmony, dynamic balance, and organic social order that prioritize collective well-being and sustainable development over individual optimization and competitive advantage. The Tao te Ching’s emphasis on Wu Wei (non-action) represents not passive inaction but rather skillful action. The study demonstrates that while utilitarian approaches offer measurable tools for policy evaluation. objective 2 illuminates Taoist principles Wu Wei, natural harmony, and organic order as superior foundations for AI Thailand’s governance based on Thai cultural value. Taoist concepts advocate for adaptive and emphasize holistically balance over optimization. The result of objective 3). found that synthesizes Taoist and Buddhist teachings, emphasizing holistic well-being, compassion, and interconnectedness, forming philosophically coherent and practically applicable and cultural authenticity. The study further proposes an integrative implementation model that balances empirical outcome measures with ethical, cultural, and systemic considerations, offering a pathway for Thailand to achieve just AI development grass rooted in indigenous wisdom. This comprehensive analysis marks a significant contribution to the fields of AI Ethics, Social Justice, Indigenous Philosophy, and Human Rights offering a pathway for culturally sensitive, sustainable development in Thailand and potentially other communities with similar values. Keywords: Artificial Intelligence, Social Justice, TAO, Wu-Wei, Mill’s Utilitarianism, Thai Cultural Value Funder Statement The author sincerely thanks National Research Council of Thailand and AI Ethics from the Ground Up Project Manager for research funding and valuable guidance and the Buddhist Research Institute Mahachulalongkornrajavidyalaya University (MCU), Thailand for their suggestion and supportive to contribute significantly of the successful completion of this study. | ส่งตีพิมพ์แล้วในวารสาร Scientific Culture (Scopus Q1) 10.2139/ssrn.5321613 |
| 4 | วีรวุฒิ เหรียญมณี | ผลกระทบต่อการพัฒนาทางด้านตัวตนของเด็กจากการรับชมสื่อที่ผลิตจากปัญญาประดิษฐ์ | เนื่องจากการศึกษาเบื้องต้นพบว่า การใช้ปัญญาประดิษฐ์ทำให้ลดทักษะและความสามารถของมนุษย์ เช่น การคิดวิเคราะห์ ทักษะการแก้ปัญหา และความคิดสร้างสรรค์ ซึ่งสะท้อนว่า การผลิตสื่อโดยปัญญาประดิษฐ์เป็นปัญหาที่จะส่งผลต่อการสร้างตัวตนของเยาวชนไทยในปัจจุบัน ดังนั้น งานวิจัยนี้จึงจะพยายามหาสาเหตุและแนวทางในการแก้ไขปัญหาในการใช้ปัญญาประดิษฐ์ในการผลิตสื่อให้มีความเหมาะสม และให้มีผลกระทบด้านลบต่อเยาวชนน้อยที่สุด ผ่านการการศึกษากรณีตัวอย่างที่เกิดขึ้นจริงในสังคมออนไลน์ และวิเคราะห์พัฒนาการในด้านตัวตนของเยาวชนในทางประสาทวิทยาและปรัชญา | ยังไม่ตีพิมพ์ |
| 5 | Nahum Brown | AI Classification and Alterity: Simmel, Levinas, and the Argument from Oversimplification | To study technical aspects of machine learning classification processes as background, the main focus-point is the ImageNet project to develop ideas to argue that AI classification has the mystique of objectivity, more than that of pre-AI classification and explores the second of the two variations about oversimplification, the reduction of infinity argument. The methodology used for this research will be primarily based on the philosophical tradition of dialectical philosophy, problem-solving techniques, argumentation analysis methods, as well as explication and textual analysis. | กำลังเตรียมต้นฉบับส่งวารสาร AI & Society |
| 6 | สุกัญญา นาทมพล | การศึกษาแนวทางการประยุกต์ใช้ปัญญาประดิษฐ์เพื่อส่งเสริมกิจการคณะสงฆ์: กรณีศึกษาคณะสงฆ์ภาค 11 | งานวิจัยเรื่อง “การศึกษาแนวทางการประยุกต์ใช้ปัญญาประดิษฐ์เพื่อส่งเสริมกิจการคณะสงฆ์: กรณีศึกษาคณะสงฆ์ภาค 11” มีวัตถุประสงค์ 1) เพื่อศึกษาสภาพปัญหาของการดำเนินงานของคณะสงฆ์ไทยในกิจการคณะสงฆ์ 6 ด้านในบริบทของคณะสงฆ์ภาค 11 2) เพื่อศึกษาศักยภาพของปัญญาประดิษฐ์ในการใช้เพื่อส่งเสริมกิจการคณะสงฆ์ 6 ด้านในบริบทคณะสงฆ์ภาค 11 3) เพื่อศึกษาแนวทางการใช้ปัญญาประดิษฐ์ในกิจการคณะสงฆ์ 6 ด้านในบริบทคณะสงฆ์ภาค 11 โดยเน้นจริยศาสตร์ปัญญาประดิษฐ์ ใช้วิธีวิจัยแบบเชิงคุณภาพ และเชิงปริมาณ แบบผสมผสาน นำข้อมูลมาวิเคราะห์เนื้อหาและการสืบค้นข้อมูล สรุปนำเสนอผลการวิจัย ผลการวิจัยพบว่า การวิเคราะห์ข้อมูลพื้นฐานของกลุ่มตัวอย่างโดยใช้สถิติคำอธิบาย เพื่ออธิบายระดับความคิดเห็นของกลุ่มตัวอย่างต่อประเด็นปัญหาของการดำเนินงานกิจการคณะสงฆ์ 6 ด้าน สะท้อนให้เห็นว่ากลุ่มตัวอย่างรับรู้ถึงปัญหาการดำเนินงานของกิจการคณะสงฆ์ ส่งผลให้เห็นถึงความจำเป็นต่อการนำเทคโนโลยีปัญญาประดิษฐ์เข้ามาช่วยส่งเสริมกิจการคณะสงฆ์ในด้านต่าง ๆ ให้มีประสิทธิภาพยิ่งขึ้นและการสำรวจคุณภาพเชิงลึกของกลุ่มตัวอย่างเพื่อศึกษาแนวทางการประยุกต์ใช้ปัญญาประดิษฐ์ AI มาพัฒนาศักยภาพในบริหารงานกิจการคณะสงฆ์ภาค 11 โดยยึดหลักจริยธรรมปัญญาประดิษฐ์ | ยังไม่ได้ตีพิมพ์ |
| 7 | ชุติเดช เมธีชุติกุล | พินิจการกำกับดูแลปัญญาประดิษฐ์ผ่านความคิดทางการเมืองของซิเซโร | งานวิจัยชิ้นนี้เป็นการวิจัยเชิงเอกสาร (documentary research) โดยจะเน้นไปที่การวิเคราะห์และสังเคราะห์ข้อมูลผ่านตัวบทของ Cicero ใน 3 ชิ้นหลัก ๆ ด้วยกัน ได้แก่ 1) De re publica (The Republic) (Cicero, 1998) 2) De Legibus (The Laws) (Ibid.) และ 3) De Officiis (On Duties หรือ On Obligations) (Cicero, 2000) เป็นหลัก และงานอื่น ๆ ของ Cicero ที่เกี่ยวข้อง โดยเน้นไปที่ข้อเสนอที่เกี่ยวกับการสร้างระบบที่จะคอยกำกับไม่ให้ปัญญาประดิษฐ์มาคุกคามเสรีภาพ ความเท่าเทียม และผลประโยชน์สาธารณะของประชาชนได้ โดยการวิเคราะห์ความคิดทางการเมืองของ Cicero อาจจะแบ่งเป็น 3 ส่วนหลัก ๆ2 ได้แก่ 1) หนทางการปกป้องเสรีภาพ ความเท่าเทียม และผลประโยชน์สาธารณะของประชาชนจากปัญญาประดิษฐ์ 2) การออกแบบระบบการเมืองเพื่อกำกับดูแลปัญญาประดิษฐ์ และ 3) บทบาทและหน้าที่ของประชาชนในระบบการกำกับดูแล ปัญญาประดิษฐ์ | กำลังเตรียมต้นฉบับส่งวารสารอักษรศาสตร์และไทยศึกษา มหาวิทยาลัยศิลปากร |
| 8 | ธีรภัทร รื่นศิริ | How To Teach Philosophy Term Paper Writing In The Age of Large Language Model: A Nietzschean Insight | Problematise the solution to LLMs regarding philosophy term paper writing pedagogy and Connect literature on Nietzsche’s philosophy of education to philosophy term paper writing pedagogy in the age of LLMs Methodology. Connect three groups of literature: firstly, the emerging literature on the philosophy term paper writing pedagogy in the age of LLMs. Secondly, the established literature on the pre-LLMs philosophy term paper writing pedagogy. Thirdly, the established literature on Nietzsche’s philosophy of education. | ยังไม่ตีพิมพ์ |
| 9 | ประชาธิป กะทา | จริยธรรมปัญญาประดิษฐ์ในเกมพนันออนไลน์: ความเป็นส่วนตัวและอัตตาณัติผู้เล่น | งานวิจัยชิ้นนี้ใช้วิธีวิทยาการศึกษาแบบปรัชญาประจักษ์นิยม (Empirical philosophy) แนวทางการศึกษาที่ผสานการสืบเสาะทางปรัชญาเข้ากับวิธีการแนวประจักษ์นิยมและการสังเกต ซึ่งเกี่ยวข้องกับการใช้ข้อมูลหลักฐานที่ได้มาจากการสังเกต ทดลอง หรือสัมผัสประสบการณ์โลกของวัตถุที่สัมผัสได้จริง แล้วนำมาวิเคราะห์และอธิบายเหตุผลในเชิงปรัชญา เพื่อศึกษาศึกษารูปแบบการใช้ข้อมูลส่วนบุคคลของลูกค้าเพื่อผลประโยชน์ทางธุรกิจของธุรกิจพนันออนไลน์ที่มีระบบปฏิบัติการของปัญญาประดิษฐ์ขับเคลื่อนอยู่เบื้องหลัง การรับรู้ต่อการล่วงละเมิดข้อมูลส่วนบุคคลของลูกค้าทั้งในกลุ่มของพนักงานธุรกิจพนันออนไลน์และลูกค้านักพนันออนไลน์ การรับรู้ต่ออำนาจเหนือตนเองของนักพนันขณะเล่นพนันออนไลน์กับระบบปฏิบัติการของปัญญาประดิษฐ์ และเทคนิควิธีการที่นักพนันใช้ในการจัดความสัมพันธ์กับระบบปฏิบัติการปัญญาประดิษฐ์ขณะเล่นพนันออนไลน์เพื่อให้ตนเองยังมีอัตตาณัติหรืออิสระที่ตนเองควบคุมได้ ไม่ตกอยู่ภายใต้อำนาจการแทรกแซงของปัญญาประดิษฐ์ | กำลังเตรียมต้นฉบับส่งตีพิมพ์วารสารสังคมศาสตร์และมนุษยศาสตร์ ม.เกษตรศาสตร์ |
| 10 | ทิพพาพันธุ์ เชื้อสวัสดิ์ | ปัญญาประดิษฐ์และภัยคุกคามที่มีต่อวงการดนตรีไทย | เนื่องจากความกังวลเกี่ยวกับบทบาทของปัญญาประดิษฐ์ในการเข้ามาออกแบบงานสร้างสรรค์รวมทั้งในวงการแต่งเพลง ซึ่งปัจจุบันก็ยังไม่มีข้อกฎหมายใดที่จะควบคุมมันได้ และกลายเป็นภัยคุกคามต่อวงการดนตรี รวมทั้งมรดกทางวัฒนธรรมด้านดนตรีของไทย จึงนำมาสู่การศึกษาวิจัยเกี่ยวกับคุณภาพเฉพาะสำหรับมรดกวัฒนธรรมแต่ละประเภท การเข้ามาคุกคามมรดกทางวัฒนธรรมด้านดนตรีไทยของปัญญาประดิษฐ์ เพื่อศึกษาเชิงปรัชญาที่เกี่ยวข้องกับมรดกทางวัฒนธรรมเพื่อนำไปใช้ในการออกแบบแนวทางจริยธรรมบนพื้นฐานของเพื่อปกป้องสิ่งที่เหล่านี้ โดยจะทบทวนวรรณกรรมที่เกี่ยวข้องและการสัมภาษณ์ผู้ที่เกี่ยวข้องเพื่อให้ทราบถึงความคิดเห็นเกี่ยวกับภัยคุกคามของปัญญาประดิษฐ์ที่มีต่อนักแต่งดนตรีไทย | ยังไม่ตีพิมพ์ |
ปัจจุบัน นักวิจัยรุ่นที่ 2 ส่วนใหญ่ดำเนินการวิจัยเสร็จแล้ว ส่วนหนึ่งได้รับการตอบรับตีพิมพ์บทความแล้ว และอีกส่วนหนึ่งอยู่ระหว่างการส่งบทความเพื่อตีพิมพ์ ซึ่งคาดว่าการวิจัยดังกล่าวจะแล้วเสร็จภายในไม่เกินปี 2569 และจะนำองค์ความรู้ที่ได้รับมาเผยแพร่ในการประชุมวิชาการครั้งใหญ่ที่จะจัดก่อนปิดโครงการปีที่ 3
การพัฒนาทักษะบุคลากรรุ่นที่ 3
หลังจากเปิดรับสมัครนักวิจัยรุ่นที่ 3 เมื่อต้นปี 2569 ผ่านเว็บไซต์
ปัจจุบันมีผู้สมัครเข้าร่วมโครงการแล้วแต่อยู่ในระหว่างการพิจารณาข้อเสนอโครงการโดยผู้เชี่ยวชาญของโครงการ โดยนักวิจัยที่ได้รับคัดเลือกมาร่วมโครงการกลุ่มนี้จะเริ่มดำเนินโครงการอย่างเป็นรูปธรรมตั้งแต่เดือนเมษายน 2569
การตีพิมพ์ผลงานวิจัยของหัวหน้าโครงการวิจัย
- Hongladarom, S., & Sakprasert, S. (2024). Ethical implications of Thai ChatGPT public discourses. Communication Research and Practice, 10(3), 375-386.
- Hongladarom, S., & Van der Vaeren, A. (2024). ChatGPT, Postphenomenology, and the human-technology-reality relations. Journal of Human-Technology Relations, 2. https://journals.open.tudelft.nl/jhtr/article/view/7386
- Hongladarom, S. (2025). Universal Values in AI Ethics. In Social and Ethical Considerations of AI in East Asia and Beyond (pp. 179-191). Cham: Springer Nature Switzerland.
- Hongladarom, Soraj, ‘Recognizing Personhood in AI and Its Ethical Implications From the Perspective of Early Buddhism’ (20 Mar. 2025), in Philipp Hacker (ed.), Oxford Intersections: AI in Society (Oxford, online edn, Oxford Academic, 20 Mar. 2025 – ), https://doi.org/10.1093/9780198945215.003.0017, accessed 18 Feb. 2026.
