행사 및 알림

행사

  • Digital Humanities Workshops: Experimental and Conceptual Engineering Approaches to Philosophical Problems of AI
  • 관리자
  • 2025-12-03 14:00:12
  • 76

카이스트 구성원 여러분께, 

안녕하세요. 디지털인문사회과학센터에서 다가오는 12월 13일(토)에 “Experimental and Conceptual Engineering Approaches to Philosophical Problems of AI”라는 주제로 Digital Humanities 워크숍을 개최합니다. 이번 워크숍에서는 인공지능의 도덕적 지위에 대한 통속심리학적 접근 및 구조방정식 모형을 활용한 심리학 연구 사례에 대한 검토를 통해 AI 실험 철학 분야의 최근 연구 동향을 살펴볼 예정입니다. 또한 개념 공학적 관점에서 AI가 구현하는 철학적 대화에서 작동하는 연역 이론 및 AI의 언어 추론 능력이 철학 교육에 시사하는 바에 대한 논의가 진행될 예정입니다. 

AI 관련 실험 철학 및 개념 공학 분야의 최근 연구 동향이 다채롭게 논의될 이번 워크숍에 많은 관심과 참여 부탁드립니다.

 

Digital Humanities Workshops: Experimental and Conceptual Engineering Approaches to Philosophical Problems of AI

  • 일시: 2025년 12월 13일 (토요일)

  • 장소: KAIST 디지털인문사회과학부동 4층 국제회의실 (N4, 1433호) 

 

발표 1: 기계의 도덕적 지위에 관한 통속 심리학적 분석, 노형래 (부산대 철학과) 

초록: 관계론적 접근에 의하면, 인공지능의 도덕적 지위는 인공지능과 인간의 사회적 관계, 특히 인공지능에 대한 언어 사용으로부터 창발한다. 이러한 접근은 우리가 인공지능을 사람처럼 대한다는 것으로부터 인공지능에게 도덕적 피동성과 행위자성을 부여할 근거를 마련한다. 본 논문은 인공지능 맥락의 일상 언어 사용을 분석하여, 우리가 인공지능을 진정한 의미에서 사람으로 대하는지 살핀다. 기존 실험철학과 심리학 데이터에 따르면, 우리는 인공지능을 진정한 의미에서 도덕적 피동자로 여기지 않는다. 나아가 우리가 인공지능을 '행위자'로 여기는 방식은 인간을 행위자로 여기는 방식과 개념적으로 다르다. 이를 종합하면, 관계론적 접근에 따라 창발하는 인공지능의 도덕적 지위는 인간에게 통상적으로 부여하는 도덕적 지위와 그 의미가 다르다.
 

발표 2: 구조방정식 모형 소개, 이우열 (충북대 심리학과)

초록: 구조방정식 모형은 연구자가 수집한 여러 변인들 간의 관계를 모형화하는 구조모형과 각 변인에서의 참가자 특질을 측정하는 측정모형이 결합된 모형이다. 본 발표에서는 통계에 익숙하지 않은 일반인도 쉽게 접근할 수 있도록 예시와 시각 자료를 활용해서 구조방정식의 기본 개념과 활용 사례를 소개하고자 한다.  구조방정식 모형이 사용된 연구 결과를 올바르게 해석하는 것을 목표로 한다. 
 

발표 3: 인공지능이 철학자가 된다는 것은 무엇인가? 이찬우 (아주대 다산학부대학)

초록: AI가 철학자가 되기 위해서는 무엇이 필요한가? 어쩌면 지금의 AI는 이미 그 경지에 도달한 것은 아닐까? 이러한 질문에 답하기 위해선 '철학자' 그리고 '철학함'이라는 개념 자체를 재고해야 하며, 곧 철학자가 된다는 것은 무엇인지를 다시 한번 생각해 볼 필요로 한다. 이 발표에서는 해당 문제에 접근함에 있어 카타리나 두틸 노베이스(Catarina Dutilh Novaes)의 대화적 연역 이론에 준거한 답안을 모색한다. 두틸 노베이스의 증명자-회의자 대화 모형은 철학적 이상과 실천 모두를 잘 포착하며, 곧 '철학자' 그리고 '철학함'이라는 개념을 "개념공학"하는데 있어서 매우 유용하다고 본 발표에서는 논할 것이다. 나아가 해당 모형을 바탕으로 본 발표에서는 과연 AI가 철학자가 될 수 있을지, 나아가 AI가 인간 철학자를 "대체"할 수 있을지 따져보겠다.
 

발표 4: AI의 비판적 사고 능력 평가 및 교육적 활용 가능성, 최승락 (한림대 인문학부 철학전공)

초록: 비판적사고 능력은 AI시대에 가장 주요하게 발달시켜야 할 능력(Zahidi, Saadia, et al. “The Future of Jobs Report 2023”)임에도 최근 ChatGPT나 Gemini 등의 거대 언어 모델을 활용한 생성형 AI의 발달로 사람들의 비판적 사고 능력 저하가 문제시 되어 오고 있다. (참고. BCG Editorial Team. "생성형 AI로 가치를 창출하고 또 파괴하는 법." BCG 블로그. October 10, 2023.) 이에 따라 각 고등교육 기관에서는 그 어느때보다 비판적사고 교육의 필요성이 대두되고 있는 실정이다.
 이에 본 연구는 특히 철학 교육에 있어 비판적사고 능력을 향상시키기 위한 방안을 제안하고 이러한 교육법을 시행하기 위한 교육 자료를 제작하는데 있어 AI를 활용하는 것이 적절한가에 대해 평가한다. 먼저 본 연구는 비판적사고 능력 향상을 위해 한국의 공직적성평가(PSAT) 언어논리 영역 및 법학적성평가(LEET)의 추리추론에서 자주 등장하는 논증의 강화 및 약화 문제 유형이 최근 한국 학생들의 비판적사고 능력 교육에 도움이 될 수 있음을 주장할 것이다. 다음으로 최근 거대 언어 모델을 차용한 생성형 AI가 이러한 문제를 풀이하는 충분한 능력이 있는지에 대해 ChatGPT-5 thinking 및 pro 모델과 Gemini 3 pro 모델을 중심으로 논의할 것이다. 마지막으로 문제 풀이 능력을 떠나 실제로 이러한 모델을 통해 강화 및 약화 문제를 출제하는 능력이 있는가에 대한 평가가 필요함을 논의할 것이다. 


 

The Center for Digital Humanities and Computational Social Sciences is pleased to announce that we will host a Digital Humanities Workshop on Saturday, December 13, 2025, under the theme “Experimental and Conceptual Engineering Approaches to Philosophical Problems of AI.”

This workshop will examine recent research trends in experimental philosophy of AI through discussions of folk-psychological approaches to AI’s moral status and psychological studies employing structural equation modeling. It will also address issues raised from a conceptual engineering perspective, including the deductive theories operating within AI-mediated philosophical dialogues and the implications of AI’s linguistic reasoning abilities for philosophical education.

We kindly ask for your interest and participation in this workshop, where diverse and dynamic research in experimental philosophy and conceptual engineering related to AI will be explored. Relevant information and the poster are attached.
 

Digital Humanities Workshops: Experimental and Conceptual Engineering Approaches to Philosophical Problems of AI

  • Date: Saturday, December 13, 2025

  • Venue: International Seminar Room, 4th Floor, KAIST, School  of Digital Humanities and Computational Social Sciences Building (N4, Room 1433)

 

Talk 1: A Folk-Psychological Analysis of the Moral Status of Machines

Speaker: Hyungrae Noh (Department of Philosophy, Pusan National University)

Abstract: According to relational approaches, the moral status of artificial intelligence emerges from the social relationships between AI and human beings, particularly from our linguistic practices toward AI. This perspective claims that treating AI as if it were a person provides grounds for attributing moral patiency and agency to AI. This paper analyzes ordinary language use in AI-related contexts to examine whether we genuinely treat AI as persons. Existing data from experimental philosophy and psychology indicate that we do not regard AI as moral patients in the genuine sense. Moreover, the way we consider AI as “agents” is conceptually different from the way we consider humans as agents. Taken together, these points suggest that the moral status emerging from relational approaches differs in meaning from the moral status ordinarily attributed to human beings. 
 

Talk 2: An Introduction to Structural Equation Modeling

Speaker: Wooyeol Lee (Department of Psychology, Chungbuk National University)

Abstract: Structural equation modeling (SEM) combines a structural model that captures relationships among variables with a measurement model that assesses participant traits measured by those variables. This talk introduces the basic concepts and applications of SEM in an accessible manner—using examples and visual materials so that even those unfamiliar with statistics can follow. The goal is to help participants correctly interpret research results that employ SEM. 
 

Talk 3: What Does It Mean for Artificial Intelligence to Become a Philosopher?

Speaker: Chanwoo Lee (Dasan University College, Ajou University)

Abstract: What would be required for AI to become a philosopher? Could current AI systems already have reached that stage? To address these questions, we must reconsider the very concepts of “philosopher” and “philosophizing,” and reflect on what it really means to be a philosopher. This presentation approaches the issue by drawing on Catarina Dutilh Novaes’s dialogical theory of deduction. Her proponent–opponent model of dialogue captures both philosophical ideals and practices, making it highly useful for the conceptual engineering of “philosopher” and “philosophizing.” Building on this model, the presentation further examines whether AI can become a philosopher—and whether AI might even “replace” human philosophers. 
 

Talk 4: Evaluating AI’s Critical Thinking Abilities and Their Educational Applications

Speaker: Seungrak Choi (Philosophy Major in the Department of Humanities, Hallym University)

Abstract: Critical thinking has been identified as one of the most essential skills to cultivate in the age of AI (Zahidi, Saadia, et al., The Future of Jobs Report 2023). Yet the rise of generative AI systems such as ChatGPT and Gemini has raised concerns about the decline of human critical thinking abilities (see BCG Editorial Team, “How Generative AI Creates and Destroys Value,” BCG Blog, October 10, 2023). As a result, the need for critical-thinking education in higher education institutions is more pressing than ever. 
 This study proposes methods for enhancing critical-thinking skills, especially in philosophy education, and evaluates whether AI can appropriately be used to develop educational materials for such instruction. First, it argues that problem types commonly found in the PSAT language-logic section and the LEET reasoning section—particularly argument-strengthening and argument-weakening questions—can effectively support students’ critical-thinking development. Then, the study evaluates whether current generative AI models, specifically ChatGPT-5 thinking and pro models and Gemini 3 pro, possess sufficient capability to solve such problems. Finally, it addresses the further question of whether these models can not only solve but also generate argument-strengthening and argument-weakening problems.