Kim Myeongkyu

Title
The artificial organic Who ate {Universal Quantifier}

김명규는 기술의 발달이 감각의 일부를 어떻게 기술에 위탁하게 하고, 동시에 무엇을 누락시키는지에 관심을 두고 작업한다. 가상의 생명체와 디지털 환경에서 만들어지는 존재의 형태에 주목해 왔으며, 디노이징된 디지털 미디어의 0과 1을 실제 세계의 데이터로 교란하는 방식에 관심을 두고 있다.

MyeongKyu KIm explores how technological development leads us to delegate parts of our sensory experience to technology, while at the same time causing certain things to be omitted. He has focused on virtual lifeforms and forms of existence created within digital environments, and has been interested in ways of disrupting the 0s and 1s of denoised digital media with data from the physical world.

작품-스틸컷_김명규_1

작업의 기본 개념과 출발점

  • 동시대 기술 앞에서 인간과 기술은 분리될 수 있는가라는 질문에서 출발했다.
  • 인간의 데이터를 먹고 진화하는 가상의 생명체가 동화와 융합의 과정을 거쳐, 원래의 주인인 인간과 구별이 불가능해지지는 않는가를 탐색했다.
  • 가상의 생명체가 배아에서부터 진화해가는 디지털 산출물 혹은 생명체로 이어지는 과정을 상정했다.
  • 점점 데이터 센터에 쌓이며 모든 것이 분해되어 데이터화되는 인간의 상태를 상정했다.


이번 해커톤/전시 데이터와의 연결 방식

LLM에 입력할 프롬프트 디테일과 데이터 크롤링 방식에서 영감을 얻었다.


작업 의도 및 해석 방향

주목한 요소

  • 알고리즘적 생명체와 비정형의 디지털 생명체에 지속적으로 관심을 가져왔고, 이러한 관점에서 미래의 미생물 테라리움을 만드는 워크숍을 기획 및 진행했다.
  • ‘발톱 먹는 쥐’에서 영감을 얻었고, 그러한 ‘쥐’ 같은 가상의 미생물이 로카쿠의 작업적·개인적 삶에 대한 데이터를 먹고 자라나 결과적으로 융합하는 과정을 작업으로 그려냈다.

전시 또는 전시 요소를 해석하고 번역한 방식

  • 아야코 로카쿠의 손가락에서 나오는 드로잉이 마치 미생물이나 가상의 생명체, 혹은 미시 세계의 무언가가 꿈틀거리는 듯한 인상을 주었다.
  • Perlin noise와 그녀의 그림은 LLM이나 검색을 통해 그녀의 그림과 데이터, 삶이 모두 0과 1로 데이터화되는 지점과 맞닿아 있다고 보았다.
  • 로카쿠의 작품은 어디에서 오는가, 그녀의 핑거 페인팅은 어떤 감각에서 비롯되는가라는 고민에서 영감을 얻었다. 이에 따라 로카쿠의 작품과 전혀 다른 존재처럼 보이기를 의도했다.

제작 과정

작업의 전개 및 발전 과정

  • 로카쿠의 대화형 인터뷰를 리서치
  • 보유한 아야코 로카쿠의 음성 데이터를 AI로 활용하여 해당 인터뷰를 다양한 언어로 학습
  • ChatGPT를 활용해 로카쿠의 작업 키워드 리서치
  • 키워드 간 조합을 통해 LLM에 입력하여 추상적인 3D 모델을 출력
  • 이러한 3D 모델을 그대로 사용하기보다 시각적 효과를 입혀, 디지털 세계에 침투한 인간의 데이터(글리치)를 표현

작업 과정에서의 주요 고민 지점

  • ‘신기하다’는 감각을 유도하기보다, 기술이 과도하게 드러나지 않으면서 감각과 메시지에 집중할 수 있는 미디어 작품을 만들고자 했다.
  • 기술을 효과나 생경함 자체로 사용하기보다, 대상을 재해석하기 위한 불확실성과 우연성의 재료로 활용했다.

실험 과정에서의 주요 선택

  • AI slop에 대한 처리
  • 여러 3D 모델을 획득하는 과정에서 시각 효과를 적용했을 때 주제와 가장 어울리는 모델을 선별했다.
  • AI slop이더라도 불확실성과 예외성을 발견할 수 있다면 적극적으로 선택했다. 
  • 음성 학습에서는 로카쿠의 일본어를 학습했기 때문에, 억양이 그대로 반영된 AI 결과물인 한국어 또는 영어는 대부분 제외했다.
  • 로카쿠의 초상화를 기반으로 AI 3D 모델링을 진행한 경우, 가능한 한 원본 초상화와 동일한 카메라 각도를 유지했다.

기술적 설명

사용한 툴, 프로그램, 모델, 워크플로우 (AI 외 추가 활용 도구 포함)

  • TouchDesigner
  • Meshy AI
  • GPT-SoVITS
  • DaVinci Resolve
  • MCP Blender

이미지/영상/텍스트 생성 방식

  • Meshy AI에서 로카쿠의 초상을 기반으로 3D로 변환했다.
  • TouchDesigner에서 실시간 미디어 효과를 적용했다.
  • MCP Blender를 활용하여 로카쿠 관련 텍스트를 입력으로 넣고 추상적인 3D 모델을 출력했다.

편집 및 후반 작업 과정

  • 영상에서는 다양한 오버레이를 활용해 로카쿠와 가상의 생명체가 동화되는 모습을 표현했다.
  • 리버브 효과를 적용해 사운드의 공간감을 추가했다.

Concept and Point of Departure
This work originates from the question: can humans and technology truly be separated in the face of contemporary technological conditions? It explores the possibility that a virtual life form—one that evolves by consuming human data—may, through processes of assimilation and fusion, become indistinguishable from its original host. The work imagines a trajectory in which such an entity evolves from an embryonic state into a digital organism, while simultaneously positing a condition in which humans themselves are gradually decomposed and accumulated as data within data centers.

Connection to the Hackathon / Exhibition Dataset
The work draws inspiration from the structure of prompt design for large language models (LLMs) and methods of data crawling, using these as conceptual and procedural foundations.

Artistic Intent and Interpretive Direction

Key Elements of Focus
The artist has maintained an ongoing interest in algorithmic and amorphous digital life forms, extending this perspective into workshops that imagine future microbial terrariums. Inspired by the notion of a “nail-eating mouse,” the work envisions a fictional microorganism—resembling such a “mouse”—that feeds on data related to Ayako Rokkaku’s artistic and personal life, ultimately growing and merging with it.

Method of Interpretation and Translation
Rokkaku’s finger-based drawing gestures were perceived as resembling the writhing of microorganisms or entities within a microscopic world. Perlin noise and her paintings were interpreted as converging at a point where her images, data, and life become digitized into binary code (0 and 1) through processes such as LLM interpretation and search systems. The work was also motivated by questions such as: where do Rokkaku’s works originate, and what sensory basis underlies her finger painting? In response, the project intentionally sought to produce forms that appear entirely distinct from her works, rather than imitating them.

Production Process

Development and Evolution

  • Conducted research on Rokkaku’s conversational interviews
  • Utilized existing voice data of Ayako Rokkaku to train AI models across multiple languages
  • Employed ChatGPT to research key concepts related to her practice
  • Combined these keywords and input them into LLMs to generate abstract 3D models
  • Applied visual effects to these models to express “glitches,” representing human data infiltrating the digital world

Key Challenges
A central concern was to avoid producing work that merely evokes novelty or technological spectacle. Instead, the aim was to create a media work in which technology does not dominate perception, allowing focus to remain on sensory experience and conceptual meaning. Technology was thus treated not as an effect in itself, but as a medium for uncertainty and contingency in reinterpreting the subject.

Key Decisions in the Experimental Process

  • Handling of “AI slop”: Among multiple generated 3D models, those most aligned with the conceptual framework were selectively chosen. Even imperfect outputs were embraced if they revealed elements of uncertainty or exception.
  • Voice training constraints: Since the AI was trained on Rokkaku’s Japanese voice data, outputs in Korean or English that retained unnatural intonation were largely excluded.
  • Portrait-based modeling: When generating AI-based 3D models from Rokkaku’s portrait, the original camera angle was preserved as closely as possible.

Technical Description

Tools, Programs, Models, and Workflow

  • TouchDesigner
  • Meshy AI
  • GPT-SoVITS
  • DaVinci Resolve
  • MCP Blender

Image / Video / Text Generation Method

  • Rokkaku’s portrait was converted into a 3D model using Meshy AI
  • Real-time media effects were applied in TouchDesigner
  • MCP Blender was used to generate abstract 3D models based on text inputs related to Rokkaku

Editing and Post-production
Various overlays were used to visualize the process of assimilation between Rokkaku and the virtual life form. Reverb effects were applied to the sound design to enhance spatial depth and immersion.

Back to top