박승준은 AI를 인류가 축적해온 데이터의 집합으로 바라보며, 이를 과거를 재현하는 것이 아니라 현재 속에서 살아 숨 쉬게 하는 방식으로 활용한다. 이를 통해 축적된 기억과 전통이 동시대의 감각 속에서 다시 작동하는 방식을 실험한다.
Seungjun Park regards AI as a collective accumulation of human data and uses it not to reproduce the past, but to make it breathe within the present. Through this approach, he experiments with ways in which accumulated memory and tradition can be reactivated within contemporary sensibilities.
이번 전시의 제목을 접했을 때, ‘혼돈과 함께 숨 쉰다’는 표현에서 서커스적인 이미지를 강하게 떠올렸다. 서커스는 균형과 위험, 질서와 혼돈이 동시에 존재하는 공간이며, 이는 곧 삶의 구조와도 닮아 있다고 생각했다. 평소에도 삶을 하나의 서커스처럼 인식해왔다. 끊임없이 균형을 잡고, 실패와 위험을 감수하며, 어떤 의미를 만들어내기 위해 도전하는 과정이기 때문이다. 이번 전시에 참여한 작업들 또한 각자의 질문과 실험, 즉 도전으로부터 시작된 결과물이라고 느꼈고, 이러한 맥락에서 전시 데이터를 기반으로 하나의 ‘서커스 공연’을 구성하는 작업을 기획하게 되었다.
특히 다양한 데이터 중에서 전시의 핵심적인 맥락을 담고 있다고 느낀 신보슬 선생님의 전시 스테이트먼트 텍스트를 선택하여, 이 텍스트를 메인 데이터로 삼아 서커스 공연의 무대이자 구조를 생성했다. 텍스트 데이터는 다음과 같은 과정을 통해 변환되었다.
1. 전시 스테이트먼트 텍스트를 문장 단위로 분리했다.
2. 각 문장을 임베딩하여 벡터화했다.
3. ‘서커스의 움직임(몸짓)’을 의미 단위로 정의한 후 동일하게 벡터화했다.
4. 문장과 움직임 간 의미적 거리를 계산했다.
5. 가장 유사한 움직임으로 각 문장을 매핑했다.
6. 전체 구조를 2차원 공간으로 축소하여 하나의 의미 지도를 생성했다.
이렇게 생성된 지도는 단순한 시각화가 아니라 공연의 안무이자 규칙, 움직임이 발생하는 근거 구조로 작동했다. 또한, 의미적으로 유사한 지점들을 묶어 여러 개의 ‘영역’을 구성했고, 이 영역들은 각기 다른 성격을 가진 서커스의 무대 공간으로 재해석되었다.
이러한 공간 속에서 한 인간이 내면의 조각인형을 통해 ‘움직임’으로서 의미를 찾아가는 여정을 작품에 담았다.
텍스트 데이터의 변환 및 처리 과정을 통해 생성된 의미 지도를 기반으로, 이를 하나의 구조적 틀로 삼아 개인의 감각과 해석을 더해 AI 이미지와 영상으로 확장했다. 작업 전반에는 ChatGPT, Gemini, Claude 등 다양한 LLM 모델의 도움을 받았다. 이 과정에서 텍스트 임베딩 구조에 대한 보조, 프롬프트 작성, 아이디어 확장 및 해석 방향 구체화 등에 활용했다. 텍스트 데이터의 변환 및 처리 과정은 Python을 기반으로 진행했다. 문장 단위 분리, 임베딩, 의미 간 거리 계산, 구조화 및 지도 생성 등의 과정을 통해 데이터의 의미 구조를 시각적·서사적 기반으로 재구성했다.
이미지 생성 과정에서는 Midjourney, Google Nano Banana, Higgsfield Soul, Seedream을 활용했다. 생성된 의미 구조와 작업의 감각적 방향을 바탕으로 장면, 인물, 공간의 분위기를 시각화하는 데 사용했다.
영상 생성 과정에서는 Midjourney, Kling, Sori 2, Veo 3.1, Sdance 1.5 Pro를 활용했다. 이를 통해 생성된 이미지와 서사를 확장하여 움직임, 장면 전환, 리듬감, 퍼포먼스적 흐름을 갖춘 영상으로 발전시켰다.
사운드 생성 과정에서는 Suno, ElevenLabs를 활용했다.
Upon encountering the title of this exhibition, I was immediately struck by the phrase “breathing with chaos,” which evoked a strong image of the circus. A circus is a space where balance and danger, order and disorder coexist simultaneously, and in this sense, I found it to closely resemble the structure of life itself. I have long perceived life as a kind of circus—an ongoing process of maintaining balance, embracing failure and risk, and undertaking challenges in order to construct meaning. The works presented in this exhibition likewise appeared to originate from individual questions and experiments—that is, from acts of challenge. Within this context, I conceived a project that constructs a single “circus performance” based on the exhibition dataset.
Among the various data, I selected the exhibition statement written by Shin Bosul, as I found it to encapsulate the core conceptual framework of the exhibition. This text was used as the primary dataset to generate both the stage and structural foundation of the circus performance.
The text data was transformed through the following process:
- The exhibition statement was segmented into individual sentences.
- Each sentence was embedded and converted into vector representations.
- The “movements (gestures) of the circus” were defined as semantic units and similarly vectorized.
- The semantic distances between sentences and movements were calculated.
- Each sentence was mapped to the most semantically similar movement.
- The overall structure was reduced into a two-dimensional space, generating a semantic map.
The resulting map functions not merely as a visualization, but as the choreography and governing system of the performance—a structural basis from which movements emerge. Furthermore, semantically similar points were grouped into multiple “zones,” each reinterpreted as a distinct stage within the circus, possessing its own characteristics.
Within these spaces, the work traces the journey of a human figure who seeks meaning through “movement,” mediated by an internal puppet-like self composed of fragmented inner elements.
Based on the semantic map generated through the transformation and processing of the text data, I adopted this structure as a framework and expanded it into AI-generated images and video, incorporating personal sensibility and interpretation. Throughout the process, I utilized various large language models, including ChatGPT, Gemini, and Claude, for assistance with understanding embedding structures, developing prompts, expanding ideas, and refining interpretive directions. The transformation and processing of the text data were conducted using Python, encompassing sentence segmentation, embedding, semantic distance calculation, structuring, and map generation, thereby reconstructing the semantic architecture of the data into a visual and narrative foundation.
For image generation, I employed Midjourney, Google Nano Banana, Higgsfield Soul, and Seedream to visualize scenes, characters, and spatial atmospheres based on the generated semantic structure and the sensory direction of the work.
For video generation, I utilized Midjourney, Kling, Sori 2, Veo 3.1, and Sdance 1.5 Pro, expanding the generated images and narrative into moving sequences characterized by motion, transitions, rhythm, and performative flow.
For sound generation, I used Suno and ElevenLabs.
