내가 이 수업을 통해 만들고 싶은 것

100 views
Skip to first unread message

Charlie Kim

unread,
Oct 5, 2009, 6:26:27 AM10/5/09
to 3-media...@googlegroups.com
이 수업을 만들고 싶은 내용을 구체적으로 적어주세요. ;)

Charlie Kim

unread,
Oct 5, 2009, 6:37:36 AM10/5/09
to 3-media...@googlegroups.com
내용을 적으실 때 참고하세요.

* 당신이 작업하는데 아무런 제약이 없다면(수학, 물리, 프로그래밍, 프로세싱, 시간, 돈) 무엇을 만들고 싶은가
* 글을 읽기 만해도 무엇이 만들어질 지 연상된다.

hosik kim

unread,
Oct 5, 2009, 6:46:14 AM10/5/09
to 3-media...@googlegroups.com
개인적인 작업 (조각,조형물 등...)에 미디어매체를 차용,접목하여 세로운 개념 혹은 이미지를 구현하고 싶음.

2009년 10월 5일오후 7:26, Charlie Kim <nabu...@gmail.com>님의 말:

jong hui lee

unread,
Oct 5, 2009, 6:52:18 AM10/5/09
to 3-media...@googlegroups.com
이 수업을 통해서 만들고 싶은 작품은 인터랙티브 벽입니다.
 
소리에 따라서 반응하는 화면을 벽에다가 나타내고 싶습니다.
 
예를들면 사람이 많으면 보통 소란스러워지기 마련인데 그 북적대는 소리에 따라서 화면이 변하고, 또한 조용한 상태가 유지되면 그 조용한 상태에 맞는 풍경이 화면에 나타나는 것입니다.
 
소리뿐만 아니라 습도와 바람등 건물 외부에 센서를 장착하여 얻어지는 데이터를 통해서 변화되는 모습을 실시간 화면으로 나타내고 싶습니다.
 
 

SEUNGHOUN HAN

unread,
Oct 5, 2009, 6:52:48 AM10/5/09
to 3-media...@googlegroups.com
프로젝터기로 상영중인 영상에 사람이들어가
그 공간 안에서의 동작에 따라 도형이 그려지고
그 도형은 중력이 적용된 새로운 공간에서 움직임에 반응하는 시스템의 작업
 
또는 어떠한 건물이나 큰 조형물에 영상 퍼포먼스를 적용하고 그 공간 안에서 서로 반응하는 작업 
 

박상휘

unread,
Oct 5, 2009, 6:53:01 AM10/5/09
to 3-media...@googlegroups.com
박상휘
 
 
그래픽 이미지나, 에펙에서 만든 영상을 가져와 프로세싱에서 구현하는것,
라이브영상을 연동해서 프로세싱에서 바로 구현하는것,
음악에 따라 프로세싱 소스가 움직이는것(음악에 반응),


 
2009년 10월 5일오후 7:37, Charlie Kim <nabu...@gmail.com>님의 말:

jieun yoo

unread,
Oct 5, 2009, 6:53:04 AM10/5/09
to 3-media...@googlegroups.com
프로세싱을 이용하여 나만의 스크린세이버를 만들고 싶어요
 
움직임이 있는 나의 캐릭터가 있는 스크린세이버를 웹캠과 연결하여, 웹캠에 잡힌 외부(나)의 움직임에 따라 영상의 움직임이 제어되게(움직이는) 하고 싶어요
 
마치 태권브이로보트를 조종하듯이, 웹캠앞에서 손을 왼쪽으로 움직이면 스크린세이버 안의 캐릭터도 왼쪽으로 움직이고 손을 동그랗게 원을그리며 돌리면 캐릭터가 한바퀴 점프하면서 도는 그런... 외부움직임과 내부 움직임이 웹캠으로 연결되어 작동하는 스크린세이버를 만들고 싶어요 ^^

 
지은

 
2009/10/5 Charlie Kim <nabu...@gmail.com>

Jihyun Jung

unread,
Oct 5, 2009, 6:53:13 AM10/5/09
to 3-media...@googlegroups.com
무대공간-배우나 퍼포머가 움직일때 동작을 감지해서 조명,음악,카메라가 함께 인터렉션되는 무대.
 
셀프 캠코더-(바퀴가 달린)삼각대가 찍히는 사람을 따라다니면서 찍어준다.
 
XP나 OSX같은 컴퓨터의 시스템이 3D공간으로 만들어져서(어떤 거리) 쇼핑몰사이트를 가는대신
쇼핑몰로 들어가고 문서를 다운받고 싶을때는 도서관으로 들어가는 인터페이스.
 
그 외-물방울이 떨어져서 바닥에 닿으면 물방울이 가진 이미지영상이 바닥에 스며든다.
        바람이 불면 커튼이 날리면 창밖에서 들어온 빛과 사물의 그림자들이 벽에 맺힌다.(새나 나무 사람 등)
2009년 10월 5일오후 7:37, Charlie Kim <nabu...@gmail.com>님의 말:
내용을 적으실 때 참고하세요.

periodos

unread,
Oct 5, 2009, 6:53:24 AM10/5/09
to 3-media-artists
실시간 Web Data를 시각화하는 데에 관심이 있습니다.
예를 들면,

1. 실시간 주식 Data(거래 건수, 가격, 대기 물량) 등을 시각화(살아있는 심장이나 팽창, 수축하는 근육 등의 형태)
2. 전세계의 실시간 Tweet Data(Twitter message)를 지도 위에 시각화 또는, 많이 사용되는 단어를 크게 시
각화
3. Web에서 실시간으로 찾은 동영상으로 백남준의 다다익선 만들기, 또는 백남준 따라하기 drawing& sharing 어플
(비디오로 로봇 만들기, 도형 만들기)

엄기순

unread,
Oct 5, 2009, 6:53:42 AM10/5/09
to 3-media...@googlegroups.com
1.프로세싱을 가지고 멀티터치(손동작 모션 행동 감지), 보이스 형식으로 프로그램을 재구성하고싶다. 

마법사들이 어떤 모션과 주문을 외우면 주문에 해당되는 마법이 구현되듯이 몇가지 손동작과 언어로 구현되는 프로그램을 만들어 내고싶다.




2009년 10월 5일오후 7:46, hosik kim <kot...@gmail.com>님의 말:

yunjoo park

unread,
Oct 5, 2009, 6:54:55 AM10/5/09
to 3-media...@googlegroups.com
별들이 반짝이는 모습이면 좋겠다 생각했었는데, 더 발전시키면 밤하늘의 수 많은 별들이 반짝 반짝 거리다가 가장 빛나는 별들이 별자리가 되고, 그렇게 연결이 계속 되어  별자리 지도가 되는것?
나만의 밤하늘을 갖고 싶네요....
 

hosik kim

unread,
Oct 5, 2009, 6:53:54 AM10/5/09
to 3-media...@googlegroups.com
구체적인 도안이나 시안은 없으나, 미디어 매체의 평면적 한계성과 조형미술의 시대적 낙후성을 극복하고 싶은 목적, 조형미술이  가지는 시간적 한계를 벗어나고 싶음.  

2009년 10월 5일오후 7:26, Charlie Kim <nabu...@gmail.com>님의 말:
이 수업을 만들고 싶은 내용을 구체적으로 적어주세요. ;)



Y L

unread,
Oct 5, 2009, 6:56:05 AM10/5/09
to 3-media...@googlegroups.com

뉴타운 지역의 오래된 건물 외벽에 디지털 그래피티를 해보고 싶다.

건물의 벽면을 캔버스로 삼아 각자가 여기서 살아온 시간동안 아카이빙 해 온

사진, 영상, 작성한 문서, 목소리 등을 투사시키거나

자기가 직접 이 공간에서 말하고 싶은 이야기를 그 자리에서 문자 메시지나

그림 메시지를 통해 파사드 외벽에 쏘아 올리어 같은 공간을 사용하고 기억하는 사람들과 함께 나누는 작업을 해보고 싶다

하나의 건물에 투사된 메시지를 본 후 다른 건물에는 그에 대한 답장을 보낼 수도 있지 않을까.

이 작업을 위해서는

사용자들이 쉽게 디지털 그래피티 툴을 이용할 수 있도록 프로그램을 설계해야 할 필요가 있을 것이다.

2009년 10월 5일오후 7:26, Charlie Kim <nabu...@gmail.com>님의 말:
이 수업을 만들고 싶은 내용을 구체적으로 적어주세요. ;)



김동희

unread,
Oct 5, 2009, 6:56:33 AM10/5/09
to 3-media...@googlegroups.com

공간과 빛 속에서 온몸으로 연주 하는 악기

블랙박스 공간이 있다. 햇빛이 바람에 흔들리는 나뭇잎 틈으로 떨어진 듯한 값의 영상이 쏟아진다. 사람의 움직임에 따라 흔들리며 소리가 난다. 피드백 할 수 있는 개체들이 떨어져 있고 (ex 누르면 옆으로 늘어나는 탄성 있는 공 영상, 사람의 움직임에 따라 오는 나비 등) 그것들을 벽에다 가져다 놓을 수 있으며 위치에 따라 색이 변하며 다른 소리들이 난다.

서딘

unread,
Oct 5, 2009, 6:56:50 AM10/5/09
to 3-media-artists
미디어아트와 무용예술이 만나는 지점을 찾고싶음!

프로세싱 프로그램에서 코드를 입력하면 그것이 의도한 어떤 현상으로 나타나듯이
움직임을 통한 표현이 코드처럼 해석되어 스크린에서 또다른 모습으로 표현된다든지??????????(이건 지금당장 예를들어서 생각해
본것임...)


어쨋든

미디어아트와 움직임이 만났을 때 생성될 그 어떠한 결과물의 가능성에 대해 기대하는 바가 큼!
그것이 공연예술과 예술교육에서 적용될 수 있을것이라고 생각함!!!!!!!!!!!!!!!!

jinwon kim

unread,
Oct 5, 2009, 6:57:39 AM10/5/09
to 3-media...@googlegroups.com

 
 
셋이서 JAM!!!
 
맨 처음 퓨처액션을 배운 날 제가 걸었던 퓨쳐액션이였습니다.
이성진씨와 협업하여 10월 30일 '생명평화 오백장터'에서  Vjing을 해보고싶습니다.
 
셋이서 JAM하는...
 
사람 1_ 캠코더로 현장 영상을 담습니다. 이 영상은 인풋으로 프로세싱으로 들어옵니다.
사람 2_프로세싱 세계의 4각형 프레임안으로 들어온 이 영상은 아마도 (X1,Y1) (X2,Y1) (X2 Y2) (X2 Y1)  안에서 표현되고 있을 것입니다.
           이 좌표의 (X2,Y2)는 무조건 (X2 Y1) 으로 보내서 삼각형 모듈을 만들라고 주문을 겁니다.
           그리고 저항값을 변형하는 연동을 하나 더 걸어서 그 저항값의 변화에 맞춰 삼각형모듈을 기본으로 한 만화경모양의 다각형을 만들어 보고싶습니다.
           예) 저항값이 3이면 삼각형 3개로 하는 삼각형,
                저항값이 6이면 삼각형 6개를 모듈로 하는 육각형......이런식으로 변화하는 다각형 생명체!!!! 짜잔 완성!!!!
                
 
           _만약에 이 주문을 성공하게 된다면 이 모듈이 또다른 저항의 변화에 의해 여러개가 터지면서 불꽃놀이 만화경도 될수 있었으면 하는 생각도 잠시 해봅니다 (살짝...)
 
사람 3_ djing을 열심히 하면서 기준을 만들어주십니다. 이 음악에 의해서 사람1과 사람2는 마음을 함께 JAM !!! 합니다
 
 
 
 
 
______________________________________________________________________________
 
 
이번 10월 30일 주제는 '탈'(가면)인데  주제에 맞게 잘 살려보고 싶네요
 
 
 
 
 
 
 
 
 
 

 
2009년 10월 5일오후 7:37, Charlie Kim <nabu...@gmail.com>님의 말:

SOYON YOU

unread,
Oct 5, 2009, 6:59:11 AM10/5/09
to 3-media...@googlegroups.com
저는 1)네트상에서 어떻게 언어들이 스스로 확장하고, 서로 어떠한 영향을 주고받는지에 대해 그리고, 2)통제기제의 간섭으로 부터 어떻게 랜덤처럼 보이는 예측불가한 상황이나 요소들이 통제의 힘으로 부터 빠져나와 형성되는지에 관심이 있습니다.
 
구체적으로 만들고 싶은 것들은
작의적인 문법을 형성하여, 예를 들면 (
명령 :명사를 동사로 바꾼다.  예) 꽃-기다린다, 물병-넣는다 했을 때 구체적인 언사가 어떻게 모양을 바꾸는지) : processing poet
 
혹은
논증의 지도
사람들이 네트에서 생각을 나눌때 이 나눔의 과정을 시각화
 


 
2009년 10월 5일오후 7:26, Charlie Kim <nabu...@gmail.com>님의 말:

PyO

unread,
Oct 5, 2009, 7:27:54 AM10/5/09
to 3-media...@googlegroups.com
최승준 코치의 코멘트

김호식 님

좀 큰 주제로 말해주셨다. 피직컬 컴퓨팅을 활용할 수 있다. 전자회로 등을 사용할 수 있다. 얼마 전 서울시립미술관에서 했던 가상  3D를 실제 오브젝트에 적용한 사례가 있다. 

이종휘 님 

소리에 반응하는 것은 프로세싱 라이브러리가 있다. fft라는 기술을 쓴다. 신호처리에서 많이 쓰는 것이다. 이번 수업에서 쓰지는 않지만 라이브러리를 쓸 수 있는 것을 알기만 하면 된다. 구현하고 싶은 것에 대한 명시적인 것이 있으면 수학적 개념을 얻을 수 있다. 습도 등은 센서를 활용할 수 있다. 풍압도 바람개비를 활용할 수 있다.

Seounghoui 

모션 인식을 쓸 수 있다. 프로세싱에 간단한 예시가 있다. 비디오와 갭쳐가 있다. 차형상이라는 알고리즘을 써서 앞의 프레임과 뒷 프레임을 순식산에 비교해서 데이터를 얻어서 그 위치에 변화를 준다. 이것도 수업 안에서 해결하기 힘드나, 도형을 그리는 것을 수업에서 다룰 수 있을 것 같다. 블록딕텍션을 활용해 볼 수 있을 것 같다. 쉐도우 몬스터라는 작업을 참고할 수 있다. 프로세싱 전시관에서 볼 수 있다. 

박상휘 

이미지 시퀀스를 통해 가져오는 것은 쉽다. pimage를 활용해서 그림들을 메모리에 상주시켜 다양하게 활용할 수 있다. 2d의 경우에는 jpg, png, gif를 활용할 수 있다. 제한된 포맷을 쓰면 가능하다. 라이브영상이나 음악은 앞에서 언급했음. 어떤 것을 공부해야하는지 알려드릴 수 있다. 

지은 

이미지 시퀀시를 출력할 수 있다. 동영상을 만든 후 이를 스크린세이버로 만들 수 있는 것이 있다. 여러번 작업을 거치면 가능할 수 있다. 스크린세이버를 웹캡과 연결하는 것은 이론적으로 가능하나 쉽지는 않다. 모션 틱텍션과 관련된 욕구가 몇 번 나와서 이를 시연해서 보여줄 수는 있다. 예제를 소개할 수 있겠다. 

정지현

카메라를 이용한 인터렉션이다. 카메라는 빛에 민감하다. 이를 어떻게 제어하면 좋을지는 경험을 소개할 수는 있을 것 같다. 

두번째 욕구는 가능하지만 프로세싱으로 하는 것은 추천하지 않는다. 이클립스라는 것을 활용해야하는데 그것은 입문자가할 수 있는 부분은 아니다. 

물방울은 표현은 3D 수련이 필요하다. 메일을 주면 관련 자료를 소개할 수 있겠다. 

그림자 작업을 잘 하기 위해서는 백라이트가 필요하다. 역광을 활용해야하는 환경이 중요할 수 있다.

periodos

프로세싱으로 하는 데이터비쥬얼레이션하는 것은 가능할 수 있다. 쉽게되는편이다. 트위터도 rss, open api등도 공개되어 있으면 활용할 수 있다. 

엄기순 

멀티터치는 라이브러리가 현재 많이 있다. OSC라는 라이브러리가 있다. 하나의 프로토콜이다. 통신규약을 따르면 쉽게 작업할 수 있다. 이것을 공부하면 오픈소스로 되어 있는 멀티터치 라이브러리를 쓸 수 있다.

yunjoo park

별자리에 관련된 작업은 프로세싱 초반의 예제를 보면 찾을 수 있다. 밤하늘의 느낌이 나는 것과 2차원적 별을 찍거나 점멸하는 것을 만들 수 있다. 3차원 적으로 보일려면 구면 좌표계를 알 수 있어야 한다. 3d에서 텍스트 맴핑 같은것과 비슷하다. 2차원적 실험 후 구면 좌표계를 연습해야한다. 

hosik kim

모터를 가지고 제어하는 것이 편안하지 않은 경우가 있다. 이것을 풍력을 통해 하는 경우가 있다. 해파리를 실제로 구현한 예도 있다. 키네틱 스크럽쳐를 참고. 

Y L 

그래피티 리서치 랩을 참고할 수 있다. 다양한 작업 예시가 있다. 문자메세지와 관련된 것은 네트워크를 알아야 한다. 양민아 작가의 작품 참고. 

김동희 

움직임에 따라서 하는 것은 앞에서 이야기했던 것을 참고. 소리는 웨이브나 엠피쓰리, 미디를 활용할 수 있다. 미디 신호를 통해서 신서사이징하는 것이 가능하다. 전문적으로 하려면 전문적 소프트웨어를 연결해야하고, 프로세싱과 통신이 가능하다. 사운드에 관심있거나 다른 프로그램이랑 연동하려면 OSC를 알아야한다. 

서딘 

무용예술은 많이 실험한다. 극단 꽃과의 작업 참고. 무용수들의 움직임을 비디오로 잡아서 움직임이 일어난 작업을 뒷 영상을 작업하는 것도 있다. 이재곤의 작업에는 밴드센서와 무선통신을 활용해 관절값을 가지고 시각화했다. 피직컬 컴퓨팅을 알아야한다. 

김진원 

Vjing은 많이 하는 작업이다. 사운드를 인식해서 하는 것은 어려울 수 있다. Vjing은 사람이 어떻게 개입할 것인가도 중요한 부분. 음악의 비트를 잘 전달하느냐도 있다. 

저항이나 만화경 작업도 굉장히 많다. 예제들을 검색해볼 수 있다. 저항은 피직컬 컴퓨팅을 통해서 할 수 있다. 

SOYON 

말씀하신 예제들이 있기는 하다. 토렌트 관련된 것이 있다. 토켄트를 시각화하거나 국회의원의 작업을 시각화한적도 있다 미디어아트와 액티비즘을 검색해보면 예시를 볼 수 있다. 

시와 관련된 시도는 몇 번 있었다. 

위키피디아를 시각환 예시가 있다.

2009/10/5 엄기순 <kisoo...@gmail.com>

Seung Joon Choi

unread,
Oct 12, 2009, 3:14:26 AM10/12/09
to 3-media...@googlegroups.com
youtube에서 kinetic sculpture로 찾아보았습니다.

많은 작업들이 있죠? 한국작가로는 최우람작가가 유명하죠.

이런 것을 하기위해서는 전자공학에 대한 이해가 필요합니다.

Tom Igoe가 이 분야에서 중요한 사람이죠. http://itp.nyu.edu/physcomp/

국내 작가들이 아마 가장 많이 애용하고 있는 것은 몇번 소개했던
일 것입니다.

국내 공식 디스튜리뷰터는 플러그 하우스입니다.

아두이노를 만든 사람중 한명인 다비드가 한국에 와서 사디에서 강의를 꽤 오래하다간적이 있었는데요. 그 때 서효정 교수등의 제자들이 그 과정을 들었고, 그 중 몇몇의 학생들이 플러그 하우스를 만들었던 것으로 기억합니다.


2009년 10월 5일오후 7:46, hosik kim <kot...@gmail.com>님의 말:
개인적인 작업 (조각,조형물 등...)에 미디어매체를 차용,접목하여 세로운 개념 혹은 이미지를 구현하고 싶음.

Seung Joon Choi

unread,
Oct 12, 2009, 4:00:11 AM10/12/09
to 3-media...@googlegroups.com
소리에 반응하는 것을 다루는데 중요한 것은 FFT라는 방식이 있습니다. '패스트 푸리에 트랜스폼'이란 이름이구요. 신호처리에 관해서는 꼭 알아야 하는 것이죠. 이론 자체는 이해하지 못하더라도, 어떻게 활용할 수 있는지 정도는 알아야 합니다. 간단하게 설명하자면 연속적인 값으로 들어오는 합성파형 정보로 부터 어떤 주파수 대역에서 어떤 크기로 들어 오는지를 알 수 있게해주는 매우 유용한 방식입니다.

프로세싱 안에 기본으로 들어있는 Minim으로도 가능하구요
» Minim

Uses the JavaSound API to provide an easy-to-use audio library. A simple API while still providing a reasonable amount of flexibility for more advanced users.

그 외에도 다양한 라이브러리들이 포진하고 있죠.

Sound

» p5_sc

by Daniel Jones
SuperCollider for Processing, an implementation of many core elements of SuperCollider's client-side language.

» Tactu5

by Alessandro Capozzo
Aids the creation of algorithmic music in real time. Consists of a set of classes focused in defining musical elements, utility classes, and an aggregator.

» Beads

by Ollie Bown
A realtime audio library for computer music and sonic art in realtime performance, installation artworks, web content and more.






















데이터 비쥬얼라이제이션에 관해서는 프로세싱을 만든 두 사람 중에 한명인 Ben Fry의
Visualizing Data가 참고가 될 것입니다.

습도와 바람 등은 센서를 사용할 수 있는데요. 이를 위해서는 앞서 설명드린 아두이노 등을 연동할 필요가 있습니다.
그리고 프로세싱에서 시리얼 통신에 대해서 알 필요가 있죠.

Serial

Supports sending data between Processing and external hardware via serial communication (RS-232).

원하는 센서는 구글에서 검색해 보세요.
예를 들면 '습도 센서'라고 검색해도 바로 나오죠.

바람의 경우는 바람 센서라는 것은 아마 없을 것이고, 바람개비가 돌아가는 정도를 인식하는 방식 등을 써야 합니다.


2009년 10월 5일오후 7:52, jong hui lee <leejo...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 4:24:58 AM10/12/09
to 3-media...@googlegroups.com
모션인식에 관해서는 지난 시간에 엄기순씨가 이러저러한 시연을 하신 것으로 압니다.

기본적으로 차영상 기법 등을 많이 사용하죠. 프로세싱 내부의 예제에도 보면 간단한 것들이 있습니다.

다음의 자료로 간단한 알고리즘에 대한 설명이 될 것입니다. (그림만 보더라도요)

Examples -> Libraries -> Video ( Capture ) -> FrameDifferencing 으로 들어가 보세요.

아마 아이사이트가 탑재된 맥북을 쓰시는 분들을 바로 실행이 가능할 것입니다. (윈도우의 경우 까다로울 수 있습니다)

이런 장르를 통틀어 Computer Vision이라고 합니다. 로봇을 만드는데도 관련이 있죠.
프로세싱 사이트의 라이브러리 레퍼런스에서 

Computer Vision / Video

부분을 더 참고하세요. 많은 라이브러리가 있습니다.

결국 더 많은 것을 하고 싶어져서 OpenCV등을 공부하고자 하는 분들이 생길 수도 있겠죠. 이미지를 더 빠르게 처리하려고 GPU의 힘을 빌리는 GPGPU, OpenCL 기법 같은 것을 공부하고자 하는 분들이 생길수도 있구요. (나름 어드밴스드한 영역이죠. 저는 현재 이 부분에 대해서 제 라이브러리를 직접 만들어서 쓰고 있습니다.)

중력에 대해서는, 물리에 대한 것을 약간 알아야 겠죠.
좋은 라이브러리들이 있습니다.

더 재밌는것을 해보고자 하시는 분들은
등이 도움이 될 것입니다.

물론 프로세싱(js)에서도 되는 것이 있습니다.
http://twitter.com/shiffman/status/2424811846 다니엘 쉬프만이 만들고 있던 것 같은데 현재 어떻게 되었나 직접 한번 찾아보세요~

건물이나 조형물에 영상 퍼포먼스를 하는 것은

Pablo Valbuena의 Augmented Sculpture (지난 서울시립미술관의 신오감도 전시에 전시가 됬었죠)
등을 참고하시구요.

Seung Joon Choi

unread,
Oct 12, 2009, 4:26:55 AM10/12/09
to 3-media...@googlegroups.com
음악에 반응하는 이론적인 배경은 앞의 메일에서 다룬 것 같구요. 
작업은 http://www.flight404.com 등이 유명하죠.

그래픽 이미지나 에펙에서 만든영상은 다양한 이미지 포맷, 이미지 시퀀스 등이 가능합니다.


2009년 10월 5일오후 7:53, 박상휘 <parks...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 4:48:22 AM10/12/09
to 3-media...@googlegroups.com
버스에서 메일 쓰다가 내리느라 상세히 코멘트를 못했는데요.

이미지 시퀀스 관련해서는 PImage를 참고하세요.

벡터 데이터의 경우는 SVG파일을 불러올 수 있습니다.

Seung Joon Choi

unread,
Oct 12, 2009, 4:54:57 AM10/12/09
to 3-media...@googlegroups.com
스크린세이버에 대한 것은 exe(윈도우즈), app(mac)를 스크린 세이버로 바꿔주는 프로그램들을 찾아보세요.

동작을 인식하는 것은 gesture recognition이란 장르가 있습니다. 웹캠으로 이를 만들어 내려면 앞서 소개한 Computer Vision이란 것을 역시 알아야 하죠.

프로세싱에서는 다음과 같은 예가 있습니다.
프로세싱 디스코스 페이지에서 논의가 된적도 있구요.

wii리모콘 등을 응용할 수도 있죠. (자바 라이브러리라서 아마도 프로세싱과 연동이 가능 할 것 같습니다)
http://www.wiigee.org/

2009년 10월 5일오후 7:53, jieun yoo <rabbi...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 7:49:45 AM10/12/09
to 3-media...@googlegroups.com
무대공간에 반응하는 것은 역시 Computer Vision과 Physical Computing의 조합으로 가능합니다. (각각은 앞의 메일에서 소개했죠)

퍼포머의 움직임은 비젼 안쓰고 피지컬 컴퓨팅만으로도 하는 예들이 많은데요. 
그 예로 이재곤 작가의 작업이 있습니다. 
굽혀지는 정도를 인식하는 밴드 센서(휨 센서)와 무선 장비를 사용했다고 합니다.

어떤 센서들이 있는지 궁금하신 분들은 다음을 참고하세요.
밴드 센서는 두 번째 페이지에 나옵니다.

3D로 가상현실을 구현하는 예는 많이 있습니다. 세컨드 라이프플레이스테이션홈의 예 등등 많죠. 즉 이를 위해서는 게임엔진을 사용하거나 그와 유사한 것을 만들어야 하는 정도의 큰일이 될 가능성도 있습니다.
제가 사용하는 XNA같은 것들이 프로세싱으로 하는 것보다 더 편리할 가능성도 크구요.

물론 프로세싱에서도 OpenGL과 같은 전문적인 3D프로그래밍을 하는 것이 가능은 합니다. 때문에 이를 해내기 위한 보다 전문적인 지식, Computer Graphics(이론 및 구현)를 배워야 할 필요가 있습니다.

물방울에 대해서는 metaball을 언급했었죠. 프로세싱으로 이를 구현한 예는 다음을 참고하세요.

방법이 많이 다르긴 하지만 기본 예제에도 있습니다. (물방울을 구현하기에는 적합하지 않죠)

물방울을 제대로 구현하려면 particle simulation과 metaball의 조합이 많이 쓰입니다. fluid dynamics를 알 필요도 있구요.
youtube에서도 다양한 동영상들이 검색이 되네요.

실제로 영화 작업에서 3D 프로덕션이 이에 대한 인하우스 프로그램을 개발해서 사용하는 경우도 많죠.

커튼이 날리는 것은 Cloth Simulation을 만들 필요가 있습니다. 국내에서는 변지훈작가가 이를 응용한 작업을 많이 했죠.
다음의 영상을 참고하세요.

프로세싱으로 구현한 예는 다음과 같은 곳에서 찾아볼 수 있습니다.

그림자들이 벽에 맺히는 작업은 환경이 중요할 수도 있구요. 
Shadow Monsters라는 작업이 유명하죠.

역광과 Computer Vision의 Blob Detection이라는 방법을 많이 사용합니다.

하지만 창밖에서 들어오는 빛에 대한 것을 다룰 때는 조금 더 다른 접근이 가능할 것입니다. 하지만 원래의 자연적인 이미지를 확장하려면 컴퓨터라는 미디어를 통해서 확장을 하는 것이 원하는 작업을 할 수 있는 가능성이 커질수도 있죠.

골란 라빈과 재커리 리버만의 협업인 MIW도 참고해 보세요.

2009년 10월 5일오후 7:53, Jihyun Jung <mul...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 7:58:04 AM10/12/09
to 3-media...@googlegroups.com
프로세싱 사이트에 좋은 작업으로 소개되어있는 예를 들자면
등등 많은 사례가 있죠. 앞의 메일에 소개한 Ben Fry의 저서 Visualizing Data를 추천드리구요. 이런 작업을 하기위해서 클라이언트 사이드 뿐만이 아니라 서버 사이드 프로그래밍을 해야하는 경우들이 있습니다. 저 같은 경우도 문자메시지로 작업을 많이 하는데 MO 서비스를 잘 활용하는 라이브러리들을 만들어 두고 있습니다.

관련하여 '집단지성 프로그래밍'도 추천합니다.

그리고 open api를 사용하는 mashup이 한때 큰 이슈였죠.
대한민국 매쉬업 경진대회도 있습니다.

동영상을 가지고 하는 작업중에는 멀티터치로 유명해진 Jeff Han의 Media Mirror도 재미있습니다.

2009년 10월 5일오후 7:53, periodos <taewon.um@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 8:05:38 AM10/12/09
to 3-media...@googlegroups.com
멀티터치 관련해서는 Jeff Han이 큰 일을 했습니다.

 Low-Cost Multi-Touch Sensing through Frustrated Total Internal Reflection 라는 논문 하나가 세상에 큰 파장을 불러 일으켰고, 많은 뉴미디어나 유저인터페이스 관련한 단체 및 개인이 이를 재생산해냈죠.

아이디어는 간단합니다. 물리에서 이야기 하는 전반사라는 개념을 활용한 것인데요. 투명한 아크릴에 적외선 LED로 적외선을 쏴주면 적외선이 광섬유 안에서와 마찬가지로 이리저리 튀기면서 투명한 아크릴안을 진행하죠. 이 때 아크릴 표면에 손가락을 대면 그 부분이 밝아 보이고 이는 적외선 카메라가 인식을 할 수 있게 되는 것입니다. 이 인식된 부분을 Computer Vision의 Blob Detection으로 위치를 잡아내는 것이죠. (이 부분에 대해서는 앞에서 소개했습니다)

오픈소스 진영에서 멀티터치로 큰 성공을 이룬곳이 NUI Group입니다.

이를 위해서는 OSC를 잘 알 필요가 있기도 하죠. OSC를 기반으로한 TUIO를 사용하는 경우가 많기 때문이죠. Computer Vision으로 인식한 좌표를 네트웍으로 전달하는 방식을 씁니다.

몇가지 손동작이 인식되는 부분은 앞의 Gesture Recognition에 소개한 자료를 참고해 주세요.

2009년 10월 5일오후 7:53, 엄기순 <kisoo...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 8:13:43 AM10/12/09
to 3-media...@googlegroups.com
별자리와 관련해서는 구면 좌표계 이야기를 했습니다.

구글어쓰의 별자리 보는 모드를 생각해 보세요. 플라네테리움과도 관련이 있습니다.

플라네테리움에 쓰이는 프로젝션은 특수한 방식입니다.

구(또는 돔)에 프로젝션하는 것을 소재로 작업을 하는 경우도 많은데요.

어쨋든 별자리와 관련해서는 프로세싱 초창기에 올라온 멋진 예가 있습니다. 뮤직비디오(광고?)에 활용되었다죠.
별들이 움직임에 맞춰서 반짝거리며, 별자리를 형성합니다.

2009년 10월 5일오후 7:54, yunjoo park <play...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 8:15:29 AM10/12/09
to 3-media...@googlegroups.com
GRL의 작업을 한번 참고해 보세요.

지난해 상상마당에서도 이들에 대한 영상을 전시의 일환으로(소셜 인터벤션 - 사회적 개입) 소개했는데 상당히 인상적이었습니다.

2009년 10월 5일오후 7:56, Y L <jay...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 8:20:00 AM10/12/09
to 3-media...@googlegroups.com
대부분 앞에 소개한 레퍼런스들로 커버가 되는 내용인것 같습니다.

소리를 내는 부분에 대해서는, midi를 활용하는 것이 좋은 방법일 수 있습니다.
» themidibus

by Severin Smith
Handles real time inbound/outbound MIDI in a simple way.

» proMidi

by Christian Riekoff
Allows Processing to send and receive midi information.

등의 라이브러리가 있죠. 그리고 마찬가지로 OSC (Open Sound Control, 앞에 소개했습니다)를 활용해서 사운드를 보다 더 잘 다룰 수 있는 MAX/MSP, Pure Data, Chuck, CSound, Super Collider 등의 프로그램과 네트워크로 연동하는 것이 좋은 전략일 수 있습니다.



2009년 10월 5일오후 7:56, 김동희 <heo...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 8:21:41 AM10/12/09
to 3-media...@googlegroups.com
앞에 비슷한 예가 있었죠 (이재곤 작가의 작업 등)

프로세싱 사이트에도 예가 있습니다. (아두이노 쪽에도 많구요, 검색해 보세요.)
프로세싱 프로그램에서 코드를 입력하면 그것이 의도한 어떤 현상으로 나타나듯이
움직임을 통한 표현이 코드처럼 해석되어 스크린에서 또다른 모습으로 표현된다든지??????????(이건 지금당장 예를들어서 생각해
본것임...)

위 부분에 대해서는 좀더 시간을 들여 코멘트 하겠습니다.

2009년 10월 5일오후 7:56, 서딘 <flys...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 8:22:31 AM10/12/09
to 3-media...@googlegroups.com
VJing과 관련해서는 좀더 지면을 할애해서 제 경험을 공유하도록 하겠습니다. 엄기순님도 많이 알고 계시니 코멘트 부탁드려요.

2009년 10월 5일오후 7:57, jinwon kim <kiki...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 10:51:27 AM10/12/09
to 3-media...@googlegroups.com
VJing과 관련하여 저도 약간의 경험이 있습니다. perma라는 팀을 만들기도 했었는데요. 지금은 군복무 중인 소원영(제 인맥중 젊은 기대주중 한명이죠)이라는 친구의 사이트를 인용하겠습니다.

일종의 관심있는 사람들이 함께 했던 커뮤니티였습니다. 이 팀을 결성하기 조금 전 저는 클래지콰이랑 작업을 했었는데요. 2007년 12월 31일 밤부터 2008년 1월 1일 새벽까지 이루어졌던 Hello 2008 공연이었을 겁니다. 이 때가 그나마 본격적인 VJing 작업을 했던 때고 이후 perma라는 모임이 만들어지는데 도움을 주었죠. (저는 이 때 Vinyl의 V-LAB 고문을 맡고 있었습니다. 함께 했던 백진욱씨는 제가 이전에 프로세싱을 나비에서 강의하던 때에 강좌를 들었던 분인데 수학을 전공했고 굉장히 멋진 작업을 하는 분입니다. 아직 V-LAB에 소속되어 있기도 하구요. 문지문화원 사이에서 프로세싱 강의를 하고 있기도 합니다.)

물론 이 전의 움직임이 있었습니다. 바로 2007년에 이루어졌던 P.Art.y라는 아트센터나비의 행사입니다. 이 때저는 크리에이티브 커먼즈와 함게 ccRealMixter라는 것을 기획해서 발표했습니다.


이 때 요즘 나비에서 VJ워크숍도 진행하시고 VJing관련하여 잘알려진 신정엽씨와, DJ짱가 등과 같이 작업을 했고, 셋미아의 코치 중 한명인 김경수님과도 본격적인 관계맺기가 시작되었던 때입니다.

이 관계는 Project Rnadomwalks로 발전합니다.
다양한 기회, 다양한 실험들이 있어왔습니다. 2008년의 Lift Conference에서 함께 작업을 합니다.

PPlay라는 팀이 만들어지는 계기가 되기도 했죠.

아마도 이 관계맺기가 아트센터 나비의 리본리본 과정과 밀접한 연관이 있을 것도 같습니다.

이와 관련하여 코치들의 네트워크가 시작되는 또 다른 계기는 P.Art.y (2007)이 있은 후에
'첫 눈에 반한 미디어아트'라는 대안학교 학생들을 위한 이벤트가 있었습니다.

이는 이후에 대안교육의 장르에서 미디어아트를 실험하는 계기가 됬구요. 오늘날의 PINY팀이 형성되는데도 관련이 있다고 생각합니다. 파이니 캠프에서는 청소년들이 Squeak E-Toy를 가지고 DJ 짱가와 함께 VJing 공연을 하는 실험이 있었습니다.

그리고 이는 제가 MIT Medialab의 Scratch Conference에서 다음과 같은 발표를 하게 되는 밑바탕이 됩니다.

그리고 이 경험은 대안언어 축제 2008로 이어집니다.

이 때의 폭발적인 경험은 그 뒤로 많은 것을 파생합니다. 우리를, 특히 저를 크게 도약하게 했던 계기가 되었습니다.

많은 일들이 있었지만 Scratch Day Seoul 2009도 있었구요. 최근의 CoDE도 있었죠.

그리고 이렇게 셋미아도 진행하고 계원에서도 수업을 하고 있습니다. 관련하여서는 다음의 글을 참고하세요.
이런 흐름의 시작의 즈음에 VJing이 있었고 미디어 아트가 있었고, 다양한 사람들과의 만남이 있었습니다.

그리고 이를 할 수 있던 원동력에 해당하는 계기는 아트센터 나비의 커뮤니티였던 INP 1기 및 2기의 활동이었습니다.

저의 작가 이력의 시작은 그렇게 시작했습니다. 함께 성장했던, 함께 서로 자극을 주고받고 배우며 ,놀았던 많은 친구들이 있었기에 가능했습니다.

커뮤니티의 힘. 이라고 생각합니다.

2009년 10월 5일오후 7:57, jinwon kim <kiki...@gmail.com>님의 말:

Seung Joon Choi

unread,
Oct 12, 2009, 10:56:17 AM10/12/09
to 3-media...@googlegroups.com
컨텍스트프리 (Context Free)에 대한 이야기를 했던 것으로 기억합니다.

스트럭쳐신쓰
와 린덴마이어 시스템
등이 관련이 있습니다.

구조에 대한 이야기고, 결국 이는 노엄 촘스키가 한 이야기와 관련이 있을 수 있습니다. 
형식체계로써의 프로그래밍 언어라는 관점이 가능합니다. 언어, 마음, 인지과학과 관련이 있기도 하구요.

관련하여 할 말이 많은데, 버스에서 내릴 시간이 다 되었구요. 제가 다음에 여유를 확보할 수 있을 때 까지 좀 더 기다려 주세요~
OMeta이야기도 좀 하면 좋을텐데요. 승범님이 기여를 할 수 있는 여지가 있겠군요.

2009년 10월 5일오후 7:59, SOYON YOU <soyo...@gmail.com>님의 말:

kisoon Eom

unread,
Oct 12, 2009, 3:16:18 PM10/12/09
to 3-media-artists
전문 VJ가 아니라 자세히까진 알지 못하지만 제 생각들로 풀어볼께요~
첨 시작했을때가 perma라는 팀과 같이 페퍼톤스 앵콜공연 갔을때네요~

장비쪽으로 설명드리자면 가장 간단하게는 V4(http://www.edirol.com/index.php/en/products-
mainmenu-421/video-mixing-mainmenu-386/v-4)라는 비디오 믹서와 컴퓨터 V4장비에 연결할 s-
video 라인 또는 rca (V8같은경우엔 DVI 입력도 받습니다.)
MAC 용 (http://store.apple.com/us/product/M9267G/A) 애플제품말고 일반노트북 고급기종에는
s-video단자가 달려나오는 제품이 많습니다.
그 외로 프리뷰용 모니터, 채널 분배기, 미디컨트롤러, 카오스패드(http://www.topdjgear.com/
kokaen.html)등이 주로 사용하고 있으며, v4를 2대 이상 연결하여 사용할 수 도 있습니다.
http://www.korg.co.uk/products/software_controllers/nano/sc_nano.asp
<- 전 이제품을 사용

소프트웨어는 정말 많은데요 arkaos, resolume, PVP, modul8, vdmx등 이것말고도 엄청많을거예요.
전 주로 VDMX(http://vidvox.com)를 사용하는데요 맥전용 프로그램이고요 프로그램이 살짝 어렵습니다만 그만큼 다양
한 기능들로 꽉 차있습니다. 특히 맥에서 쿼츠컴포저를 사용해서 다양한 인터랙션 Vjing을 가능케 합니다.
쿼츠컴포저에 대한건 http://en.wikipedia.org/wiki/Quartz_Composer
VDMX는 아직 베타라 그런지 계속 업데이트중이며 버그가 조금 있습니다.


On 10월12일, 오후9시22분, Seung Joon Choi <eruc...@gmail.com> wrote:
> VJing과 관련해서는 좀더 지면을 할애해서 제 경험을 공유하도록 하겠습니다. 엄기순님도 많이 알고 계시니 코멘트 부탁드려요.
>

> 2009년 10월 5일오후 7:57, jinwon kim <kikik...@gmail.com>님의 말:
>
>
>
>
>
> > [?][?][?]


>
> > 셋이서 JAM!!!
>
> > 맨 처음 퓨처액션을 배운 날 제가 걸었던 퓨쳐액션이였습니다.
> > 이성진씨와 협업하여 10월 30일 '생명평화 오백장터'에서 Vjing을 해보고싶습니다.
>
> > 셋이서 JAM하는...
>
> > 사람 1_ 캠코더로 현장 영상을 담습니다. 이 영상은 인풋으로 프로세싱으로 들어옵니다.
> > 사람 2_프로세싱 세계의 4각형 프레임안으로 들어온 이 영상은 아마도 (X1,Y1) (X2,Y1) (X2 Y2) (X2 Y1) 안에서
> > 표현되고 있을 것입니다.
> > 이 좌표의 (X2,Y2)는 무조건 (X2 Y1) 으로 보내서 삼각형 모듈을 만들라고 주문을 겁니다.
> > 그리고 저항값을 변형하는 연동을 하나 더 걸어서 그 저항값의 변화에 맞춰 삼각형모듈을 기본으로 한 만화경모양의
> > 다각형을 만들어 보고싶습니다.
> > 예) 저항값이 3이면 삼각형 3개로 하는 삼각형,
> > 저항값이 6이면 삼각형 6개를 모듈로 하는 육각형......이런식으로 변화하는 다각형 생명체!!!! 짜잔
> > 완성!!!!
>
> > _만약에 이 주문을 성공하게 된다면 이 모듈이 또다른 저항의 변화에 의해 여러개가 터지면서 불꽃놀이 만화경도 될수
> > 있었으면 하는 생각도 잠시 해봅니다 (살짝...)
>
> > 사람 3_ djing을 열심히 하면서 기준을 만들어주십니다. 이 음악에 의해서 사람1과 사람2는 마음을 함께 JAM !!! 합니다
>
> > ___________________________________________________________________________ ___
>
> > 이번 10월 30일 주제는 '탈'(가면)인데 주제에 맞게 잘 살려보고 싶네요
>

> > 2009년 10월 5일오후 7:37, Charlie Kim <nabug...@gmail.com>님의 말:


>
> > 내용을 적으실 때 참고하세요.
>
> >> * 당신이 작업하는데 아무런 제약이 없다면(수학, 물리, 프로그래밍, 프로세싱, 시간, 돈) 무엇을 만들고 싶은가
> >> * 글을 읽기 만해도 무엇이 만들어질 지 연상된다.
>
>
>

> 360.gif
> < 1K보기다운로드

Reply all
Reply to author
Forward
0 new messages