블로그 이미지
zeonis
번역가이자 IT와 뉴미디어에 관심이 많은 방송기자

calendar

1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        
2010. 7. 10. 22:05 디지털 세상

출처: http://www.web2hub.com/blog/82


사용자 삽입 
이미지
사용자 삽입 
이미지


1892년
New York Times의 기사인데 이 시대에 "A Computer Wanted"라 니! 그 때부터 컴퓨터가 있었단 말인가? 놀라지 말고 기사내용을 잘 읽어 보자. 아하! 이 시대에 Computer는 바로 " 계산하는 사람"을 말하는거구나! 100년도 전에 Computer라는 용어가 지금과는 다른 의미로 쓰였다는 이 정보는 나를 잠깐 웃게 만들었다.


사용자 삽입 
이미지


2008년을 살고 있는 내가 100년도 전의 1892년 NYT 기사를 볼 수 있게 된 것은 NYT가 1851년부터 1980년까지의 1100만개 기사를 스캔하여 만든 TIFF 이미지를 PDF로 변환하여 웹에 오픈하였기 때문이다.(일부만) 여기서 원본 TIFF 이미지는 무려 4 TB 였다고 한다. 이것을 모두 PDF 파일로 만들려면 많은 저장공간과 컴퓨팅 자원이 필요했을 것이다. 보통 회사라면 어떻게 했을까? 아마도 서버를 더 사고 스토리지도 사서 열심히 프로그래밍했겠지... 하지만 NYT는 머리를 썼다. 바로 Amazon의 S3EC2라는 서비스를 이용한 것이다. S3에 원본 이미지 저장하고 변환하는 분산 프로그램을 짜서 EC2에서 100개의 AMI 인스턴스(서버로 보면 됨)를 만들어 돌렸더니 24시간 안에 끝나더란다. 그 결과 1.5 TB의 PDF 파일도 S3에 저장하여 서비스하고 있다. (블로그링크)


Amazon의 S3와 EC2는 합리적인 가격에서 데이터 저장공간과 컴퓨팅 자원을 대여해 주는 서비스다. S3의 경우 1GB 당 한달에 단돈 15센트면 된다! 그리고 EC2는 1.7 G 메모리의 꽤 괜찮은 서버를 1시간 쓰는데 10센트면 된단다. 맙소사~ 물론 In/Out 데이터양에 따라 비용이 조금 더 올라가는데 그렇더라도 매우 싼 가격임에는 틀림없다. 거기다 관리비용이나 전기료와 같은 부대비용이 전혀 들지 않으니 금상첨화! 자, 심심한 사람은 AWS 계산기로 자기가 필요한 저장공간과 컴퓨팅 자원이 얼마면 되는지 한번씩 계산해 보자. NYT는 얼마나 썼을까? 계산해 보면 S3 $600, EC2 $240 정도로 100만원도 안 되는 돈으로 해결했다. (그나마 EC2는 후원받았다는 것 같다) (Amazon의 웹서비스 사업에 대해서는 2006년 11월 "Amazon's Risky Bet"이 라는 커버스토리 참고)

사용자 삽입 
이미지

어떤 회사가 일시적인 작업을 위해, 또는 웹 서비스를 개발하고 호스팅하기 위해 S3와 EC2를 쓴 성공스토리는 이 외에도 많다. 그리고 점점 늘어가고 있다. 자, 그럼 개인 사용자에 대해 생각해 보자. 내 PC의 파일들을 모두 S3에 저장하면 어떨까? 그리고 내가 사용하는 프로그램들을 EC2에서 돌린다면? 그리고는 내 PC는 휴지통으로~ 이것이 바로 "Cloud Computing"의 비전이다. "Cloud Computing"은 데이터와 프로그램들이 개인 PC나 서버에 저장되기 보다 컴퓨터들의 "구름"에 저장되고 사용자는 언제 어디서나 PC, 노트북, 휴대폰 등의 다양한 단말을 통해 원격 접속하여 원하는 서비스를 받을 수 있는 새로운 컴퓨팅 환경을 말한다. 개인의 데스크탑 환경, 기업의 정보처리, 인터넷 서비스 등 모든 것이 "Cloud" of Computers의 주민이 되는 것이다. Cloud Computing에 대한 소개는 아래 링크들을 참고.

Cloud Computing - 위키피디아
[글로벌리포트]클라우드 컴퓨팅 시대 활짝 - 전자신문 2008년 1월25일
Computer in the Cloud - MIT Technology Review 2007년 9월18일
A workshop by Princeton University's Center for Information Technology - 2008년 1월 14-15일 (video & audio 제공)


사용자 삽입 
이미지


하지만 이런 비전들을 곰곰히 생각해 보면 어디서 많이 들었다는 생각이 든다. 그렇다 그 전에도 "Computing"이라는 단어를 달고 나온 많은 신기술들이 비슷한 비전을 제시했었다. Grid Computing은 각 기관마다 사용하고 있는 슈퍼컴퓨터나 클러스터 컴퓨터를 묶어 공유해서 사용하자는 것이다. (여기 그림도 보면 Cloud가 있다 ^^) Grid Computing이 주로 과학계산용으로 사용되어 과학자 그룹에 한정되었다면 이것을 비지니스 도메인으로 끌고 나와 사업을 해 보겠다고 한 것이 Utility Computing (혹은 On-demand Computing)이다. 즉, 컴퓨팅 자원도 전기처럼 하나의 Utility로 보고 코드만 꼽으면 쓸 수 있고 쓴 만큼 돈을 받자는 것이다. 기업들의 정보처리나 서비스를 직접 전산실 두지말고 자신들에게 맡기고 쓴 만큼만 지불하라는 것이다. 이 Computing 3대가 가지는 기본 철학은 똑같다. 개별적인 컴퓨터를 두지 말고 한곳에 거대한 컴퓨터 구름을 만들고 데이터든 프로그램이든 거기서 작업하라는 것. 이들의 차이는 바로 대상하는 하는 타겟의 범위다. Grid Computing이 주로 과학계산을 타겟으로 했다면 Utillity Computing은 기업 고객을 타겟으로 한다. 반면에 Cloud Computing은 이 모든 것을 다 포괄하면서도 개인 사용자에게 포커스를 맞추고 있는 측면이 크다. 이것이 바로 Cloud Computing이 그 이전의 선조들보다 훨씬 큰 파괴력을 가지는 점이다. 사용자의 데이터와 프로그램이 Computer Cloud에 모두 저장된다면 무슨 일이 벌어질까? 상상해 보라. 어마어마한 변화와 새로운 가능성들이 열릴 것이다.


사용자 삽입 
이미지

자, 이쯤에서 좀 딴 얘기를 해 보자. Cloud Computing이라는 것이 나오게 된 것은 컴퓨팅 환경에서 두 가지 발전 덕분이다. 하나는 누구나 짐작할 수 있듯이 웹이 플랫폼으로서 발전한 덕분이다. 또 하나는 잘 드러나지 않지만 Computer Cloud를 만들 수 있는 HW/SW 플랫폼의 발전이다. 구글의 검색을 비롯한 여러 서비스들이 "웹 데스크탑"으로서 역할을 할 수 있는 것은 그 하부의 구글 서버 플랫폼 덕분이다. 구글은 수많은 저가의 PC 서버를 묶어서 세계 제 1의 슈퍼컴퓨터 성능을 내는 클러스터를 만들어 냈다. Amazon의 S3, EC2의 파격적인 가격정책도 유사한 서버 환경에서 가능한 일이다. Yahoo, MS 등도 효율성있는 서버 클러스터를 구성하기 위해 부단히 노력하고 있다.


사용자 삽입 
이미지


하지만 하드웨어적인 Computer Cloud에 방점을 찍는 것은 똑똑한 소프트웨어의 몫이다. 바로 분산 컴퓨팅 플랫폼이다. 구글이
논문으로 출판한 여러 기술들이 모두 이와 관련된 것이다. 요즘은 Amazon도 논문 내더라. 결국 Computer Cloud의 기초체력은 이 소프트웨어 플랫폼에 의해 결정될 것이다. 데이터를 효율적이고 안전하게 저장하고 대용량의 데이터 처리를 병렬처리로 해결하며 사람의 손이 닿지 않아도 알아서 관리가 될 수 있고 서비스를 쉽게 개발할 수 있는 공통 모듈을 제공하는 것과 같은 기능들이 이 "똑똑한" 소프트웨어가 해 줘야 할 일이다. 현재 이러한 분산 컴퓨팅 플랫폼은 구글이 가장 잘 갖추고 있다고 한다. 하지만 여기에 대항할 오픈소스가 하나 나왔다. 바로 Hadoop이다. Hadoop의 가능성을 미리 간파한 Yahoo는 벌써 몇년전부터 Hadoop의 개발을 스폰서해 오고 있다. (링크1, 링크2) 앞으로 Hadoop의 발전을 눈여겨 볼만 하다.

posted by zeonis

댓글을 달아 주세요