* 인터넷 낙관론에 대한 선두적인 우상파괴자(에브게니 모조로프)가 벨라루스에서의 학창시절에서부터, 불가리에서의 수학을 거쳐 중앙 유럽에서의 NGO 활동과 미국에서 『넷 딜루전』The Net Delusion의 저자로서 명성을 쌓기까지의 편력을 이야기한다. 평등한 미래를 위해 현재의 정보 인프라에 필요한 변화에 대한 급진적인 관점을 담았다.

 

[91 jan.feb 2015] 에브게니 모로조프, <데이터 센터를 사회화하자!> - ①
[91 jan.feb 2015] 에브게니 모로조프, <데이터 센터를 사회화하자!> - ②
[91 jan.feb 2015] 에브게니 모로조프, <데이터 센터를 사회화하자!> - ③

 

 


핵심적인 이슈는 이 영역에서 독점화의 정도 혹은 비율이 아닌가? 이 기업들은 전임자들보다 훨씬 크게, 그리고 빠르게 성장해왔다. 자동차나 항공기 산업에서 과점체제의 출현까지는 매우 오랜 시간이 걸렸다. (하지만) 구글은 겨우 1996년에 시작되었을 뿐이다.

 

그것은 구글이나 페이스북같은 기업들에서 제공하는 서비스나 네트워크 효과의 본질적인 기능이다. 많은 사람들이 페이스북을 이용할수록, 그것의 가치는 더 커질 것이며, 각자 2천만 명의 유저를 거느린 채 경쟁하는 다섯 개의 소셜 네트워크가 존재한다는 건 결코 말이 안 된다. 그들 모두가 하나의 플랫폼에 있기를 바랄 것이다. 검색 엔진도 마찬가지다. 더 많은 사람들이 구글을 사용할수록, 모든 검색은 어떤 점에선 해당서비스의 개선이자 수선tinkering이기 때문에 구글은 훨씬 나아질 것이다. 그런 의미에서 구글이 다른 도메인으로 확장하는 과정은 매우 빨랐다. 현재 그들은 온도 조절 장치, 자율주행차, 건강 서비스를 제공한다. 심지어 구글과 페이스북은 소위 제3세계 국가들에의 연결도 추진하고 있다. 그들에게 아프리카와 아시아의 모든 이들이 온라인을 사용할 수 있다는 것은 중요한데, 추가되는 3, 4십억의 눈알들이 광고비로 전환되기 때문이다. 하지만 그들은 매우 구체적인 조건 하에서under very specific terms 고객들을 온라인에 접속할 수 있게 한다.

 

빈국의 대부분 사람들은 핸드폰으로 온라인에 접속할 것이기 때문에, 페이스북은 이동통신사를 파트너로 삼는다. 유저들은 그들이 접속하고 다운로드 하는 것에 대한 비용을 지불하지만, 페이스북에 접속하는 것에 대한 비용을 지불하진 않는다. 페이스북은 무료이고, 다른 모든 것들은 상당한 비용이 든다.─그건 모든 것에 대한 비용을 지불하는 것 보다는 낫기 때문에 아마 긍정적일 것이다. 결국 다른 모든 서비스들은 페이스북에 게재되어야 하고, 따라서 페이스북은 콘텐츠가 유저들에게 제공되는 병목이자 관문이 된다. 그래서 만약 아프리카 학생에게 교육을 제공하고 싶다면, 값을 지불하지 않아도 되는 페이스북을 통하는 것이 더 좋을 것이다. 마침내는 사람들이 배우는 것에 대한 데이터가 민간 기업에 의해 수집되고, 그들의 여생 동안 광고로 쓰이는 상황으로 이어질 것이다. 이전에는 오직 시장력에 의해 제한된 정도로만매개되었던 관계가, 페이스북이 사람들이 모든 것에 접속할 수 있는 인프라의 제공자가 되었다는 이유 하나만으로 갑작스레 미국의 세계적 기업에 의해 점유된다. 하지만 여기서 반대론은 단지 페이스북에 대한 것이 아니다. 신자유주의의 반대론이다. 현재 꽤 유행하고 있는 실리콘밸리에 대한 공격은 마치 실리콘밸리가 다른 모든 것들과 철저히 분리되어있는, 스스로의 역사력historical force인 것 마냥 다룬다. 유럽에선, 실리콘 밸리를 공격하는 많은 이들은 단지 자본주의의 오랜 유형을 대변할 따름이다. 출판회사나 은행 등.

 

눈앞에 벌어진 이 모든 것들에 시대구분을 했을 때, 당신은 인터넷의 짧지만 빠른 역사에서 결정적인 터닝 포인트를 무엇으로 보며, 그것에서 도출해낼 수 있는 가장 중요한 분석적인 변별점은 무엇인가?

 

이미 말했듯, 나는 ‘인터넷’이라는 용어의 모호성이 불만이다. 5, 60년대 이후로 소프트웨어와 하드웨어, 네트워크에서는 독립적이고 유사한 국면이 있었다. 만약 70년대 후반의 상황을 돌아본다면, 세계를 연결하는 12개의 네트워크들을 발견하게 될 것이다. 지불 네트워크payments network, 여행예약 네트워크travel-reservation networks 등. 종국에 인터넷이 되었던 그 네트워크는 지배 시스템이 명확하지 않았을 당시에 등장했을 것이다. 이를 위해서─규격 위원회Standard Committees에서, 그리고 국제전기통신연합International Telecommunications Union의 수준에서─엄청난 노력이 들었다. 또한 스마트폰 앱과 같은 개발이 있었는데, 구글과 같은 거대 기업이 생산하는 플랫폼에서 운영되기에 우리는 그걸 인터넷의 일부로 인식하고 있지만, 인터넷네트워킹의 역사보다는 소프트웨어의 역사 속에 위치시키는 것이 더 합리적이다. 이 모든 역사들이 두서없이 ‘인터넷’이라는 용어로 집중됐던 사실은 그 자체로 의미심장한 역사적 사건이다. 만약 1993년에서 1997년 사이의 논쟁을 공부한다면, 이 단어(인터넷)는 이러한 이슈들에 있어 가장 많이 쓰이는 용어가 아니었다는 걸 알 수 있을 것이다. 그건 ‘사이버스페이스cyberspace’였다. 

 

90년대의 대부분, 당신은 이 새로운 세상에 대한 다종다양한 기대와 불안, 해석, 비전과 그것을 나타내는 수많은 경쟁적인 용어들─가상현실, 하이퍼텍스트hypertext, 월드 와이드 웹World Wide Web, 인터넷─을 보았을 것이다. 어느 시점에 매체로서 인터넷이 그 모든 것들을 앞질렀고, 다른 용어들이 사라져갈 때 인터넷은 조직하는 메타카테고리organizing metacategory가 되었다. 우리가 만약 그것을 매체가 아니라 하나의 공간이라고 생각해왔다면 무엇이 달라졌을까? 이런 질문들이 중요하다. 인터넷은 영원하거나 문제가 없는 카테고리가 아니다. 나는 어떻게 그것이 (하드웨어, 소프트웨어, 주정부 지원하의 인프라, 인프라의 민영화에서) 이 모든 유사한 역사들을 포함하고, 그것들의 정치적, 경제적, 그리고 역사적 문맥을 빼앗고 전형적인 근원설a typical origin story을 만들어낸 분석의 대상이 되었는지를 이해하고 싶다. 발명─빈트 서프Vint Cerf와 다르파DARPA─이 있었고 그것은 그 자체의 역사와 함께 이 매력적인 새로운 권력이 되었다.[각주:1] 근본적으로, 그것이 현재 우리의 인터넷 담론이다.  

 

하지만 최소한 인터넷에 대한 이러한 담론들의 통합에는 하나의 객관적인 기반이 있지 않은가? 그러니까, 이러한 기존의 네트워크가 각각 존재할 당시에, 기본적인 인터넷 프로토콜─TCP/IP[각주:2]─이 그들 모두가 단 하나의 통합된 구조로 수렴하는 경향이 있는 현상에 등장하지 않았나?

 

나는 TCP/IP 프로토콜의 현실성은 기꺼이 받아들이지만, 용어로서 인터넷의 산만한 통합은 거부한다. 내 걱정은 사람들이 이 구조물로부터 직접적으로 파생되는 일련의 사실들이 존재하며, 마치 인터넷에 게재된 서비스들이 기업들에 의해 운영되거나 정부에 의해 감시되지 않는 것처럼 가정한다는 데 있다. 그들은 이런 식으로 말하기 시작한다. “그것은 인터넷을 끝장낼 거야.”, 혹은 “인터넷은 실패할거야.”, 또는 “인터넷이 그것을 수용하지 않을 거야.” 이런 식의 말들은 거의 종교적이다. 나는 심지어 인터넷은 존재하지 않는다고까지 말할 수도 있다. 이 말은 내가 매일같이 사용하는 존재를 부정하는 것은 아니지만, 내 컴퓨터에서 이용하는 것과 인터넷 이전, 그러니까 40년 전에 몇몇 도서관에서 운용되던 정보체계 사이에는 대다수의 이러한 이야기들이 암시하는 것보다 연속성이 훨씬 강하게 존재한다는 의미이다.

 

그렇다면 보다 날카로운 사회역사적 관점에서 이러한 국면을 바라보기 위해선 어떻게 해야 하는가?

 

60년대에 MIT나 다른 어떤 곳의 엔지니어들은 현대의 클라우드 컴퓨팅과 매우 흡사해 보이는, 공익사업으로서 컴퓨터 사용에 대한 비전을 갖고 있었다. 그들의 생각은 MIT 같은 장소에 하나의 거대한 컴퓨터를 설치하고, 사람들의 집에서 전기나 물을 쓰듯이 컴퓨터를 사용할 수 있게 되는 것이었다. 모든 것들이 한 장소로 집중되어 있기 때문에, 사람들은 자신의 프로세서를 돌릴 필요가 없거나 자신만의 하드웨어를 가질 필요가 없었다. 그 당시 IBM같은 거대한 컴퓨터 회사들은 대부분 큰 사업체의 중앙 컴퓨터를 공급하고 있었다. 개인 유저들, 가족들, 소비자들에게는 공급하지 않았다. 부분적으로는 70년대 반문화와 반제도적anti-institutional 풍조 덕분에, 애플 같은 기업들이 이러한 거대 회사들의 지배구조에 도전장을 내밀 수 있었다. 사람들에게 개인이 컴퓨터를 소유하고 운용할 수 있고, 컴퓨터가 단지 관료제와 공격의 기계가 아니라, 해방의 창조적이고 새로운 도구가 될 수 있다고 확신시키는 데에는 스티브 잡스 같은 사람들과 <지구백과Whole Earth Ctalog>[각주:3] 같은 간행물의 지적인 조력자들─스튜어트 브랜드Stewart Brand와 이 DIY 패러다임을 고취시키고 있던 반문화 진영─의 피나는 노력이 필요했다.

 

이걸 이해하지 못한다면, 모든 것들이 어떻게 상호연결─당신은 상호연결된 무언가를 필요로 했다─되어있는지를 보기 어려울 것이다. 처음에 당신에게는 그저 대학들이 있었고, 개인 컴퓨터 사용을 향한 이동이나 사고방식의 변화가 없었다면 상황은 그대로 유지되었을 것이다. 오늘날 클라우드 컴퓨팅으로의 이동은 그러한 초기의 수사rhetoric─물론, 이제는 인프라의 공적인 운영과 관리의 가능성을 열 수도 있기 때문에, 기업들이 공익사업에 대한 어떠한 비유도 거부하는 것을 제외한다면─를 반복하고 있다.

 

중앙 집중화된 ‘빅 데이터’라는 현재의 현상은 이 유구한 역사 위에 어떻게 위치시켜야 하겠는가?

 

‘빅 데이터’는 지난 몇 년에만 해당하는 특유의 것이 아니다. 이 데이터 수집을 추동하는 것을 이해하기 위해선, 인터넷 논쟁은 잊고 유통시장secondary market─액시엄Axiom(Acxiom의 오기인 듯 - 옮긴이)이나 엠실론 같은 기업들에 정보를 파는 데이터 은행에 초점을 맞출 필요가 있다. 그들은 데이터를 누구에게 파는가? 은행, 보험 회사, 사설 탐정 등등에게다. 60년대 후반 미국에선 데이터 은행의 역할과 잠재적 남용에 대한 논쟁이 있었는데, 그것은 오늘날 빅 데이터 논쟁과 크게 다르지 않다. 중요한 것은 미국이 국립 데이터 은행을 운영하고 연방 기관이 수집한 모든 정보들을 모든 개개의 기관이나 대학이 접근할 수 있는 거대한 데이터베이스로 통합시켜야 하느냐 마느냐의 문제였다. 의회를 포함하여 엄청난 논쟁이 일었다. 결국에 그 아이디어는 프라이버시에 대한 우려 때문에 부결되었다. 하지만 많은 수의 과학자들과 기업들은 데이터가 수집되어온 이래로, 암에 대한 치료를 도울 수도 있기 때문에─정확히 현재 빅 데이터와 관련된 수사와 같은 종류다─다른 연구자들도 접근할 수 있도록 해야 한다고 주장했다. 오늘날, 우리가 하는 모든 것들은 핸드폰, 스마트기기, 또는 컴퓨터를 통해 추적되고, 점차 그 양이 증폭되고 있으므로, 정보는 훨씬 더 쉽게 생산된다. 이제는 수집된 양이 상당히 많아졌으므로, (이에 대해) 새로운 명칭을 부여할 수 있다고 주장할 순 있다. 하지만 이러한 인터넷 논쟁은 모든 것을 추상적인 기술의 역사의 일환으로 이야기하는, 일종의 기억상실증과 함께 벌어지는 경향이 있다.   

 

심지어는 구글의 메인 랭킹 알고리즘에 대한 이야기도 있으며, 사실상 그것은 수십 년에 걸쳐 정보 과학과 색인 작업indexing에 투자한 작업의 결과였다. 어떤 아이템이 연관되었고 그렇지 않은지─누가 무엇에 연결되어있는지, 인용 패턴 등을 살펴봄으로써─를 결정하는 데 구글이 사용하는 메커니즘은 학계 논문에 대한 색인 작업과의 관련 속에서 발전했다. (즉) 그들만의 개발이 아니었다는 말이다. 하지만 정보 과학에서의 발전에 대해 알지 못한 채 그것을 절대 추측할 순 없을 것이다. 유사하게, 오늘날 ‘온라인 공개수업massive open online courses’[각주:4]을 듣는 이들은 5, 60년대에 B. F. 스키너Skinner같은 사람들이 말했던, 강사를 없앨지도 모를 ‘교수기계teaching machine’[각주:5]를 촉진시키고 있었다는 것을 일반적으로 모른다. 교육을 자동화하려는 전통은 지속적으로 있어왔다. 여러 스타트업이 같은 영역에 진출하고 있다는 사실이 이러한 초기의 발전을 부정하는 것은 아니다. ‘인터넷’이 모든 분야─교육, (‘자가측정quantified self’[각주:6]와 함께) 의료, 그리고 모든 나머지들─에 퍼지고 있기 때문에, 이 모든 것들은 실리콘 밸리에서 시작되고, 그 외의 다른 권력이나 대의명분이라고는 없는, 멍청한 역사로 끝나버릴 위험에 처해있다.

 

당신은 지난 10여 년간 기술적이고 조직적인 집중화로의 이러한 추동이 얼마나 불가피하다고 보는가?

 

경계를 넘어서 집중화로 향하는 경향이 있긴 하지만, 또한 특정 속도를 도메인과 레이어 각각에 부여하는 산업 역학도 존재한다. 그러므로 데이터에 발생하는 것은 핸드폰 제조에서 발생하는 것과 구분되어야만 한다. 하지만 구글과 페이스북은 그들이 지식과, 지식이 통과하는 출구를 만들어내는 센서를 조절하지 못한다면, 세계의 지식을 조직하는 사업도 할 수 없다는 것을 깨달았다. 그것은 속담이 그러하듯 ‘무더기’를 조작하기 위해 그들이 모든 층위─운영체계, 데이터, 색인 작업─에 존재해야만 한다는 것을 의미한다.

 

우리가 현재의 역경향을 인식할 수 있을까?

 

만약 구글의 목표가 세상의 모든 지식을 조직하려는 것일 뿐만 아니라, 우리 일상에 대한 근원적인 정보 인프라를 운영하는 것이라면, 구글이 그들 모두를 붕괴할 좋은 위치에 있게 될 거란 사실을 더 많은 산업과 기업이 깨닫게 되면 긴장이 발생할지도 모른다. 현재 국영 기업들─종종 당연하게도 구글이 자동차 산업을 인수할 것을 두려워하는 독일 자본─에 의해 유럽 정책 입안자들은 구글을 와해시키라는 압력을 받는다. 독일의 거대한 빅 미디어 기업들에도 구글을 염려할 까닭이 존재한다. 그러므로 이러한 산업 내 경쟁은 속도가 늦춰질지도 모른다. 하지만 나는 그것이 시민들에게 그렇게 유리하리라 생각하진 않는데, 구글과 페이스북은 자연독점으로 보이는 상황에 있기 때문이다. 그들을 약화시키거나 와해시키려는 유럽의 미미한 압박에는 경제, 정치, 혹은 생태적으로 어떠한 대안적 비전도 없다.

 

 

<원문 p. 56-60>

 

Isn’t the key issue the rate and degree of monopolization in this area? These companies have grown much bigger and faster than their predecessors. It took a lot longer for oligopolies to emerge in the automobile or aircraft industries. Google only started in 1996.

 

That’s a function of the nature of the service and the network effects in companies like Google and Facebook. The more people are on Facebook, the more valuable it becomes, and it doesn’t really make sense to have five competing social networks with twenty million people on each; you want all of them on one platform. It’s the same for search engines: the more people are using Google, the better it becomes, because every search is in some sense a tinkering and improvement in the service. So Google’s expansion into other domains has been very fast. Right now they do thermostats, self-driving cars, health. Google and Facebook are even trying to bring connectivity to so-called Third World countries. For them it’s important to get everyone in Africa and Asia online, because that’s the next few billion eyeballs to be converted into advertising money. But they get their customers online under very specific terms.


Facebook takes mobile operators as partners, since in poor countries most people will get online through their mobile phones. Users pay for what they access and download, but don’t have to pay to access Facebook. Facebook comes free, and everything else is at a price—so that’s supposedly positive, because it’s better than paying for everything. The result is that all other services have to establish a presence on Facebook, which thus becomes the bottleneck and gateway through which content is fed to users. So if you wanted to provide education to students in Africa, you’d be better off doing it through Facebook, because they wouldn’t have to pay for it. You would then end up with a situation where data about what people learn is collected by a private company and used for advertising for the rest of their lives. A relationship previously mediated only in a limited sense by market forces is suddenly captured by a global American corporation, for the sole reason that Facebook became the provider of infrastructure through which people access everything else. But the case to be made here is not just against Facebook; it’s a case against neoliberalism. A lot of the Silicon Valley-bashing that is currently so popular treats the Valley as if it was its own historical force, completely unconnected from everything else. In Europe, many of those attacking Silicon Valley just represent older kinds of capitalism: publishing firms, banks etc.

 

In a periodization of how all this came about, what do you see as the critical turning points in the short but fast history of the Internet, and what are the most important analytical distinctions to be made within it?


I’m dissatisfied, as I’ve said, with the ambiguity of the term ‘the Internet’. From the fifties or sixties onwards, there were separate, parallel developments in software, in hardware, in networks. If you look back at the situation in the late seventies, you find a dozen networks connecting the globe: the payments network, the travel-reservation networks and so on. That the network which eventually became the Internet would emerge as the dominant system was not obvious. It took a lot of effort—in standards committees, and at the level of organizations like the International Telecommunications Union—to make that happen. There were also developments such as smartphone apps, which we now perceive as part of the Internet because they run on platforms produced by giant companies like Google, but which make more sense within the history of software than that of internetworking. The fact that all of those histories discursively converged on the term ‘Internet’ is itself a significant historical development. If you study the debate between 1993 and 1997, this wasn’t the most popular term to talk about these issues; that was ‘cyberspace’.


For most of the nineties, you still had a multiplicity of different visions, interpretations, anxieties and longings for this new world, and a lot of competing terms for it—virtual reality, hypertext, World Wide Web, Internet. At some point, the Internet as a medium overtook all of them and became the organizing metacategory, while the others dropped away. What would have changed if we had continued thinking about it as a space rather than as a medium? Questions like these are important. The Net isn’t a timeless, unproblematic category. I want to understand how it became an object of analysis that incorporates all these parallel histories: in hardware, software, state-supported infrastructures, privatization of infrastructures, and strips them of their political, economic and historical contexts to generate a typical origin story: there was an invention—Vint Cerf and darpa—and it became this fascinating new force with a life of its own.6 Essentially, that’s our Internet discourse at present.

 

But isn’t there at least one objective basis for the unity of these discourses about the Internet: that, while all these previous networks existed separately, once the basic Internet protocol—tcp/ip—came onto the scene they all tended to converge into a single integrated structure?


I’m happy to accept the reality of the tcp/ip protocol, while also rejecting the discursive unity of the Internet as a term. My concern is that people assume there is a set of facts which derives directly from this architecture, as if the services that are built on it are not operated by companies or monitored by states. They start saying things like: it will break the Internet, or the Internet will fail, or the Internet will not accept it. This kind of talk is almost religious. I might even say that the Internet does not exist. This is not to deny that there is something which I use every day; but there’s much more continuity than many of these narratives suggest between what I use on my computer and an information system that ran in some library forty years ago, before the Internet.


So how might we begin looking at these developments in a sharper socio-historical perspective?


In the sixties, engineers at mit and elsewhere had a vision of computing as a public utility that looked very much like contemporary cloud computing. Their idea was that you would have one giant computer in a place like mit, and then in people’s houses you would get computing
just as you do electricity or water. You wouldn’t need to run your own processor or have your own hardware, since it would all be centralized
in one place. At that time the big computer companies like ibm were mostly supplying mainframe computing for big business—they didn’t cater to personal users, families, consumers. Thanks in part to the anti-institutional climate and counterculture of the seventies, companies like Apple challenged the dominance of those big players. It took a lot of effort by people like Steve Jobs, and their intellectual enablers in publications like the Whole Earth Catalog—Stewart Brand and the countercultural wing that was promoting this do-it-yourself paradigm—to convince consumers that computers could be owned and operated by individuals; that they were creative new tools of liberation, and not just machines of aggression and bureaucracy.


Unless you understand this, it’s hard to see how everything got interconnected—you needed something to interconnect. At the beginning you just had the universities, and it would have stayed that way if there had been no change of mentality, no shift towards personal computing. Today the move to cloud computing is replicating some of that early rhetoric—except, of course, that companies now reject any analogy with utilities, since that might open up the possibility of a publicly run, publicly controlled infrastructure.


How should the current phenomenon of centralized ‘big data’ be located in this broader history?


‘Big data’ isn’t something unique to the last few years. To understand what’s driving this data collection, you need to forget Internet debates and start focusing on the data banks selling information on the secondary market—companies like Axiom and Epsilon. Who are they selling their data to? To banks, insurance companies, private investigators and so on. There was a debate in the late sixties about the role and potential abuse of data banks in America, which was not all that different from the big data debates today. At stake was whether the us should run national data banks and aggregate all the information collected by federal agencies into one giant database accessible to every single agency and every single university. It was a huge debate, including on a Congressional level. In the end the idea was killed because of privacy concerns. But a lot of scientists and companies made a case that since the data had been collected, it ought to be made accessible to other researchers, because it might help us to cure cancer—exactly the sort of rhetoric you hear now with Big Data. Nowadays the information can be produced far more easily because everything we do is tracked by phone, smart gadget, or computer, and this amplifies its volume. So much is now gathered that you can argue it deserves a new name. But these Internet debates tend to operate with a kind of amnesia, narrating everything in a kind of abstracted history of technology.

 

There’s a story to be told even about Google’s main ranking algorithm, which actually comes out of decades of work on information science and indexing. The mechanism that Google uses to determine which items are relevant or not—by looking at who links to what, citation patterns etc—was developed in relation to the indexing of academic literature; it’s not their own invention. But you would never guess that without knowing something about developments in information science. Likewise, people looking at these ‘massive open online courses’ today don’t generally know that in the fifties and sixties people like B. F. Skinner were promoting what he called ‘teaching machines’ that would dispense with an instructor. There’s a continuous tradition of trying to automate education. The fact that a bunch of start-ups have now moved into the area does not erase those earlier developments. Now that ‘the Internet’ is spreading into everything—education, healthcare (with the ‘quantified self’), and all the rest—we’re in danger of ending up with a kind of idiot history, in which everything starts in Silicon Valley, and there are no other forces or causes.


How inevitable do you regard this drive towards technical and organizational centralization over the last decade or so?


There are tendencies towards centralization across the board, though there are also industry dynamics which lend a specific tempo to each domain and layer. So what is happening with data should be distinguished from what is happening in phone manufacturing. But Google and Facebook have figured out that they cannot be in the business of organizing the world’s knowledge if they do not also control the sensors
that generate that knowledge and the gateways through which it passes. Which means that they have to be present at all levels—operating systems, data, indexing—to establish control over the entire proverbial ‘stack’.


Can we perceive any counter-tendencies at present?


Tension may arise when more and more industries and companies realize that, if Google’s aim is not only to organize all of the world’s knowledge, but also to run the underlying informational infrastructure of our everyday life, it will be in a good position to disrupt all of them. That may generate resistance. At present there is pressure on European policy-makers to break up Google, driven by national firms—often German capital, which, understandably, is fearful that Google could take over the auto industry. The big media empires in Germany also have reason to be worried by Google. So this kind of intra-industry fight might slow things down a little. But I don’t think it will benefit citizens all that much, since Google and Facebook are based on what seem to be natural monopolies. Feeble calls in Europe to weaken or break them up lack any alternative vision, economically, politically, or ecologically.

 

 

 

 

socialize the data centres!(evgeny morozov).pdf

 

* <뉴 레프트 리뷰>는 1960년 영국에서 창간되어 격월로 발간되는 잡지입니다. 이따금 한국어로 번역되어 단행본(도서출판 길)으로 출간되긴 하지만, 영어판 잡지에 기고된 글을 선별적으로만 다루는 형편입니다. 그래서 <BIG HIP>에선 <뉴 레프트 리뷰> 공식 홈페이지에 공개된 글들을 최대한 번역해서 수록할 예정입니다. 저는 전문 번역가가 아니기에, 분명 오역의 가능성을 배제할 수 없습니다. 혹시 그걸 발견하신 분이라면, 제게 훈수를 두셔도 좋습니다. 말하자면, 저는 여기서 공동 번역 작업을 제안하고 있는 셈입니다.

 

* 사진출처:
http://www.ted.com/talks/evgeny_morozov_is_the_internet_what_orwell_feared?language=ko#t-20261

 


  1. DARPA: 미국방위고등연구계획국─펜타곤의 한 기관. 빈트 서프는 그곳의 핵심 인물이다. [본문으로]
  2. TCP/IP는 인터넷 네트워크의 핵심 프로토콜이다. 인터넷에서 전송되는 정보나 파일들이 일정한 크기의 패킷들로 나뉘어 네트워크상 수많은 노드들의 조합으로 생성되는 경로들을 거쳐 분산적으로 전송되고, 수신지에 도착한 패킷들이 원래의 정보나 파일로 재조립되도록 하는 게 바로 TCP/IP의 기능이다.(옮긴이 – 네이버 지식백과) [본문으로]
  3. <지구백과 Whole Earth Ctalog(WEC)>는 미국의 반문화 잡지였고 스튜어트 브랜드의 주도 하에 1968년에서 1972년 사이에, 그리고 이후 1998년까지는 간헐적으로 발간되었다. 잡지는 에세이와 기사를 특징으로 했지만, 주로 제품 리뷰에 집중했다. 편집 방향은 자급자족, 생태학, 대안교육, DIY, 전체론holism에 초점이 맞춰져 있었고, “도구에 대한 접근”이라는 슬로건을 내걸었다. WEC는 광범위한 제품들(옷, 책, 도구, 기계, 종자 등)을 나열하고 리뷰했지만, 그 어떤 제품도 직접적으로 판매하진 않았다. 대신에, 판매자의 연락처를 아이템과 리뷰 옆에 기재해놓았다. 비록 정기적으로 간행되진 않았으나, 다양한 형식으로 수많은 판본과 최신판이 있었다.(옮긴이 – 위키백과) [본문으로]
  4. 웹 기반의 온라인 공개 강좌. 정규 교육의 보조 수단에 머물지 않고 수업과 시험 등의 교육 체계를 갖춘 대학 강좌를 가리킨다. 여러 사람에게 강좌를 널리(massive) 공개(open)하기 때문에 기존 대학 교육 체계를 크게 바꿀 태세다. 미국 유명 대학이 앞서 시작했으며, 일본의 주요 대학도 2014년부터 인터넷으로 강좌를 제공했다. 한국에서도 이른바 케이무크(K(Korea)MOOC)가 추진된다.(옮긴이 – 네이버 지식백과) [본문으로]
  5. 행동주의적 학습원리를 교육의 실천 분야에 응용한 것으로 학습자가 개별적으로 자기속도대로 학습하고 즉각적인 피드백을 받을 수 있도록 고안된 자동학습장치이다.(옮긴이 – 네이버 지식백과) [본문으로]
  6. 자가측정이란 개인 일상에 있어서 투입(음식 소비, 주변 공기의 질), 상태(기분, 각성, 혈류 산소 수준), 그리고 행위(정신적이고 육체적인)의 측면에 대한 데이터의 습득과 기술을 통합시키는 움직임이다. (옮긴이 – 위키백과) [본문으로]

+ Recent posts