본문 바로가기

Computer

검색엔진(Search Engine)의 피 말리는 역사

검색 엔진의 피말리는 역사

  검색 엔진(Search Engine) 은 말 그대로 많은 양의 데이터 속에서 사용자가 입력한 내용을 적절히 찾아주는 프로그램 이다. 보통 생각하기에 인터넷(the Internet) 이 나온 후, 검색 엔진 이 만들어 졌다고 생각하지만 사실 검색 엔진이 먼저 발명 되었다. 더욱 놀라운 사실은 개인용 컴퓨터에 대한 개념이 미미했을 때(즉, 컴퓨터가 암호 해독, 탄도 계산과 같은 용도로 쓰일 때) 에도 이미 '검색 엔진' 이라는 개념을 창조해 낸 사람이 있다는 사실이다. 무려 50 년도 전의 사람이 말이다.

배너바 부시 박사


  1945년, 배너바 부시(Vannevar Bush) 박사는 <The Atlantic Monthly> 지에 '우리가 생각하는 대로 (As We May Think)' 라는 제목의 에세이를 기고하였다. 그런데, 놀라운 점은 이 에세이 에서 하이퍼 텍스트(Hypertext), 개인용 컴퓨터(PC), 인터넷 (the Internet), 월드 와이드 웹(World Wide Web, WWW), 음성 인식 (speech recognition), 그리고 위키피디아 같은 온라인 백과사전에 관한 내용을 예측한 것이다.  뿐만 아니라, 그는 그의 에세이에서 '브리태니커 백과사전(Encyclopedia Britannica ) 의 내용은 성냥갑 한 개 정도의 크기로 압축 될 수 있을 뿐더러 도서관 전체의 책들의 내용을 책상 한 개 정도의 크기로 보관할 수 있을 것이다' 라고 썼다.

  그는 그의 에세이에서 과학자들이 더이상 무기를 만드는 데에 열중하지 말고 인간이 여태까지 이루어 놓은 지식들을 한데 보관하는데 연구하라고 주장하였다. 베너바는 인간이 여러 세대에 걸처서 축척한 방대한 양의 자료들을 쉽고 빠르게 검색하여 이용할 수 있다면 인간의 지성은 크게 증가할 것이라 믿었다. 게다가 그는 이러한 작업들을 빠르게 해줄 수 있는 메멕스(Memex) 라는 장치를 고안하였다.


  위 그림에 왼쪽을 보면 사진과 같은 정보들을 스캐닝하여 저장할 수 있는 스캐너(Scanner) 가 있고, 오른쪽에는 정보를 검색할 수 있는 타자기 같은 장비가 있다. 가운데에는 검색된 결과를 출력해 주는 스크린이 있다. 아래에 살펴보면 가운데 원통형으로 된 것이 있는데 이게 바로 데이터를 저장하는 마이크로 필름(microfilm) 이다. 이 부분에 미세하게 저장된 데이터를 찾아서 화면에 투사해 사용자가 볼 수 있게 하는 것이다. 게다가 놀라운 점은 사용자가 관련 있는 정보를 서로 링크 (link) 할 수 있으며 나중에 링크를 클릭하게 되면 그 정보로 빠르게 이동할 수 있다는 점이다[각주:1]


  배너바 부시 박사의 놀라운 아이디어가 실현 되기 위해서는 많은 시간이 필요하였다. 배너바 박사의 혁신적인 에세이가 발표된지 45년 만에 , 즉 1990년 아치(Archie) 라 불리는 최초의 검색엔진이 나타났다. 이는 캐나다 몬트리얼에 위치한 McGill 대학교에 다니던 Alan Emtage 라는 학생이 만들었으며, 원래 이름은 '아카이브(archives)' 였으나 후에 "아키(Archie)' 로 축약되었다.

  아키는 FTP 에 올려진 파일들을 검색하도록 해주었다. 유저로 부터 찾고자 하는 파일명을 입력 받아서 전세계의 익명의 FTP 서버 (anonymous FTP server) 로 부터 파일을 검색해 주었다. 이 때, 익명의 FTP 서버야 했던 이유는 보통의 FTP 서버는 특정한 ID 와 비밀번호를 가진 사람만이 이용할 수 있었기 때문이다. 아키는 익명의 FTP 서버를 주기적으로 접속하여 모든 디렉토리와 파일들을 거대한 색인 형태로 아키 서버에 저장하였다. 따라서, 사용자가 특정한 파일을 검색한다면 아키 서버의 색인 목록에서 이를 찾아, 다시 원래 그 파일이 저장된 FTP 서버의 주소를 출력하는 형태로 제공되었다. [footnote][/footnote]

고퍼 메뉴들...


  하지만 이 때 까지의 검색 엔진은 현재 우리가 생각하는 검색 엔진과 많이 달랐다. 왜냐하면 이 당시에 월드 와이드 웹 (World Wide Web, WWW) 자체가 없었기 때문이다. 아키 이후 1990년 봄에 미네소타 대학에서 Mark McCahill 가 고퍼(Gopher) 라는 시스템을 만들었다. 이는 정보를을 주제별로 메뉴를 구성하여 이용할 수 있는 것으로 인터넷에 익숙치 않은 사람들도 손쉽게 이용할 수 있었다. 고퍼가 널리 퍼지자, Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) 와 Jughead(Jonzy's Universal Gopher Hierarchy Excavation And Display)  라는 프로그램이 등장하였다. 각 프로그램의 이름에서도 보듯이 Veronica는 고퍼 메뉴와 모든 고퍼 목록들에 대해 검색을 지원하였고, Jughead 는 특정한 고퍼 서버로 부터 메뉴에 대한 정보를 받는 툴이다.

팀 버너스 리 박사


  그 후 1 년이 채 못되어 1990년 크리스마스에 유럽 물리 입자 연구소(European Organization for Nuclear Research, CERN) 의 팀 버너스 리 박사 (Tim Berners Lee) 는 (한국 사람이 아님!) 월드 와이드 웹을 만들었다. 웹을 만들었다는 말의 뜻은, 웹을 만들기 위한 모든 것들 - 하이퍼텍스트 전송 프로토콜 (HyperText Transfer Protocol, http), 하이퍼텍스트 마크업 언어(HyperText Markup Language, html), 최초의 웹 브라우저인 WorldWideWeb, 최초의 http 서버 소프트웨어인 CERN httpd, 최초의 웹 서버인 http://info.cern.ch , 그리고 이 프로젝트에 대해 설명한 최초의 웹 페이지 까지 모두 만들었다는 뜻이다. 마침내 배너바 박사의 머리 속에서만 상상으로 이루어졌던 일이 현실로 다가온 것이였다. (참고로 최초의 웹 페이지는 아래 주소로 들어가면 볼 수 있다. http://www.w3.org/History/19921103-hypertext/hypertext/WWW/TheProject.html )

  팀 버너스 리 박사가 월드 와이드 웹을 만들게 된 계기는 6 년 전으로 거슬러 올라간다. 1984년, 유럽 물리 입자 연구소에서 근무하던 영국인 팀 버너스 리 박사는 전세계의 물리학자들이 공통된 기기나 소프트웨어 없이도 데이터를 공유 할 수 있어야 한다고 주장하였다. 1989년 그는 '링크를 가진 거대 하이퍼 텍스트 데이터베이스(a large hypertext database with typed links)' 라는 제목의 글을 썼으나 반응이 별로 없었다. 하지만 그의 상관이였던 마이크 샌델(Mike Sendall) 은 버너스 박사의 시스템을 NeXT 워크스테이션에 이식하도록 격려하였다. 버너스 박사는 그의 시스템의 이름을 무엇으로 정할지 고민하였다. 처음에 'Information Mesh' 나 'The Information Mine', 'Mine of Information' 과 같은 이름으로 하려 했으나 결국 'World Wide Web' 이라 정하게 되었다.

  버너스 박사는 그의 열렬한 협력자인 Robert Cailliau 박사와 함께 연구를 지속하여 마침내 1990년 크리스마스에 이를 발표하게 된다. 그들은 최초의 웹 브라우저인 WorldWideWeb 을 만들었는데 이는 웹 뿐만이 아닌 유즈넷 뉴스그룹과 FTP 에도 접속할 수 있었다. 그러나 이 브라우저는 오직 NeXT 에서만 돌아갔다. 버너스 박사는 CERN 이 월드 와이드 웹을 이용하길 장려하도록 웹에 CERN 의 전화 디렉토리를 올렸다. 왜냐하면 예전에는 귀찮게 메인프레임 서버에 접속하여서 전화 번호를 뒤적 거려야 했기 때문이다.

  스탠퍼드 선형 가속기 센터(Stanford Linear Accelerator Center, SLAC)의 Paul Kunz 는 1991년에 CERN 을 방문하여 웹에 대해 감동을 받고 SLAC 으로 NeXT 소프트웨어를 가져왔다. 도서관 사서인 Louise Addis 는 이를 IBM 메인 프레임의 VM/CMS 운영 체제에 이식하였는데, 이는 SLAC 의 온라인 문서 카탈로그를 보여 주기 위함이였으며, 미국 최초의 웹 서버가 되었다.

  그 후, Html 의 편리성과 초보자들도 쉽게 이용할 수 있엇던 월드 와이드 웹은 급속도로 퍼졌다. 1993년 6월에 MIT 에서 근무하던 Matthew Gray 는 최초의 웹 로봇을 만들었다. 그 로봇의 이름은 월드 와이드 웹 원더러 (World Wide Web Wanderer) 로, 펄을 기반으로 작성되었으며, 'Wandex' 라는 색인을 작성하였다. 이 로봇의 목적은 월드 와이드 웹의 크기를 측정하는 것으로 1995년 후반 까지 사용되었다.

ALIWEB


  1993년 10 월에, Martijn Koster 가 ALIWEB 이라는 최초의 웹 검색 엔진을 만들었다. 이는 아키와 유사하였다. ALIWEB 은 웹 로봇을 사용하지 않았으며 그 대신에 웹 사이트 관리자로 부터 각 사이트의 특정한 형식의 인덱스 파일을 받아 이용하였다. 참고로 최초의 웹 검색 엔진을 만든 Martjin Koster 는 현재 구글에서 일하고 있다고 한다.

  1993년 12월에 발표된 검색 엔진인 JumpStation 은 최초로 웹 페이지를 찾기위해 웹 로봇을 사용하였으며 스스로 인덱스를 작성하였다. 또한 사용자로 부터 쿼리를 받아 들이기 위해 최초로 검색 창 (web form) 을 사용하였다. 이는 최초로 웹 검색 엔진의 필수적인 3 가지 구성요소 (페이지 수집, 페이지 색인, 검색 - crawling, indexing, searching ) 를 모두 갖춘 검색 엔진 이였다. JumpStation 은 대학원생인 Jonathan Fletcher 가 만들었는데, 1994년 후반에 투자자를 얻는데 실패하자 문을 닫게 된다. 문을 닫을 당시 1500 개 정도의 달하는 서버들을 수집하였다고 한다.

야후


  1994년, 스탠퍼드 대학교의 전기공학과 졸업반에 재학 중이던 제리 양(Jerry Yang) 과 데이비드 필로(David Filo) 는 박사 학위 논문을 작성시 필요한 사이트들을 쉽게 찾아 보기 위해 웹사이트들을 알기 쉽게 분류 한 후, 웹사이트 목록을 만들었었다. 처음에 그 이름은 '제리와 데이비드의 월드 와이드 웹 가이드(Jerry and David's Guide to the World Wide Web)' 였고 나중에 야후! (Yahoo!) 로 바뀐다. 야후가 Yet Another Hierarchical Officious Oracle 의 앞 글자를 따와서 만들었다고 하지만, 실제로는 걸리버 여행기에 나오는 무례하고, 순수하고 투박한 야후라는 종족의 이름에서 따온 것이라 한다. 처음에 이들은 Yahoo! 를 스탠퍼드 대학교 네트워크에 akebono.stanford.edu/yahoo 라는 이름으로 개설하였는데 방문자가 폭주하여 스탠퍼드 대학 네트워크가 마비되어, 나중에 Netscape 사에서 따로 호스팅을 해주게 되었다.

  1994년 말에, 야후는 이미 백만 힛을 기록하였고, 1995년 1월 18일에 Yahoo! 도메인을 만들었다. 양과 필로는 자신의 사이트가 엄청난 가능성이 있다는 것을 느끼고 1995년 3월 1일에, 야후 법인을 설립한다. 야후는 다른 검색 엔진과는 달리 특정한 키워드를 입력하면 야후 자체에서 제작한 웹 디렉토리를 통해 찾게 하였다.

Web Crawler


  1994년 4월 20일, 워싱턴 대학교의 Brian Pinkerton 은 WebCrawler 을 발표한다. 이는 최초로 전체 페이지를 색인하는(indexing) 크롤러를 이용하였다. WebCralwer 는 너무나 유명해 져서 낮 시간대에는 접속이 거의 불가능하였다. 결국 이 때 부터 Lycos, Infoseek, OpenText 와 같은 여러 종류의 검색 엔진들이 생겨났고 피말리는 검색 엔진의 역사는 이 때 부터 시작되었다고 볼 수 있다. 나중에 WebCrawler 는 1995년 6월 1 일에는 AOL (America Online) 가 사들였고 다시 AOL 은 이를 1997년 4월 1 일에 Excite 에 되팔았다.

라이코스


  WebCrawler 이 후 등장한 라이코스(Lycos) 는 검색계의 엄청난 혁명이였다. 라이코스는 카네기 멜론 대학교의 (Carnegie Mellon University) 의 Machale Mauldin 의 검색 엔진 프로젝트로 시작하여 1994년 만들어졌다. 얼마 지나지 않아 1994년 7월 20일 대중에게 54000 개의 문서 카탈로그와 함께 발표된다. 뿐만 아니라 검색어와의 관련성(relevance)을 순서대로 검색결과를 정렬해 검색 결과의 품질을 높였다. 1994년 8월, 라이코스는 39만 4천여 장의 문서들을 보관하였고 1995년 1월에는 그 문서 카탈로그가 150 만여개에 육박하였다. 그리고 1996년 11월에는 라이코스는 6000,0000 개가 넘는 문서를 색인화하였다. 이는 당시 어떠한 검색 엔진들 보다도 더 많은 수치였다.

Infoseek


  같은 해, Steve KirschI 에 의해 만들어진 Infoseek 가 발표된다. 하지만 라이코스와는 달리 큰 주목을 받지는 못하였다. 하지만, 1995년 그들은 넷스케이프(Netscape) 를 설득하여 넷스케이프의 기본 검색 엔진이 되어 큰 주목을 받기 시작하였는데, infoseek 의 가장 인기 있던 기능은 사이트의 웹마스터가 사이트를 검색 색인에 실시간으로 전송할 수 있는 기능이였다.

알타비스타


  비슷한 시기에 Digital Equipment Corporation 사의 연구 센터에 근무하던 기술자들에 의해 알타비스타(AltaVista) 가 만들어졌다. 그들은 원래 공개 네트워크에서 파일을 좀 더 쉽게 찾게 하기 위한 서비스를 만드려고 했었다. 알타비스타를 누가 만들었냐에 대해는 의견이 분분하지만 알타비스타의 중요한 부분들은 Louis Monier 와 Michael Burrows 가 만들었다고 한다. 알타비스타라는 이름은 Palo Alto 가 지었으며 이는 회사 주위의 지명을 따온 것이라 한다. 그 후, 알타비스타는 1995년 12월 15일 altavista.digital.com 이라는 이름으로 대중에게 발표된다.

  알타비스타가 발표될 시점에 알타비스타는 다른 검색엔진이 가지지 못했던 여러 기능들을 갖고 있었다. 이는 알타비스타가 스쿠터라 불리는 빠른 멀티-쓰레드 크롤러(multi-thread) 를 사용해 많은 수의 웹 페이지를 크롤링 할 수 있었던 것이였다. 이를 통해 알타비스타는 월드 와이드 웹의 대부분의 텍스트 정보를 검색할 수 있었다. 뿐만 아니라 그 당시의 웹 사이트로는 거의 무한정의 대역폭을 가지고 있었고 최초로 자연 언어(natural language)를 통해 검색 할 수 도 있었다. 알타비스타의 이러한 광범위한 검색 능력은 곧 큰 인기를 끌어 알타비스타가 문을 연지 첫 날 30만 명이 다녀갔고, 2 년 후에 하루에 약 8000,0000 명이 방문하는 거대한 사이트가 되었다.

 그 외에도 비슷한 시기에 자연어 검색 엔진을 도입한 애스크 지브스(Ask Jeeves)와 익사이트(Excite), 마젤란(Magellan), 잉크토미(Inktomi) 등이 발표된다. 바야흐로, 검색엔진의 춘추 전국 시대였다.

구글


  1997년, 레리와 페이지는 그들이 만든 검색 엔진인 구글(Google) 을 google.stanford.edu 에 공개하였다. 1996년 1월에, 스탠퍼드 대학교 박사과정을 밟고 있었던 래리 페이지(Larry Page) 와 세르게이 브린(Sergey Brin) 은 연구 프로젝트의 일환으로 백럽(BackRub) 이라는 검색 엔진을 만들었다. 이는, 페이지의 '웹 페이지의 가치는 그 페이지를 링크한 백링크 수에 관련이 있다' 는 점에 착안하여 PageRank 라는 검색 알고리즘을 만들었는데, 이를 바탕으로 만든 검색 엔진이 백럽이였다.

  1997년 가을에, 브린과 페이지는 검색 엔진을 공개하기 전에 백럽에서 이름을 바꾸었는데, 매우 큰 수를 의미하는 구골(googol, 10의 100 승) 로 정하기로 했다. 그런데, 그들이 구골의 철자를 잘못 알고 있던 탓에 google 로 정해 버렸고, 브린이 철자가 틀렸다는 사실을 알고 났을 때 에는 페이지가 이미 도메인을 등록한 후 였다. 결국, 그들의 그들의 검색 엔진 이름을 백럽에서 구글로 바꾸게 되었다.

  래리와 페이지가 google.stanford.edu 를 공개한 이후, 구글은 큰 인기를 끌게 되었다. 왜냐하면 당시 검색 엔진들의 기술이 형편 없었기 때문이다. 앞서, 나왔었던 알타비스타, 잉크토미, 익사이트 등은 검색 엔진 성능이 상당히 뒤떨어졌고, 검색도 그들의 사업에 주 목표가 아니였다. 심지어, 잉크토미의 경우, 검색 창에 잉크토미를 입력하면 검색 결과가 나오지 않았다. 다시말해, 잉크토미는 자신의 존재도 인식하지 못한 것이였다. 이렇게 열악했던 검색 환경 탓에, 뛰어난 검색 성능을 보여주던 구글은 스탠퍼드 대학교 내에서, 입소문을 통해 특별한 광고 없이도 인기가 치솟게 되었다.

  1997년 가을에 구글은 google.com 도메인을 등록하였고, 1998년 9월 4일에 캘리포니아 먼로 파크에 위치한 친구의 창고에서 Google.Inc 를 창업한다.

1998년의


  1998년 말에, 구글은 대략 6억 페이지의 인덱스를 보유하고 있었다. 비록 구글 홈페이지에는 아직도 BETA 표시가 되어 있었는데도 불구하고 Salon.com 의 글에 따르면 구글의 검색 결과는 Hotbot 이나 Excite.com 혹은 다른 여러 야후, 라이코스, AOL.com 과 같은 포털들 보다 뛰어나다고 평했다. 브린과 페이지는 초기에 자금이 부족해서 많은 애를 먹었었다. 처음에 당시 가장 유명했던 검색 엔진인 알타비스타에 구글의 기술을 팔려 했다. 당시, 협상이 잘 진행되는 듯 싶었으나 알타비스타가 컴팩 컴퓨터사(Compaq) 에 인수를 앞두고 있었을 뿐더러 주 사업이 검색이 아니였으므로 마지막에 협상이 결렬되었다. 하지만, 이는 브린과 페이지에게 또다른 기회였다.

구글

  자금난에 시달리던 브린과 페이지는 결국 벤처 기업 투자자 백톨샤임으로 부터 10 만 달러의 수표를 건네받고 이를 토대로 사업을 진행할 수 있었다. 1999년에, 구글은 사무실을 실리콘  그래픽스 사(SGI) 로 부터 마운틴 뷰의 몇몇 빌딩들을 임대받았다. (결국 2006년에 SGI 로 부터 3억 1900만 달러에 사들인다)  구글은 현재까지도 이 곳에 본사가 있으며 특이하게도 구글 본사의 이름은 구글플렉스(Googleplex) 이다. 구글의 검색엔진의 매력인 '정확성' 과 '신속성' 은 많은 인터넷 유저들을 끌여들였고 검색엔진의 최강자로 급부상 하게 된다.

msn


  한편, 당시 IT 기업 중 최강자였던 마이크로소프트도 인터넷의 엄청난 사업성을 지각하고 인터넷 업계에 뛰어 든다. 1998년 가을에 마이크로소프트는 잉크토미의 검색 엔진을 이용한 MSN 을 발표한다. 참고로, 잉크토미는 1996년 UC 버클리 대학의 교수였던 Eric Brewer 와 대학원 생이던 Paul Gauthier 가창업하였다. 사실, 잉크토미는 그들이 개발한 Hot Bot 이라는 검색 엔진을 이용한 것인데, 당시 Hot Bot 은 크게성공하여 많은 사람들이 이용하는 검색 엔진이 되었다. (결국 나중에 검색 엔진의 최강자는 알타비스타로 넘어가고, 좀 더 후에는구글로 넘어가게 된다)



  2000년. 인터넷 검색 엔진 회사들은 사상 최대의 위기를 맞는다. 위 그래프에서도 잘 나타나듯이 1998년 부터 IT 계열 - 특히 인터넷 관련 회사들의 주가는 비이상 적으로 치솟았다. 1994년에 900선 대 였던 IT 계열NASDAQ 지수는 2000년 3월 까지 무려 5배 이상인 5000 선 까지 치솟았다. 그러나, 미국 연방 준비 은행(FRB) 에서 이자를 무려 6 번이나 올릴 뿐더러, 경기가 침체될 조짐이 보이자 닷컴 버블은 보란듯이 붕괴되었다. 2000년 3월 13일, 주가는 5038 에서 4879로 떨어지며 역사상 가장 큰 Pre-Market 에서의 주가 폭락이였다.

  닷컴 버블의 붕괴로 수많은 인터넷 관련 회사가 파산하였다. Excite 는 파산하여 2001년에 서비스를 종료하였다. 당시에 각광 받던 이메일 서비스인 Hotmail 은 마이크로소프트에 200만 달러에 매각당했고, 검색 엔진인 Infospace 는 주가가 $1305 에서 $22 까지 추락하였다. 시스코나 노텔과 같은 통신 장비 업체의 주가는 $113 에서 $1 미만으로 추락하였다. 그 외에도 검색 엔진의 춘추 전국 시대에 탄생한 수 많은 검색 엔진은 줄줄이 파산하거나 서비스를 종료 하게 되어 몇 개의 거대 인터넷 회사들만 살아 남을 수 있었다.

구글의 키워드 광고

  닷컴 버블 붕괴가 어느 정도 진정이 되자, 검색 엔진 업계의 강자로 구글이 급부상 하게 되었다. 놀라운 기술로 많은 수의 애(愛)용자 들을 보유 하고 있던 구글은 광고 하나 없이도 입소문 만을 통해 수 많은 사용자들을 끌어 들인다. 2000년 이전 까지만 해도 벤처 기업 투자자들의 투자에만 의존하던 구글은 검색 키워드에 알맞은 광고를 내보내는 방법으로 수익을 창출하게 된다. 구글은 텍스트 기반의 광고를 사용함으로써, 광고가 출력되는 시간을 단축함하여 사용자들에 대한 구글의 세심한 배려가 돋보였다.

2004년의 야후


   2002년에, 기존의 디렉터리 검색 만으로 한계를 느끼던 야후는 마침내 잉크토미(Inktomi) 를 인수함으로써 웹 검색 엔진 업계에 뛰어든다.   2003년에 야후는 알타비스타와 AlltheWeb 사를 인수했던 오버추어(Overture) 사를 인수한다. 하지만, 결국에는 2004년에 자신들이 개발한 검색 엔진 기술과 구글의 검색 엔진을 합친 검색 엔진으로 대체하게 된다.

  2004년에 잉크토미의 기술을 이용하던 마이크로소프트는 자체 개발한 기술(msnbot)로 검색 엔진을 변경하였다. 하지만 이미 구글 검색 엔진 보다 기능이 많이 뒤떨어져 큰 수익을 얻지는 못하였다. 2006년에 마이크로소프트는 라이브 검색 (Live search) 를 발표하지만 큰 호응은 없었다. 2009년 6월 1일에는, 새로운 형식의 검색 엔진인 빙(Bing) 을 발표하였다.

  닷컴 버블 붕괴가 어느 정도 정리가 된 후, 이전 처럼 여러가지 형식의 검색 엔진들이 발표되었다. 네이버(1999), 바이두(2000), Info.com(2003), GoodSearch, SearchMe(2005), Quaero, Ask.com (2006), wikiseek, Sproose, Blackle.com (2007), PowerSet, Viewzi, Boongami, VADLO, ... (2008), Wolfram Alpha (2009) ... 등등. 모두 열거하자면 수십 가지가 넘게 된다.

  그러나, 위와 같은  수 많은 검색 엔진들이 쏟아져 나왔음에도 불구하고 현재까지 부동의 1 위를 지키고 있는 검색 엔진은 구글이라 할 수 있다. 2008년 8월에 Hitslink 에서 발표된 자료에 따르면 구글은 전세계 검색 엔진 시장의 78.16 % 를 지배하고 있다. 2 위가 야후 검색으로 12 % 를 차지하고 있지만 무려 6 배 이상이나 격차가 난다. 물론 구글이 모든 국가에서 승승장구 하는 것은 아니다. 중국의 경우 바이두(55% - 2009년 1월 기준) 가, 한국에서는 네이버(72% - 2009년 1월 기준) 가 시장을 지배하고 있다. 자세한 사항은 여기를 클릭하면 알 수 있다.

  우리나라에서 토종 검색 엔진인 네이버가 부동의 1 위를 지키고 있다는 사실은 정말 이례적인 일이다. 구글 검색 엔진 순위가 1 위를 하지 못하는 전 세계에서 손가락에  엔꼽히기 때문.. 하지만 네이버는 토종 검색인 만큼 한국인에게 최적화 되어 있고 한국인이 사용하기 편하다는 막강한 장점이 있다. 물론 영문 검색 자료나 전문 자료는 구글에 비해 매우 빈약하다는 점이 있으나, 지식 in 이라는 놀라운 서비스 덕에 그 효과를 톡톡히 보고 있다. 아무튼 나는 네이버가 일본에서의 사업도 성공하기 바라며, 한국에서도 구글과의 선의의 경쟁을 통해 소비자인 내가 이익을 많이 보았으면 한다.

참고자료

http://www.searchenginehistory.com/
http://en.wikipedia.org/wiki/Web_search_engine
http://en.wikipedia.org/wiki/Dot-com_bubble
http://www.webreference.com/authoring/search_history/

  1. http://jkwave.egloos.com/1376184 참조 [본문으로]