-
Bem-vindo ao CS 101. Eu sou Dave Evans. Eu guiarei vocês nesta jornada.
-
Este curso introduzirá vocês para as idéias fundamentais em computação
-
e ensinará ler e escrever seus próprios progragamas de computador.
-
Nós vamos fazer tudo no contexto de construir uma (search engine) ferramenta de pesquisa na Web.
-
Eu estou supondo que todos aqui tenham usado uma ferramenta de pesquisa.
-
O objetivo das primeiras três unidades desse curso é construir um (Web crawler) rastreador Web.
-
Eles colecionarão dados da Web para sua ferramenta de pesquisa.
-
E aprender sobre as grandes idéias da computação fazendo isso.
-
Na Unidade 1, nós iniciaremos extraindo o primeiro link em uma página web.
-
Um rastreador Web (Web crawler) procura páginas web para sua ferramenta de pesquisa
-
iniciando de uma página "semeada" e seguindo links naquela página para encontrar outras páginas.
-
Cada um desses links leva a alguma nova página web, a qual pode ter links que levam a outras páginas.
-
Como nós seguimos esses links, nós encontraremos mais e mais páginas Web
-
construindo uma coleção de dados que usaremos para nossa ferramenta de pesquisa.
-
Uma página web é realmente só um pedado de texto que vem da Internete para o seu navegador Web.
-
Nós falaremos mais sobre como isso funciona na Unidade 4.
-
Mas, por agora, a coisa importante a compreender é que
-
um link é somente um pedaço especial do texto na página Web.
-
Quando você clica em um link no seu navegador, ele o direcioina para uma nova página.
-
E você pode permanecer seguindo esses links (...)
-
O que nós faremos nessa Unidade é escrever um programa para extrair aquele primeiro link da página Web.
-
Nas próximas unidades, nós vamos descobrir como extrair todos os link e construir a coleção para nossa ferramenta de busca.