Última alteração: 2012-11-23
Resumo
INTRODUÇÃO
“A Internet cresce em altíssimas taxas, cujos dados recentes mostram que entre o ano de 2000 a 2010 o seu crescimento foi superior a 5 vezes, passando de 360 milhões de usuários a quase 2 bilhões” (ROYAL PINGDOM, 2011). Hoje a Internet acabou se tornando uma ferramenta essencial, causando grande dependência aos seus usuários que se beneficiam com as suas inúmeras formas de transmitir e receber informações. Observa-se, então, que ela se inova, está sempre em ‘evolução’, se adaptando de acordo com as necessidades dos usuários e das novas formas de comunicação.
OBJETIVOS
O objetivo deste trabalho é estudar páginas da Web na busca de códigos replicados, por meio da elaboração de uma ferramenta de software para a coleta e organização dos dados de sítios específicos. Ainda, analisar eventuais códigos encontrados e propor uma representação para o estudo por meio dos Algoritmos Genéticos. Este estudo foi realizado com intuito de verificar se os Websites possuem semelhanças em seu código fonte.
METODOLOGIA
O método utilizado para a realização do estudo consistiu em selecionar os sites das universidades federais brasileiras, colher o código fonte de seus respectivos sítios e selecionar dentro de cada código fonte os programas instalados na forma de script, os quais foram analisados para realizar comparação e para verificar se há semelhanças constitutivas.
RESULTADOS
Pelos resultados podemos afirmar que os Websites possuem diversas semelhanças em seus scripts, que seriam “uma lista de comandos para serem executados em sequência (um comando após o outro). Um roteiro predefinido de comandos e parâmetros. Geralmente o que está no script é aquilo que o usuário digitaria na linha de comando”, segundo (JARGAS, 2008, p.13). Eles mostram que os programadores de hoje em dia utilizam a mesma base do código fonte para criação dos Websites, alterando apenas certos pontos para assim tornar os Websites mais com aspectos mais apropriados para os usuários.