Desde há algum tempo, tem sido anunciada a iminência de uma versão 2.0 da World Wide Web. Juntamente com a expressão, encontramos toda uma constelação de práticas que supostamente lhe dão corpo. Dos simples modismos visuais à separação entre apresentação e conteúdo, dos feeds aos mashups, ao social bookmarking, às folksonomies e a formas de produção colaborativa como a Wikipedia, procura-se neste artigo não só identificar o que atravessa todos estes conceitos como também perceber o que os distingue — se há de todo alguma distinção — daquilo que Tim Berners-Lee originalmente ambicionava para a WWW.
Publicado na revista Mono, n.º 1 («MonoDisperso»), Porto, Editora da FBAUP, Junho de 2007.
Para uma Análise da Web 2.0
Mono, n.º 1 («MonoDisperso»), Porto, Editora da Faculdade de Belas-Artes da Universidade do Porto, Junho de 2007, pp. 242-255.
A expressão anda por aí (ainda não «na boca de toda a gente», como o famoso dentífrico, mas pouco deve faltar para tal): está a chegar uma suposta versão 2.0 da World Wide Web. Como qualquer bom slogan ou buzzword (esta, muito adequadamente, foi gerada por um «guru» da web, Tim O’Reilly, fundador e presidente da O’Reilly Media, empresa conhecida pelos seus manuais de programação1), a expressão tem tanto de apelativo quanto de ambíguo. Poderia significar uma nova rede física — eliminemos desde já essa hipótese –, um conjunto de novos desenvolvimentos a nível das interfaces e da interactividade — pode sê-lo, nem que seja indirectamente –, ou um novo conjunto de funcionalidades que provocarão fenómenos de adesão como o que se verificou há menos de meia década com a explosão demográfica dos blogs — já o é, e os blogs podem aliás ser considerados a ponta desse icebergue, mas tudo indica que a revolução será agora menos ruidosa, mesmo que mais segura.
Numa rápida consulta à entrada «Web 2.0» na Wikipedia — ela própria, segundo certas definições, passível de ser coberta pelo termo, por razões que no final se tornarão claras –, podemos encontrar um link para uma entrevista de Tim Berners-Lee à revista online Ars Technica (Anderson, 2006). Berners-Lee, que para todos os efeitos é o criador da WWW, refere a propósito da «Web 2.0» que «nobody even knows what it means». A crítica parece-nos exagerada, em particular se atentarmos no contexto em que essa frase é pronunciada:
«Web 1.0 was all about connecting people. It was an interactive space, and I think Web 2.0 is of course a piece of jargon, nobody even knows what it means. If Web 2.0 for you is blogs and wikis, then that is people to people. But that was what the Web was supposed to be all along. And in fact, you know, this “Web 2.0”, it means using the standards which have been produced by all these people working on Web 1.0.» (Anderson, 2006)
No que respeita aos standards, haverá que conceder alguma razão — mas apenas parcial — a Berners-Lee, pois se de facto os protocolos de comunicação, a linguagem de base (o HTML) e tudo o que esta implica são ainda (no essencial) os mesmos, muitas inovações foram surgindo, como o Javascript e o Ajax, a linguagem PHP, as folhas de estilo, ou a possibilidade de inserir conteúdos multimedia. Também é verdade que os blogs e os wikis, ainda que escapando à imaginação de muitos no início dos anos 90, eram já então possíveis [cf. Figura 1] com uma programação server-side cuidada2. Berners-Lee sucumbe contudo àquilo a que poderíamos chamar a «ideologia da comunidade» quando refere que a web foi desde o início «all about connecting people». Se aplicarmos o mesmíssimo raciocínio à «Web 2.0» — uma vez que é também essa uma das bandeiras dos seus defensores –, o real significado de tal expressão continua por esclarecer, na medida em que parece, tal como na descrição de Berners-Lee, pressupor a existência de alguma espécie de «comunidade instantânea» a que bastaria juntar água — perdão, a WWW — para se manifestar em toda a sua pujança.
Figura 1: Evolução temporal de conceitos próximos do de «Web 2.0».
© Jürgen Schiller Garica, ao abrigo de licença Creative Commons Attribution 2.5
Assumamos então o papel de advogado do diabo à medida que tentamos dar um sentido à expressão, partilhando com Berners-Lee das suas reservas à «Web 2.0» tanto quanto desconfiamos do seu entusiasmo paterno perante a «Web 1.0».
A seguinte lista, que resultou da mesmíssima sessão de brainstorming de onde nasceu o termo «Web 2.0», permite uma aproximação intuitiva, mas pouco diz ao leigo acerca do que se esconde sob todas essas oposições.
Web 1.0 | Web 2.0 |
DoubleClick | Google AdSense |
Ofoto | Flickr |
Akamai e mp3.com | BitTorrent e Napster |
Britannica Online | Wikipedia |
sites pessoais | blogs |
número de visitantes por página | custo por click |
publicação | participação |
sistemas de gestão de conteúdos | wikis |
directórios (taxonomias) | tagging («folksonomy») |
«stickiness» | «syndication» |
Comparativo (simplificado) entre «Web 1.0» e «Web 2.0» (Fonte: O’Reilly, 2005)
A quase intradutibilidade de alguns neologismos obriga de resto a que tentemos descobrir o que significam. Comecemos por algo que esta lista não mostra, e que, ainda que possa ser mais superficial, talvez nos ajude a desvendar o que se esconde sob todos esses termos. Mais concretamente, comecemos pelos modismos visuais daqueles que querem conferir aos seus sites a aparência de fazerem já parte dessa segunda geração. Eis uma lista (necessariamente incompleta3) de pistas visuais que denunciam essa ambição [cf. também a Figura 2]:
- caixas com cantos arredondados à la Google (cf.
www.roundedcornr.com, um site entre muitos que permite gerar automaticamente código que produz esse efeito); - uso de gradientes, efeitos metálicos e similares (à boa maneira das interfaces mais recentes dos Macintosh), mantendo em compensação uma paleta reduzida e discreta de cores (cf. o mesmíssimo site, que permite algumas dessas variantes);
- outros efeitos similares, simples mas visualmente apelativos se usados com frugalidade (cf., como ilustração, o site www.stripegenerator.com);
- sobreposições de imagens (uso da propriedade «z-index» para superar a limitação do HTML às camadas únicas background e foreground), drop-shadows e graus variáveis de transparência (alpha blending);
- layouts «semi-líquidos», isto é, a meio caminho entre o adaptável a qualquer resolução de janela (como as páginas HTML originais, antes sequer do advento da tag «img») e o «optimizado para a resolução HxV»4; de modo geral, isto é conseguido com uma zona central de resolução fixa (abaixo da resolução horizontal mínima mais comum), ladeada por um «pseudo-fundo» com largura variável;
- maior atenção aos utilizadores com acuidade visual reduzida, evitando as fontes de tamanho fixo e/ou permitindo algum controlo do utilizador na escolha da dimensão destas;
- abandono progressivo da arrumação dos conteúdos em tabelas em favor do posicionamento flutuante de divisões no interior da página HTML (marcadas com a tag «div»), mantendo-se contudo o predomínio do layout a duas ou três colunas, sendo uma destinada a menus e listas de links5;
- aproximação ao modelo de interface-utilizador característico dos sistemas operativos gráficos, introduzindo na navegação elementos que o HTML excluíra (pull-down menus, separadores, zonas colapsáveis, caixas de diálogo dinâmicas)6;
- espaço para comentários dos utilizadores, trackbacks, ligação a sites de «social bookmarking» e similares, uso de tag clouds e outros tipos de conteúdo que pode ser modificado ao longo do tempo sem a intervenção do autor.
Figura 2: Página de entrada do site www.komodomedia.com, que apresenta algumas das características visuais enunciadas acima.
Ainda que nalguns casos (em especial os primeiros desta lista) se trate de meros efeitos visuais, a forma de consegui-los exige um planeamento e uma concepção bastante cuidados da estrutura das páginas HTML, e é ao atentarmos nesta que começamos a levantar o véu da «Web 2.0». Uma condição fundamental é a separação entre o conteúdo (e aquilo a que podemos provisoriamente chamar a sua «semântica») e a forma de apresentação. Retomando os conceitos originais da linguagem HTML — descurados com a inclusão nessa linguagem de tabelas, de ligações a imagens e da malfadada tag «font» –, os conteúdos tendem a ser agora acompanhados apenas por uma marcação estrutural que identifica a função dos elementos (títulos, subtítulos, parágrafos, citações, etc.). A forma como cada um desses elementos é apresentado — e na qual radica a identidade gráfica dum determinado site — é descrita por um documento autónomo, uma folha de estilo na linguagem CSS («Cascading Style Sheet»).
Um dos resultados imediatos é a redução do tamanho dos documentos HTML, mas esta separação abre para todo um mundo de possibilidades. Antes de mais, ao nível da acessibilidade: se a um documento (ou site) forem associadas folhas de estilo para diferentes meios, as páginas podem ser printer-frendly sem que seja necessário duplicá-las, podem ser lidas por um browser com sintetizador de voz (para deficientes visuais), ou podem adaptar-se, sem modificações no código HTML, ao ecrã de um telemóvel ou de um PDA. Além disso, e na medida em que o uso de linguagens como o Javascript permite tornar as páginas dinâmicas, um simples click permite, se necessário, fazer alterações ao aspecto gráfico, carregando uma nova folha de estilo (cf. o fabuloso site www.csszengarden.com [Figuras 3a e 3b]), ou, seguindo a estratégia oposta, alterar o HTML — por exemplo acrescentando novas linhas a uma tabela — sem que seja necessário mexer no documento CSS. Outros efeitos visuais que já começavam a tornar-se familiares, como a navegação por menus colapsáveis ou por separadores (tabs), ou o uso de imagens com o efeito rollover, são também simplificados com esta separação entre estrutura e apresentação.
Figuras 3a e 3b: Dois layouts do site http://www.csszengarden.com.
O código HTML é o mesmo para ambos os casos, variando apenas a folha de estilo CSS.
Indo um pouco mais longe — talvez para descontento dos designers gráficos –, o passo seguinte consiste em descartar a apresentação como algo perfeitamente secundário. Se a isso se juntar, em sites com uma actualização frequente como é o caso dos blogs, a velha mas incontornável estrutura típica do jornalismo, a da pirâmide invertida, tem-se o ponto de partida para uma outra tecnologia a que costuma ser associado o rótulo «Web 2.0»: os feeds em RSS ou Atom.
De novo — e em abono de Tim Berners-Lee –, também neste caso se trata de uma possibilidade inaugurada ainda no final da década de 90, altura em que surgiram os «canais» e a tecnologia «push». Em vez de ir diária e repetidamente aos mesmos sites (em particular os jornais online), o utilizador pode receber os sumários (i. e., os títulos e leads) dos novos conteúdos, bastando subscrevê-los com um qualquer programa ou serviço «agregador» (ou tão-só um browser de última geração), acedendo às páginas respectivas apenas se desejar um maior grau de detalhe [cf. Figura 4]. Contudo, o estabelecimento de um standard tardou — em boa verdade ainda há vários formatos e sub-formatos em competição — e só nos anos mais recentes os utilizadores mais comuns começaram a tomar contacto com esta tecnologia. Em Portugal, o jornal Público foi dos primeiros a aderir, mas encontra-se já devidamente acompanhado por outros órgãos de informação e, na sua grande maioria, os blogs criam por omissão estes feeds.
Figura 4: RSS feed do jornal Público no serviço agregador «Google Reader».
À primeira vista, nada parece haver de extraordinário nos feeds; o facto de serem fragmentos ou resumos de sites, despidos de qualquer conteúdo visual7, pode aliás parecer um recuo aos tempos da «banda curta». Todavia, é aí que se esconde uma das novas potencialidades mais interessantes. Se o conteúdo se libertou da sua envolvente «estética», isso significa que pode assumir múltiplas formas de apresentação — as que se devem ao designer do site de origem, mas também aquelas que o utilizador, o seu «agregador de feeds» ou um outro designer de outro site tenham estabelecido. Tanto ou mais relevante, o próprio conteúdo está liberto da fonte que o gerou, podendo ser (criativamente ou não) combinado com outras fontes, criando aquilo a que se chama um mashup. Note-se que isto, por si só, nem sempre é suficiente, mas há cada vez mais sites que facilitam a tarefa, disponibilizando pequenas aplicações (API, isto é «Application Programming Interfaces») que podem ser usadas para, por exemplo, criar um mapa actualizado do crime em Chicago (cf. www.chicagocrime.org/map/), mostrar como se distribuem geograficamente as doenças mais comuns (http://whoissick.org/sickness/ [cf. Figura 5]) ou gerar uma lista de vídeos do YouTube que tenham sido catalogados com uma determinada palavra-chave.
Figura 5: Um mashup (http://whoissick.org/sickness/), mostrando a incidência de algumas doenças comuns, neste caso na Bay Area de S. Francisco. Os dados são fornecidos pelos visitantes do site.
Ora (não esqueçamos a necessidade de antecipar as objecções de Tim Berners-Lee), a restrição do HTML a uma marcação «semântica» e estrutural não é mais do que devolvê-lo às suas origens, e mesmo a possibilidade de agregar e cruzar diversas fontes de informação não tardou a ser proposta — a tecnologia «push» da PointCast surgiu em meados dos anos 90 (ainda que tendo sido de pouca dura) –, e por trás das (agora obsoletas) ferramentas «What’s New?» e «What’s Cool?» do browser Netscape, que apareciam nas suas primeiras versões, também estava uma intenção similar.
E já que falamos de origens e de intenções há muito à espera de concretização, por que não recordar — para que melhor se avance para uma outra vertente da Web 2.0 — a proposta seminal de Vannevar Bush em «As we may Think» (Bush, 1945)? Para Bush, mais do que a possibilidade de fazer ligações a que hoje chamaríamos hipertextuais (ou hipermedia), o que verdadeiramente importava era a criação de uma memória dos percursos através dos elementos identificados como relevantes. A memória humana é contudo falível, pelo que a tarefa deveria ser confiada a um dispositivo técnico:
«The human mind […] operates by association. With one item in its grasp, it snaps instantly to the next that is suggested by the association of thoughts, in accordance with some intricate web of trails carried by the cells of the brain. It has other characteristics, of course; trails that are not frequently followed are prone to fade, items are not fully permanent, memory is transitory. Yet the speed of action, the intricacy of trails, the detail of mental pictures, is awe-inspiring beyond all else in nature.
[…]
Man cannot hope fully to duplicate this mental process artificially, but he certainly ought to be able to learn from it. […] Selection by association, rather than by indexing, may yet be mechanized. One cannot hope thus to equal the speed and flexibility with which the mind follows an associative trail, but it should be possible to beat the mind decisively in regard to the permanence and clarity of the items resurrected from storage.» (Bush, 1945)
Esse dispositivo de mecanização da memória seria o famoso mas nunca concretizado «Memex»:
«Consider a future device for individual use, which is a sort of mechanized private file and library. It needs a name, and to coin one at random, “memex” will do. A memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility. It is an enlarged intimate supplement to his memory.» (idem)
Pondo de parte um dos motivos para a impraticabilidade da proposta de Bush — o microfilme como suporte material –, aquilo que a ideia tem de revolucionário é então a possibilidade de registar todo o tipo de documentos (textos, imagens, sons, anotações) e percursos entre documentos:
«Books of all sorts, pictures, current periodicals, newspapers, are thus obtained and dropped into place. Business correspondence takes the same path. And there is provision for direct entry. On the top of the memex is a transparent platen. On this are placed longhand notes, photographs, memoranda, all sort of things.
[…]
Any given book of his library can thus be called up and consulted with far greater facility than if it were taken from a shelf. As he has several projection positions, he can leave one item in position while he calls up another. He can add marginal notes and comments, […] just as though he had the physical page before him.
[…] It affords an immediate step […] to associative indexing, the basic idea of which is a provision whereby any item may be caused at will to select immediately and automatically another. This is the essential feature of the memex. The process of tying two items together is the important thing.
When the user is building a trail, he names it, inserts the name in his code book, and taps it out on his keyboard.
[…]
The owner of the memex, let us say, is interested in the origin and properties of the bow and arrow. […] He has dozens of possibly pertinent books and articles in his memex. First he runs through an encyclopedia, finds an interesting but sketchy article, leaves it projected. Next, in a history, he finds another pertinent item, and ties the two together. Thus he goes, building a trail of many items.
Occasionally he inserts a comment of his own, either linking it into the main trail or joining it by a side trail to a particular item. […] Thus he builds a trail of his interest through the maze of materials available to him.» (idem, ênfases nossas)
Desde que se faça a ressalva do gigantesco acervo de documentos que não existem ainda (se é que alguma vez vão existir) em versão digital e online, não nos é difícil comparar aquilo que a WWW é hoje, enquanto repositório de múltiplas fontes de informação, à proposta visionária de Vannevar Bush. Está contudo por concretizar a sua componente mais importante, a criação e armazenamento de percursos individuais, gerados pelo utilizador e não por quem disponibiliza os conteúdos. É sem dúvida possível marcar os pontos relevantes desse percurso — facílimo, aliás, bastando organizar devidamente as «bookmarks» ou «favorites» do browser — mas não o trilho propriamente dito. Argumentaremos contudo que talvez se tenha conseguido algo tanto ou mais original, algo que não fora contemplado no artigo «As we may Think»: a possibilidade de partilhar esses pontos com outros indivíduos, facilitando o processo de descoberta.
Tocamos aqui finalmente na grande esperança (crença? ilusão?) que acima identificámos em Tim Berners-Lee — que a WWW é «all about connecting people». Será contudo necessário, dentro do possível, «desideologizar» a expressão e reduzi-la a algo bastante concreto e específico. Quando sugerimos que a partilha de algum recurso permite também ligar indivíduos, não devemos ser tão abrangentes na definição que tudo passe a ser um gerador de comunidade («instantânea», como gracejávamos acima). O forward de um e-mail (com uma imagem, uma anedota, um link) para múltiplos contactos pressupõe que esses contactos existam previamente; fazê-lo num blog, num newsgroup ou numa lista de distribuição alarga-o a indivíduos que nos podem ser perfeitamente anónimos, mas o vínculo é efémero (mesmo que com o tempo possa tornar-se estável e verdadeiramente social8). Não são essas as ligações que interessam, as que conectam utilizadores através de um meio técnico, e sim a própria constituição de uma outra rede — «meta-rede» talvez seja um nome adequado — na qual os utilizadores não são tanto aquilo que é conectado quanto um meio de conexão9.
Tal é conseguido, por exemplo, num conjunto de serviços relativamente recentes (mesmo que anteriores ao sensacionalismo do termo «Web 2.0»), agrupados sob o nome «social bookmarking», sendo o del.icio.us e o Digg dois dos mais conceituados, ainda que distintos na sua abordagem. Esse é, segundo cremos, um desenvolvimento que, constituindo-se sobre as fundações traçadas por Berners-Lee e outros arquitectos da «Web 1.0», de alguma forma transcende as suas expectativas. Resumindo ambos os serviços, para que não falemos no vazio, são bases de dados online de URLs que cada utilizador armazena e partilha como sendo interessantes ou relevantes10. São contudo algo mais. O Digg está orientado para notícias, ou pelo menos para conteúdos que tenham sido recentemente colocados na WWW, e a forma de classificação é algo rígida, encaixando-se em categorias pré-estabelecidas, organizadas segundo uma taxinomia hierárquica. O del.icio.us, um pouco como o serviço de armazenamento de imagens Flickr, deixa que o utilizador categorize a seu bel-prazer, de forma espontânea, abdicando de uma taxonomia em favor daquilo a que Thomas Vander Wal chama «folksonomy» (cf. Vander Wal, 2005); em vez de categorias temos por isso «etiquetas» — tags ou labels11.
Ora, são estas tags os nós da «meta-rede» a que acabámos de aludir. Ainda que beneficiários finais do processo, os utilizadores são um dos seus instrumentos, na medida em que propõem as categorias, dotando as URLs que encontram de algo que, não sendo uma semântica, a ela se assemelha. Esta questão é importante, pois corre-se o risco de, classificando como tal parte da WWW, se deturpar o próprio sentido da palavra «semântica» — ao menos «Web 2.0» é um termo mais neutro. Argumentar em favor da expressão é esquecer críticas como a que John Searle fez à tese forte da Inteligência Artificial na conhecida objecção do «Quarto Chinês». Não há semântica na WWW, mas as meta-tags que desde há muito fazem parte dos standards do HTML, a indexação feita pelos motores de busca, os descritores em RDF12 ou noutras linguagens, e agora estas etiquetas facilitam a descoberta de informação na medida em que vão ao encontro do modo como cada um de nós «arruma» mentalmente os significados.
Objectar-se-á que tags atribuídas ad hoc de pouco servem para os propósitos que acabámos de indicar, devendo em vez disso privilegiar-se categorizações standard como a que recebeu o nome de Dublin Core13; supostamente, deixar ao utilizador final a tarefa de categorizar apenas satisfaria os seus interesses e a sua forma idiossincrática de classificação. Por contra-intuitivo que tal possa ser para alguns, a verdade é que as folksonomies manifestam uma tendência para a auto-organização: os termos mais óbvios (mesmo que tal não seja de imediato perceptível) tendem a ser escolhidos por muitos, os termos verdadeiramente idiossincráticos — mesmo que sejam muitos — têm uma frequência reduzida. No final, desde que uma URL tenha sido indexada um número suficiente de vezes, as tags a que foi associada distribuem-se segundo o que se chama uma lei de potência, uma característica omnipresente na WWW e outras redes descoberta pelo matemático Albert Lázló-Barabási14.
Procurar conteúdos que satisfaçam um critério de classificação — isto é, uma etiqueta — pode então ser um simples «extensor» da memória (é essa a raiz do termo «memex») se o utilizador procura a sua lista de bookmarks passadas (ou de mensagens de e-mail, algo que é cada vez mais comum), mas pode também ser uma ferramenta heurística se procuramos URLs que outros utilizadores marcaram da mesma forma. Se uma tag for subscrita enquanto feed — o YouTube também o permite, bem como o serviço CiteULike, orientado para artigos académicos –, esse mesmo utilizador torna-se beneficiário das buscas bem-sucedidas que outros fizeram num passado recente. Num sentido muito minimalista, e desde que tomadas as devidas cautelas, talvez se possa aqui falar de uma comunidade de utilizadores.
A descoberta de conteúdos pré-existentes não é contudo a única forma de colaboração colectiva. Esta tende a alargar-se à própria produção e distribuição dos conteúdos. Serviços de armazenamento de imagens, de que o Flickr constitui o mais bem-sucedido, permitem que aquele que faz o upload das imagens seja o primeiro a marcá-las com tags. Ainda que Thomas Vander Wal considere que este é um caso de uma «narrow folksonomy» (cf. Vander Wal, 2005), pois as futuras classificações de outros são influenciadas pela primeira (o del.icio.us, ao contrário, seria exemplo de uma «broad folksonomy»), a possibilidade de partilhar e de subscrever conteúdos (bem como a visualização de tendências globais numa «tag cloud»15 [cf. Figuras 6a e 6b]) não se vê por isso grandemente afectada.
Figuras 6a e 6b: Tag clouds do del.icio.us («broad folksonomy») e do Flickr («narrow folksonomy»).
Mas ainda mais importante é a verdadeira produção de conteúdos de forma cooperativa, e para esta potencialidade não há melhor ilustração do que os wikis, com a Wikipedia como caso exemplar. O pressuposto de base é, reconheçamos, bastante frágil: esperar que um conjunto de contribuidores semi-anónimos16 constitua uma massa crítica que leva a que o sistema — neste caso, «sistema» pode significar quer o somatório de artigos quer cada um destes em particular — se auto-regule a ponto de se conseguir um grau de qualidade que ombreia com enciclopédias elaboradas segundo a metodologia «clássica» parece um sonho inalcançável. E contudo, os resultados são já notáveis, como o demonstrou um estudo recente publicado na revista Nature (Giles, 2005)17.
Poderá sem dúvida dizer-se que uma andorinha não faz a primavera, ou melhor, que uma amostra de entradas — mesmo que aleatória — pode esconder o facto de certas áreas do saber (em particular as ciências humanas18) não satisfazerem os critérios de rigor que seriam devidos. Como contra-resposta, deve assinalar-se que os resultados explicitados nesse artigo da Nature (i. e., a existência artigos com uma qualidade comparável à da Encyclopaedia Brittanica) foram conseguidos no lapso de tempo relativamente curto — cerca de 6 anos — de existência da Wikipedia. Poderá também argumentar-se que é uma regulação hierárquica bastante zelosa19, uma espécie de Leviatã da Wikipedia20 que impede que o vandalismo cause efeitos indesejados. Mas isso pouco diz dos conteúdos ou do elevado grau de participação. Isto é, não se confundam os aspectos «negativo» (as sanções, as «reversões» a uma edição não vandalizada) e «positivo» (as contribuições propriamente ditas) da regulação da Wikipedia. Para que se produzam esses resultados, é desejável que pelo menos alguns dos muitos autores possuam um grau de conhecimento equiparável ao de um autor duma enciclopédia clássica (independentemente do seu grau académico), mas é acima de tudo necessário que haja um número relativamente elevado de contribuidores que façam pequenos acrescentos ou correcções, forneçam links (internos ou externos) e outras referências, disponibilizem imagens ilustrativas, e outras tarefas aparentemente menos prestigiosas. Isto é, uma das condições para a qualidade dos artigos é a quantidade dos autores, bem como o seu grau de voluntarismo — o que ganha particular importância quando os conteúdos a que acede o utilizador comum são, como lembrámos acima, fundamentalmente anónimos. Os «Leviatãs» podem evitar a «entropia» do sistema, mas em pouco ou nada contribuem para a complexidade que dele emerge.
Perante este panorama, que pode dizer-se então da chamada «Web 2.0»? Deve tomar-se o partido de entusiastas como Tim O’Reilly ou de cépticos (mas na verdade também entusiastas, já que o seu cepticismo não é mais do que o efeito de um desfasamento temporal) como Tim Berners-Lee? Em boa verdade, talvez se trate de uma falsa opção, de um realismo linguístico que só pode ser curado com uma boa dose — essa sim, verdadeiramente céptica — de nominalismo. O nome pouco importa enquanto não corresponder a uma prática, e mesmo depois de estabelecida a realidade dessa prática — cujas dimensões procurámos ir recenseando ao longo deste texto –, bem como o seu grau de disseminação, nem por isso deixa de ser apenas um nome. Perante outros candidatos a sinónimos como sejam «web social» ou «web semântica», este apresenta a vantagem de evocar algo em trânsito, algo que, apesar das suas raízes no passado, está ainda (e talvez sempre) em versão «beta».
Bibliografia
2006 «Tim Berners-Lee on Web 2.0: “Nobody even Knows what it Means”», Ars Technica, 1 de Setembro de 2006, última consulta online a 22 de Abril de 2007.
2002 Linked: How Everything is Connected to Everything else and what it means for Business, Science and Everyday Life, Nova Iorque, Plume, 2003.
1945 «As we may Think», The Athlantic Monthly, Julho de 1945, última consulta online a 22 de Abril de 2007.
2005 «Internet Encyclopaedias go Head to Head», Nature, n.º 438, 15 de Dezembro de 2005, pp. 900-901, última consulta online a 22 de Abril de 2007.
1995 «Searching for the Leviathan in Usenet», in Steven J. Jones (org.), Cybersociety: Computer-Mediated Communication and Community, Thousand Oaks, Londres e Nova Deli, Sage, 1995, pp. 112-137.
2005 «What is Web 2.0: Design Patterns and Business Models for the Next Generation of Software», última consulta online a 22 de Abril de 2007.
2007 «Wishful Thinking ou Golpe de Misericórdia? A Wikipedia enquanto Nova Forma de Mediação dos Saberes», Revista de Comunicação e Linguagens, n.º 38 («Mediação dos Saberes»), no prelo.
2005 «Explaining and Showing Broad and Narrow Folksonomies», Personal Infocloud (blog), 21 de Fevereiro de 2005, última consulta online a 22 de Abril de 2007.
Notas
1 Nas palavras do próprio, fazendo uma alusão ao famoso crash financeiro das empresas «.com», «The concept of “Web 2.0” began with a conference brainstorming session between O’Reilly and MediaLive International. Dale Dougherty, web pioneer and O’Reilly VP, noted that far from having “crashed”, the web was more important than ever, with exciting new applications and sites popping up with surprising regularity. What’s more, the companies that had survived the collapse seemed to have some things in common.» (O’Reilly, 2005)
2 É, como se imagina, o caso dos sites que, historicamente, inauguram qualquer dessas tendências. O primeiro wiki, intitulado WikiWikiWeb e mantido ainda hoje por Howard Cunningham, está disponível em http://c2.com/cgi/wiki?FrontPage; um dos primeiros blogs, também sobrevivente, é o Scripting News de Dave Winer. Escusado será dizer que ambos são programadores.
3 Uma outra lista, mais completa mas nem sempre coincidente, pode ser consultada em http://webdesignfromscratch.com/web-design/web-2.0-design-style-guide/.
4 Algo que confesso achar um dos maiores pesadelos de toda a história do design, o triste momento na viragem do milénio em que uma geração de designers com um só olho (o dos meios impressos) destronou os cegos informáticos.
5 Quando mal concebidos, estes layouts limitam-se a importar o modelo «verticalizante» que predomina nos blogs, violando aquela que era uma regra de ouro do design para a web e estendendo aos limites da desatenção páginas que deveriam manter-se curtas. O MySpace, que recebeu da revista PC World, por essa e outras razões similares, o «troféu» de pior site de 2006 (cf. http://www.pcworld.com/article/127116/article.html), é um triste exemplo de como um site pode ser bem-sucedido apesar do ruído visual.
6 Note-se que esta diferença tem (ou teve!) as suas vantagens, na medida em que permitia diferenciar entre a parte da janela correspondente ao browser (com uma interface-utilizador consistente com o resto do sistema operativo) e a área correspondente aos conteúdos (com uma interface «hipertextual»). Contudo, basta observar alguém que tenha «aprendido» a navegar entre páginas com um duplo clique no rato para perceber que a coexistência de duas interfaces parcialmente distintas também acarreta uma inconveniente dissonância cognitiva.
7 Apesar da possibilidade de lhe serem associados links para documentos multimedia, através de uma «enclosure».
8 É perfeitamente escusado repetir os argumentos daqueles que gastam o seu tempo a constatar o óbvio: que as «amizades virtuais» (em chats, newsgroups, etc.) podem tornar-se reais. Tal é, para nós, um efeito secundário da web; não algo que a defina.
9 Embora, em última análise, a relevância do que está na web se meça pela relevância que tem para os utilizadores, pouco importa se a ligação entre utilizadores é ou não efémera. Basta que eles cumpram o seu papel de ligação entre pontos da rede.
10 A função destes serviços é (parcialmente) visível pelos respectivos nomes. «Delicious» (passando por cima da curiosa forma de compor a URL) vem duma outra metáfora para navegar na WWW: apanhar cerejas; só as «deliciosas» merecem ir para o cesto. «Digg» significa encontrar informação num palheiro de irrelevância — mesmo que posteriormente essa informação possa de novo aí regressar (se for «buried» pelos utilizadores).
11 Há muitas mais possibilidades escondidas neste serviço, todas elas contribuindo para reforçar a nossa argumentação ainda que não possamos aqui dissecá-las ao pormenor: criar uma rede de utilizadores, subscrever determinadas tags, receber RSS feeds, etc. Muitos outros serviços possuem funcionalidades semelhantes, ainda que por vezes algo ocultas, como é o caso do YouTube.
12 Abreviatura de «Resource Description Framework», uma linguagem baseada no XML que procura categorizar os conteúdos no interior de uma página ou site web a partir de «meta-informação» organizada numa relação sujeito-predicado-objecto — por exemplo, X (sujeito) é o autor (relação ou predicado) desta página (objecto). A linguagem RSS é um subconjunto simplificado (e ligeiramente modificado) da RDF.
13 Uma alternativa ao RDF, que procura classificar os conteúdos a partir de descritores (título, autor, etc.). Note-se que o Dublin do «Dublin Core» é uma cidade no Ohio, e não a capital da República da Irlanda.
14 Cf. Linked: How Everything is Connected to Everything else and what it means for Business, Science and Everyday Life (Barabási, 2002), livro que consegue a difícil tarefa de tornar compreensível aos leigos um assunto tão abstracto. Note-se contudo, a propósito da lei de potência, que um artigo recente — de que infelizmente só tivemos acesso ao abstract — procura demonstrar que na etiquetação de vídeos do YouTube a dispersão (local) prevalece sobre a coerência que permitiria fazer emergir esse padrão (global). O artigo, da autoria de J. C. Paolillo e S. Penumarthy, intitula-se «The Social Structure of Tagging Internet Video on del.icio.us» e foi apresentado na 40.ª Annual Hawaii International Conference on System Sciences.
15 Quando uma «tag cloud» (ou, como dirão os designers, «weighted list»), isto é, uma «nuvem de conceitos» exibe o conjunto de etiquetas que foram associadas a uma página, um site, um utilizador, etc., verifica-se um outro efeito bastante curioso, trate-se de uma folksonomy lata ou restrita. Como ilustração, um olhar atento à página que contém as tags mais utilizadas de sempre no Flickr (cf. a figura 6b, screen capture de http://www.flickr.com/photos/tags/) revela uma curiosa visão do mundo em que «Londres» tem um peso similar a «Japão», em que algumas cidades americanas (Nova Iorque, San Francisco) valem tanto ou mais do que alguns estados (Florida, Texas), ou em que alguns meses desaparecem do calendário, substituídos pela estação a que pertencem, enquanto outros surgem em posição de destaque (Julho, Março, …).
16 Sublinhamos o «semi»: ainda que alguns contribuidores optem pelo anonimato total — caso em que apenas o seu IP fica registado no «histórico» de modificações –, em boa parte dos casos estes identificam-se com um pseudónimo, que pode ou não remeter para uma página em que revelam outros dados pessoais. Contudo, para o utilizador que se limite a consultar o conteúdo actual, essa informação não está acessível de forma imediata nem intuitiva.
17 Não havendo aqui espaço para dissecar as suas conclusões, remetemos para o nosso artigo «Wishful Thinking ou Golpe de Misericórdia? A Wikipedia enquanto Nova Forma de Mediação dos Saberes», publicado na Revista de Comunicação e Linguagens dedicada ao tema «Mediação dos Saberes» (Rosa, 2007).
18 Neste caso, não temos outra «prova» a não ser a experiência subjectiva de consulta da Wikipedia, quer na versão inglesa (http://en.wikipedia.org/) quer na portuguesa (http://pt.wikipedia.org/).
19 Nem todos os contribuidores da Wikipedia possuem o mesmo tipo de direitos e deveres, como pode consultar-se em http://en.wikipedia.org/wiki/Wikipedia:User_access_levels. A hierarquia começa com os utilizadores não registados e continua com níveis como o de administrador, burocrata, etc.
20 Cf. o artigo «Searching for the Leviathan in the Usenet» (MacKinnon, 1995), que, apesar de ter mais de uma década e descrever uma «comunidade» praticamente extinta, a «Usenet», mantém uma notável actualidade.
Texto: 8/Mai/07