quarta-feira, 8 de fevereiro de 2012

O novo cibercrime




Artigo de opinião publicado no diário ‘As Beiras’
em 7 de Fevereiro de 2012


Não é novidade que todos gostamos de novidade. Contam com isso os fabricantes e vendedores dos mais variados produtos e serviços, os fazedores de opinião e, até, os políticos. A novidade espicaça a curiosidade e alimenta o sonho, sobretudo se estiver associada a um elevado grau de tecnologia.

A esta regra não foge um dos produtos mais procurados, mais apetecíveis e, nalguns casos, mais idolatrados da nossa sociedade: o automóvel. Os mais modernos recorrem já intensivamente às tecnologias da informação e comunicação (TIC), auxiliando o condutor em muitas tarefas da condução ou, nalguns casos, substituindo-o completamente.

Nestes veículos, quase todos os sistemas de controlo são dependentes de um ou mais microprocessadores. Para além disso, sistemas de comunicação permitem a monitorização remota do veículo e a sua ligação a outras redes – por exemplo, redes celulares de terceira ou quarta geração ou, ainda, redes Wi-Fi – possibilitando que os seus ocupantes recebam informação, visualizem conteúdos lúdicos ou acedam à Internet. Os carros transformaram-se em sistemas complexos, já não autónomos mas sim ligados a outros sistemas mais complexos ainda, dos quais o condutor controla uma fração cada vez menor.

É neste ambiente de maior automatização e controlo – que, segundo os seus fabricantes, torna os carros mais seguros – que surgem novas ameaças, aproveitando as portas abertas pela tecnologia.

Existem já casos reportados no Estados Unidos da América em que sistemas de desativação remota de veículos foram indevidamente utilizados para desligar os motores de dezenas de automóveis. Noutros casos, foram detetadas falhas de segurança de software que permitiram que os números de identificação (incluindo marcas, modelos e ano de fabrico) e a localização dos veículos fossem acedidos por terceiros. As mesmas ou outras falhas poderão ser exploradas para, eventualmente, abrir os veículos e colocá-los em marcha.

Mais grave, ainda, será o acesso remoto aos veículos para desativar os seus controlos, provocando o caos rodoviário. São cenários claramente catastrofistas, mas aproximamo-nos deles a passos largos, sendo certo que muitos fabricantes os encaram não só com determinação, mas também com genuína preocupação, pois sabem que a ameaça da criminalidade informática passa agora a pairar sobre eles.

A vasta experiência com sistemas informáticos ligados em rede já nos deu amargas lições. Até os sistemas informáticos mais seguros foram, são e serão alvo de ataques. Ligar carros, casas e todo o tipo de sistemas em rede é, sem duvida, uma novidade que, sendo apelativa e alimentando o sonho, não nos pode fazer esquecer que o cibercrime – orientado agora para esta nova realidade – se pode transformar no nosso maior pesadelo.

terça-feira, 31 de janeiro de 2012

O ovo de Colombo





Artigo de opinião publicado no diário ‘As Beiras’
em 30 de Janeiro de 2012


Muitas foram as revoluções ligadas às tecnologias da informação e comunicação (TIC), mas todas elas têm em comum o facto de terem tido um impacto à escala global.

Os primeiros computadores electrónicos, nas décadas de 1940 e 1950, revolucionaram a forma como a informação era obtida, processada e armazenada. Nos finais das décadas de 1960 e durante as duas décadas seguintes, o aparecimento e expansão da Internet mudaram a forma de utilizar os revolucionários computadores. No final da década de 1980, o aparecimento da World Wide Web (WWW) revolucionou, por sua vez, a já de si revolucionária Internet.

Para todos nós é já difícil imaginar um mundo sem computadores, sem Internet e sem WWW. São tecnologias que nos permitem aceder a um manancial de informação e serviços de forma extremamente fácil, essenciais para o mundo tal como o conhecemos. No entanto, pode dizer-se que a revolução maior foi aquela que foi provocada pelas chamadas redes sociais.

Apesar da Internet ter sido usada desde muito cedo para o suporte de uma série de aplicações que se podem classificar de interação social, só a partir de meados da década de 2000 é que se deu um crescimento explosivo das redes sociais.

Olhando para trás, por forma a explicar aquilo que aconteceu no passado – algo em que são bastante bons não só os historiadores mas, também, os sociólogos, os meteorologistas e os economistas (e, pelos, vistos, agora também os informáticos) – pode compreender-se, em boa medida, as razões desse crescimento e sucesso exponenciais. O que faltaria então, que passou a existir com as redes sociais?

A comunicação entre utilizadores já era intensa, com recurso ao correio electrónico, às aplicações de ‘news’ (muito populares nas décadas de 1980 e 1990) e ao ‘instant messaging’. O acesso a todo o tipo de informação estava em franca expansão, com o aparecimento vertiginoso de milhões de ‘websites’ e de vários motores de busca. A partilha de conteúdos também crescia a um ritmo intenso, com os sistemas ‘peer-to-peer’. O que faltava era, no entanto, algo bastante simples, algo que interessasse a milhões de utilizadores não técnicos e não especialistas, algo verdadeiramente revolucionário: a possibilidade de todo e qualquer utilizador criar e publicar conteúdos na Web, sem necessidade de ferramentas ou conhecimentos especializados.

É esse o extraordinário e verdadeiro motor das redes sociais. Pode este tipo de redes ter uma panóplia de outros serviços e possibilidades. Pode este tipo de redes servir para comunicar, para trabalhar, para impedir de trabalhar, para brincar, para aproximar, e até para afastar. Mas o verdadeiro ovo de Colombo destas redes é este: possibilitar que cada um se expresse e diga, para que toda a Internet saiba, “Eu existo”.

terça-feira, 24 de janeiro de 2012

É só fazer as contas


Artigo de opinião publicado no diário ‘As Beiras’
em 23 de Janeiro de 2012


Nos meios mais ligados às tecnologias da informação e comunicação (TIC) – mas também fora deles – as buzzwords mais utilizadas nos últimos tempos são, talvez, as da expressão cloud computing ou, em bom português, computação na nuvem. Para esclarecimento dos leigos e, se calhar, de muitos alegados especialistas, tentaremos aqui clarificar alguns dos principais aspetos desta curiosa expressão.

O conceito de cloud computing foi inventado há mais de cinquenta anos, em 1961, embora não com esse nome, por John McCarthy (n. 1927, f. 2011), um cientista de computadores e pioneiro da inteligência artificial. Como muitas vezes acontece, a sua ideia era demasiado avançada para a tecnologia existente na altura, o que fez com que o conceito só começasse a ter viabilidade várias décadas mais tarde.

As peças tecnológicas que, nesse momento, faltavam eram não só a grande capacidade computacional mas, também e sobretudo, a possibilidade de interligação dos computadores através de redes suficientemente rápidas, peças essas de que dispomos em abundância hoje em dia.

Inicialmente, o conceito de cloud computing foi (e ainda é) explorado sob o nome de grid computing, permitindo a cooperação de vários supercomputadores interligados entre si, de forma a resolver um problema específico, tipicamente envolvendo cálculo científico intensivo. O conceito foi, depois, estendido à utilização de quaisquer recursos computacionais, interligados através da Internet (normalmente representada por uma nuvem, ou cloud) de forma a fornecer serviços aos utilizadores independentemente da sua localização e do dispositivo que estão a utilizar para se ligarem à rede. Os recursos – por exemplo, redes, servidores, espaço de armazenamento, aplicações ou serviços – são partilhados por diversos utilizadores, disponibilizados a pedido e geridos com o mínimo de sobrecarga de gestão.

Visto que, através do cloud computing, é possível utilizar equipamentos, plataformas e software remotos como se fossem locais, muitas empresas exploram essa possibilidade deixando de ter os seus próprios serviços de TIC – e os consequentes custos em termos de equipamentos, software, manutenção e recursos humanos – que passam a contratar a outras empresas, que mais eficientemente possam fornecer esses serviços.

É claro que uma decisão sobre utilização de cloud computing tem que ser muito bem ponderada, quer em termos de segurança – um fator muitas vezes esquecido por uns e escamoteado por outros – quer em termos de autonomia quer, ainda, em termos de custos. Como disse um famoso ex-primeiro ministro, é só fazer as contas. O problema é que, aparentemente, no nosso país, muitos não as sabem fazer ou fazem mal, e muitas decisões – não só de TIC – são tomadas com base em buzzwords.

terça-feira, 17 de janeiro de 2012

O futuro e as máquinas






Artigo de opinião publicado no diário ‘As Beiras’
em 16 de Janeiro de 2012


Vivemos num mundo que para além de ser fortemente tecnológico – o que, em si, encerra enormes vantagens – parece ditado por chavões tecnológicos. Todos reconhecemos, felizmente, que dos chavões não vem grande mal ao mundo, apesar de que existirão sempre pessoas que os utilizarão para empolgar audiências como se estivessem a dizer ou escrever algo de inédito. O pior mal dos chavões é, no entanto, poderem ser levados demasiado à letra.

A propósito deste assunto, li há pouco tempo numa revista alegadamente especializada em tecnologias da informação e comunicação (TIC) um parágrafo que, na escala dos chavões, certamente atingiria um nível de obra prima. Dizia, mais ou menos, o seguinte: “as redes de nova geração vão revolucionar o competitivo mercado de telecomunicações e conduzir a uma sociedade em que tudo estará em rede; com redes mais escaláveis, mais inteligentes e de maior performance a comunicação machine-to-machine, em ambiente cloud, terá um enorme crescimento; de facto, o futuro é das máquinas!”

Para além do deleite que tais afirmações cheias de conteúdo causarão aos tecnologicamente letrados leitores de tal publicação – deleite esse que, diga-se de passagem, não consigo imaginar – o que é de salientar é o brilhante chavão final: “o futuro é das máquinas!”

A avaliar pelos muitos exemplos de (má) utilização das TIC nos quais as pessoas têm que se adaptar – e subjugar – às tecnologias, quase acreditamos que a afirmação seja verdadeira. Quantas vezes ouvimos já, em tantos serviços quer privados quer públicos, afirmações como “não se pode fazer porque o computador não deixa”, “está aqui no computador, portanto é verdade” ou “só se pode fazer através do computador”, para dar apenas alguns exemplos? Quantas vezes se adaptou (e complicou) processos às necessidades dos computadores? Quantas vezes ouvimos a frase “o que conta é o que está no computador”?

É preciso, no entanto, esclarecer que essa “ditadura das máquinas” não decorre das TIC em si, mas sim de quem, por intenção, incúria, ignorância ou incapacidade, desenvolve os sistemas. Não é, portanto, uma inevitabilidade e, muito pelo contrário, deve ser incansavelmente combatida, por forma a construirmos uma sociedade centrada nos cidadãos e não nas máquinas ou nas tecnologias.

Não nos podemos esquecer que são as máquinas e as tecnologias que têm que se adaptar aos cidadãos e não o contrário. Qualquer solução que esqueça que as tecnologias existem para os utilizadores será sempre uma solução ferida de vícios. De facto, até os mercados nos dizem isso: o sucesso de um produto está no grau de aceitação dos clientes, independentemente da tecnologia. É por isso que o futuro só será das máquinas se, coletivamente, não tivermos a visão para o fazer das pessoas.

terça-feira, 10 de janeiro de 2012

O tsunami dos dados






Artigo de opinião publicado no diário ‘As Beiras’
em 9 de Janeiro de 2012


Longe vão os tempos nos quais a ciência se fazia com teorias simples e com pequenas experiências, que geravam reduzidos conjuntos de dados para análise. Apesar de ser essa a imagem que a maioria das pessoas ainda tem da ciência – em muito alimentada pelo cinema e por programas televisivos de divulgação e entretenimento – a realidade é bem diferente.

As tecnologias da informação e comunicação (TIC) em muito alteraram este paradigma. Os instrumentos científicos são cada vez mais complexos, podendo atingir um grau de sofisticação semelhante ao de grandes computadores. Estes instrumentos geram enormes quantidades de dados, sendo impraticável que esses dados sejam analisados e tratados manualmente e/ou no momento da experiência.

A título de exemplo, refere-se que o acelerador de partículas LHC (Large Hadron Collider), localizado num túnel de 27 Km construído 175 metros abaixo da superfície na fronteira franco-suíça, perto de Genebra, poderá gerar cerca de 15 petabytes de dados por ano (1 petabyte são cerca de 1126 biliões de bytes). Por outro lado, estima-se que estudos de mapeamento do cérebro humano poderão exigir o tratamento de 1 zettabyte de dados, ou seja, cerca de um milhão de petabytes.

Mesmo quando o volume de dados é muito inferior aos valores acima referidos, o mais comum é que esse volume seja ainda de tal modo alto que exija a separação entre a realização das experiências e a análise dos dados que delas resultam. Significa isto que quando fazem as experiências os cientistas não têm, em muitos casos, uma ideia precisa do conhecimento que poderá vir a ser extraído dos dados e que, também frequentemente, esse conhecimento só poderá ser extraído após meses ou anos de trabalho de análise, recorrendo a supercomputadores.

O enorme volume de dados com o qual a ciência se depara conduziu, por isso, a um novo pilar do processo científico, para além da teorização, da experimentação e da computação: o pilar da mineração de dados, no âmbito do qual os dados são organizados, processados e analisados por forma a que deles se possa extrair conhecimento. É um pilar que exige meios de cálculo intensivos, muitas vezes envolvendo vários computadores ligados em rede.

Mas não é só nas diversas áreas da ciência que as TIC têm levado a uma superabundância de dados. Esta tendência regista-se em todas as áreas da nossa sociedade, com a recolha, processamento e cruzamento de todo o tipo de dados sobre pessoas, serviços e bens. É um fenómeno de tal forma vasto que o maior desafio que agora se coloca à nossa civilização é o de sobreviver à revolução provocada pela intensiva utilização das novas tecnologias, não se deixando ela, por um lado, subjugar pelas TIC nem, por outro, afogar pelo tsunami de dados que elas provocam.

terça-feira, 3 de janeiro de 2012

A solidão digital





Artigo de opinião publicado no diário ‘As Beiras’
em 2 de Janeiro de 2012


Tal como o nome indica, as tecnologias da informação e comunicação (TIC) são uma ferramenta que potencia a comunicação. As redes de computadores e de telecomunicações possibilitam que sistemas informáticos localizados em qualquer parte do mundo comuniquem entre si como se estivessem diretamente ligados. As pessoas podem aceder a serviços inimagináveis há apenas meia dúzia de anos, a qualquer hora e a partir de qualquer lugar. Comunicar nunca foi tão fácil, tão imediato e tão utilizado.

As TIC possibilitam agora que pessoas que se encontram fisicamente distantes falem umas com as outras, se relacionem, se vejam e cooperem na execução de tarefas. O mundo deixou de ser uma aldeia e passou a ser uma única sala, onde podemos encontrar – para além de informação e serviços – as pessoas de quem necessitamos.

As interfaces de comunicação que estão disponíveis nos atuais equipamentos computacionais e de comunicação recorrem cada vez mais ao tato, à voz e ao vídeo. As interações pessoa-máquina são cada vez mais naturais, ou seja, mais próximas daquilo que seriam entre pessoas de carne e osso.

Naturalmente que tais ferramentas revolucionaram a forma como trabalhamos, como produzimos riqueza e, ainda, como interagimos uns com os outros. Dir-se-ia que as TIC aproximaram as pessoas. Mas, apesar de todas estas facilidades de comunicação, tão intensamente exploradas, será que as pessoas estão verdadeiramente mais próximas?

É certo que temos as redes sociais, mas muitos dos que nessas redes se apelidam de “verdadeiros amigos” dar-se-iam a considerável trabalho para evitar encontrar-se. É certo que ainda temos o velho correio electrónico, mas quantas coisas se escrevem em mensagens de correio que nunca se diriam se as pessoas estivessem cara-a-cara? É certo que temos a videoconferência, mas as decisões verdadeiramente importantes só se tomam em reuniões presenciais. É certo que alguns, mais avisados, usam as TIC para conhecerem outras pessoas e culturas, explorarem o mundo que os rodeia, a história, a ciência, a natureza e o Universo, mas muitos outros usam-nas para se isolarem num mundo virtual, irreal, inexistente.

Frequentes são as vezes em que se utilizam as TIC para não ser necessário encarar os colegas que estão nos gabinetes próximos, para comunicar ordens de serviço, para se controlar pessoas como se fossem processos num qualquer sistema de business intelligence, para se contratar e despedir funcionários.

Mas se tal acontece, em muito isso se deve à natureza das pessoas e não às TIC em si. Cabe-nos, pois, evitar um futuro no qual a única voz simpática seja a de um ou uma assistente virtual e em que o único contacto seja o de um frio ecrã táctil, pois se não o fizermos estaremos irremediavelmente entregues à solidão digital.

quinta-feira, 22 de dezembro de 2011

A união faz a força






Artigo de opinião publicado no diário ‘As Beiras’
em 21 de Dezembro de 2011


Quando se fala em supercomputadores, a maioria das pessoas pensa em máquinas para cálculo científico intensivo, utilizadas por uma fração muito reduzida de eleitos. No entanto, os supercomputadores são fundamentais para todos nós e para a sociedade global, já que sem eles os motores de busca da Internet e as redes sociais não conseguiriam funcionar.

Mas o que é, afinal, um supercomputador? É, sem dúvida, uma máquina com enorme capacidade de processamento, normalmente medida em número de operações de vírgula flutuante executadas por segundo (floating point operations per second, flops).

Não nos esqueçamos, no entanto, que os supercomputadores de ontem são os pequenos computadores pessoais de hoje. Note-se, por exemplo, que há mais poder de cálculo num telemóvel dos dias de hoje do que nos computadores de bordo da Apolo XI, que levou o Homem à Lua ou, ainda, que há mais capacidade de processamento numa boa consola de jogos atual do que num supercomputador de meados dos anos 1990.

Mas será possível que o vertiginoso ritmo de evolução dos computadores se mantenha como até aqui, principalmente no que diz respeito aos supercomputadores?

Os supercomputadores atuais são já compostos por conjuntos de milhares de microprocessadores, precisamente porque existem dificuldades práticas em construir processadores cada vez mais potentes. Os microprocessadores atuais estão já perto de limites praticáveis em termos de capacidade de processamento, simplesmente porque fazer trabalhar mais depressa as centenas ou milhares de milhões de transístores que os compõem geraria um aquecimento tão grande que destruiria o próprio microprocessador.

O maior obstáculo à evolução dos supercomputadores é, assim, o consumo de energia. Os atuais supercomputadores consomem entre 4 a 6 megawatt, o que é equivalente ao consumo de uma cidade pequena. Com a tecnologia atual, para um computador ser capaz de atingir um trilião de flops (ou seja, um exaflops, isto é, dez elevado a dezoito flops) o consumo estimado seria próximo dos 1.5 gigawatt. Considerando que haverá ganhos de eficiência decorrentes de melhoria da tecnologia, os especialistas estimam que, mesmo assim, o consumo seria na ordem dos 70 megawatt, ou seja, mais ou menos o consumo de toda a cidade de Coimbra. Provavelmente, tal equipamento derreter-se-ia a si próprio, a não ser que ocupasse uma área descomunalmente grande.

Serão tais computadores impossíveis de construir? Para já sim, mas o tempo o dirá. Talvez por isso se recorra cada vez mais à cooperação entre vários supercomputadores, ligados entre si, para atingir cada vez maior capacidade de cálculo. É a chamada computação em malha, também conhecida por grid computing. Afinal, também no caso dos computadores a união faz a força.