domingo, 31 de julho de 2011

A Internet das coisas


Artigo de opinião publicado no diário ‘As Beiras’
em 25 de Julho de 2011


Dizem as previsões que por volta de 2015 haverá quinze mil milhões de dispositivos ligados à Internet, ou seja, mais do dobro dos habitantes do planeta. Significará isto que a Internet deixará de ser uma rede para interligar pessoas e passará a ser uma rede de ‘coisas’?

A Internet dos dias de hoje é usada não só por pessoas, mas também por dispositivos ou objetos com alguma “inteligência”, isto é, com capacidades de processamento que lhes permitem, entre outras tarefas, enviar e receber informação através da rede, quer como resposta a comandos executados por humanos quer de forma autónoma.

A comunicação pessoa-objeto ou objeto-objeto tem por objetivo fundamental aumentar o leque de serviços disponíveis, tornando-os mais sensíveis ao contexto e mais “conscientes” de aspetos sociais e ambientais. Por exemplo, a ligação de dispositivos sensores e actuadores à Internet permite uma integração de mundos reais e virtuais, possibilitando que os utilizadores humanos tenham acesso a – e controlem – entidades e grandezas físicas através da Internet.

Através da Internet pode passar, assim, a ser possível aceder a variáveis ambientais numa habitação, controlar um processo fabril, monitorizar o funcionamento de componentes críticos de uma aeronave ou, simplesmente, verificar o stock de mantimentos no nosso frigorífico. O próprio frigorífico poderá proceder à encomenda de mantimentos num supermercado, através da Internet, se esse stock baixar para valores pré-definidos. Um carro poderá, também, agendar uma reparação quando detectar algum problema no seu próprio funcionamento.

De facto, o conceito de Internet das coisas pode ser levado tão longe quanto se queira. Com dispositivos cada vez mais “inteligentes”, estes poderão utilizar informação de contexto, analisar intenções e comportamentos humanos e atuar em vez das pessoas. Tal poderá ser útil, por exemplo, na monitorização de doentes em ambulatório. Se sensores de movimento e de posição detetarem que uma pessoa está imóvel, caída no chão de sua casa, poderão estabelecer de imediato uma videochamada com uma equipa de emergência ou com as autoridades, desencadeando uma ação de socorro.

A Internet das coisas abre enormes perspectivas de negócio, sendo encarada como um fator muito promissor para a economia de muitos países. Também abre muitas perspectivas em áreas chave como o lazer, a saúde, a segurança civil, a segurança militar e, até, a administração de países e territórios. É por isso que, a nível mundial, se investem já muitos milhares de milhões de euros na investigação e desenvolvimento nesta área.

Há, no entanto, que ter especial cuidado com este tipo de tecnologias, pois facilmente poderão ser desenvolvidos serviços que ponham em causa a privacidade, a independência, o livre arbítrio, a segurança e a liberdade das pessoas. Há que não esquecer que se é certo que a Internet será, no futuro, das coisas, o Mundo nunca poderá deixar de ser das pessoas.

terça-feira, 19 de julho de 2011

A lição de Camões


Artigo de opinião publicado no diário ‘As Beiras’
em 18 de Julho de 2011









Um requisito essencial para o sucesso de uma boa parte das atuais empresas, especialmente se forem de cariz tecnológico, é terem capacidade de adaptação à mudança. Nas últimas décadas são inúmeros os exemplos de mudanças que alteraram radicalmente o negócio de milhares de empresas, algumas das quais de grande dimensão.

Um dos mercados mais sujeito a mudança é o das comunicações móveis. Até à década de 1980 este tipo de sistemas era de utilização extremamente reduzida. O desenvolvimento dos sistemas de comunicações celulares de primeira geração (1G) , na década de 1980, foi um passo importante no sentido da utilização mais alargada das comunicações móveis. No entanto, os sistemas 1G estavam reduzidos ao suporte dos serviços de voz, tendo fortes limitações de capacidade e segurança decorrentes da sua natureza analógica.

Na década de 1990 os sistemas celulares de segunda geração (2G) revolucionaram as comunicações móveis. Inteiramente suportados em tecnologia digital, caracterizaram-se por grande capacidade em termos de número de utilizadores, mobilidade generalizada dentro e entre redes, vulgarização de novos serviços – como, por exemplo, identificação do chamador, gravação de mensagens e SMS – para além de serviços de transferência de dados de baixo débito, como é o caso do GPRS. O sistema Europeu GSM esteve na base do enorme sucesso da tecnologia 2G, ainda largamente utilizada nos dias de hoje.

Por forma a dar resposta à forte apetência dos utilizadores por serviços multimédia e de acesso à Internet, foi desenvolvida a tecnologia de comunicações móveis de terceira geração (3G), com capacidade para débitos de dados relativamente elevados – até dois milhões de bits por segundo (2 Mbps) – e para o suporte de uma multiplicidade de serviços, muito para além do tradicional serviço de voz. Esta tecnologia – que, nas redes de acesso, se designa por tecnologia UMTS – começou a vulgarizar-se nos meados da década de 2000.

A evolução da tecnologia UMTS, designada E-UMTS, está na base dos emergentes sistemas de tecnologia LTE (Long Term Evolution), que podem considerar-se como um passo intermédio para os sistemas de quarta geração (4G). Os sistemas 4G serão caracterizados por se basearem nos protocolos da Internet, suportarem múltiplas tecnologias de redes de acesso e disponibilizarem débitos da ordem das centenas de Mbps. No caso da tecnologia LTE, cuja utilização generalizada se antevê para meados da década de 2010, o débito binário ronda os 100 Mbps.

Vemos, assim, que no espaço de poucas décadas – e devido à procura dos utilizadores – se passou de serviços unicamente centrados na voz para todo o tipo de serviços, nos quais a voz representa uma pequena parcela. Este é um claro exemplo daquilo que já no século XVI nos ensinou Luís de Camões: “Mudam-se os tempos, mudam-se as vontades, Muda-se o ser, muda-se a confiança; Todo o Mundo é composto de mudança, Tomando sempre novas qualidades”.

terça-feira, 12 de julho de 2011

Vestir o rei


Artigo de opinião publicado no diário ‘As Beiras’
em 11 de Julho de 2011


Já todos ouvimos falar da banda larga e muitos utilizam esta expressão sem terem sequer uma vaga ideia do que significa, apesar de se afectarem ares de grande conhecimento técnico quando o fazem. No fundo, com tanto alarido à volta da banda larga, fixa ou móvel, com tanta publicidade em jornais, rádio e televisão, ninguém quer dar parte de fraco e admitir que gostaria de saber em que consiste essa ‘coisa’, saber, afinal, porque é que se chama banda e porque é que é larga. É um pouco como a história do rei que todos viam que ia nu, mas que ninguém queria admitir por medo de confessar a sua ignorância. Vamos, então, “vestir o rei”.

As redes de comunicação são, em geral, constituídas por canais, que suportam a transmissão de fluxos de informação. Por exemplo, uma rede de televisão por cabo comporta vários canais, uma rede telefónica tem capacidade para operar múltiplos canais telefónicos, etc.. Nesses canais a informação é representada por sinais eléctricos, electromagnéticos, luminosos, ou outros, que variam ao longo do tempo de uma forma mais ou menos rápida, com determinadas frequências. À diferença entre a frequência mais elevada e a frequência mais baixa transportadas por um dado canal chama-se largura de banda.

Na primeira metade do século XX, Claude E. Shannon e Harry Nyquist, trabalhando separadamente, deram enormes contributos para o desenvolvimento dos sistemas de comunicação e da transmissão de dados, provando que quanto maior for a largura de banda de um canal e quanto menor for o ruído nele presente, maior será a quantidade de bits de informação que se pode transmitir por unidade de tempo. Os trabalhos de Shannon e Nyquist estiveram na base da construção dos computadores e redes digitais, tais como os conhecemos hoje.

Com a utilização crescente das redes de dados, passou a haver necessidade de comunicação a partir de qualquer lugar. No entanto, em meados do século XX e nas décadas seguintes, a única rede amplamente disponível era a rede telefónica, cujos canais tinham uma largura de banda bastante reduzida, de apenas 3100 hertz. Ora, essa banda tão estreita permitia apenas velocidades de transmissão (isto é, débitos binários) bastante modestos, na ordem das poucas dezenas de milhares de bits por segundo.

Surgiu, assim, a necessidade de redes de “banda larga”, isto é, redes com largura de banda superior à da tradicional rede telefónica, capazes de suportarem a transmissão a débitos binários da ordem dos milhões de bits por segundo (megabits por segundo, Mbps). É esse o caso das redes DSL, redes de cabo coaxial, redes de fibra óptica ou, ainda, redes móveis de terceira geração.

Todas estas redes são, afinal, de banda larga. De facto, já ninguém utiliza banda estreita – isto é, a rede telefónica comutada – para transmissão de dados. É por isso que a expressão “banda larga” já pouco ou nada diz, transmitindo apenas uma ilusória superioridade, tal como o fato do rei que ia nu.

quarta-feira, 6 de julho de 2011

O oráculo


Artigo de opinião publicado no diário ‘As Beiras’
em 4 de Julho de 2011


Atualmente, todas as áreas de atividade são tão dependentes das tecnologias da informação e comunicação (TIC) que quase só pelos livros – também estes cada vez mais electrónicos – nos lembramos de como era o mundo antes dos computadores e da Internet. Órgãos de soberania, governos e políticas recorrem intensivamente às TIC. Comércio e indústria – cada vez mais globalizados – servem-se do enorme potencial de comunicação da Internet para alargar mercados. Ensino, investigação, arte e lazer exploram as TIC de múltiplas e variadas maneiras.

Os computadores pessoais e dispositivos móveis são, predominantemente, portas para o manancial de informação acessível através da Internet. De facto, em linguagem corrente muitas vezes se confunde os serviços e repositórios de informação a que a Internet dá acesso com a própria Internet. A pergunta “onde descobriste isso?” é, nos dias de hoje, praticamente supérflua, pois a resposta é, quase invariavelmente, “na Internet”.

A Internet assume-se, assim, como enciclopédia universal, fonte de inesgotável sabedoria, quase com estatuto de mente superior, omnisciente e omnipresente, divindade pagã que todos idolatram. Para muitos – cujo número não pára de aumentar – se está na Internet é verdade, principalmente se estiver nalgum dos seus reputados e incontornáveis sites. Qualquer pessoa que se preze, qualquer iniciativa respeitável, tem que ter existência na Internet. Todo o “bom aluno”, com pretensão a uma boa nota, copia da Internet, quantas vezes não se dando sequer ao trabalho de ler – quanto mais perceber – o resultado do seu mecânico “copy/paste”.

E como a resposta para tudo está à distância de um clique, como tudo o que é relevante e conta está na Internet, como já não é preciso ir para chegar, como tudo se pode fazer remotamente, deixa de ser preciso estudar ou pensar, deixa de ser preciso questionar, perceber o porquê, procurar as causas, avaliar os efeitos, compreender a dinâmica das pessoas, das coisas e do mundo.

Esquecemo-nos de – ou desconhecemos – que a informação que está na Internet foi lá colocada por pessoas reais, que se enganam como todos nós, que não sabem tudo, que têm opiniões que podem ser questionadas. Não nos lembramos que os incontáveis serviços on-line podem estar tão mal concebidos ou organizados como os serviços presenciais.

Como ferramenta inicial para pesquisa a Internet tem grande utilidade. Há que, depois da recolha dos abundantes dados que lá se encontram, digerir e filtrar o que se obteve, consultar outras fontes, estudar e compreender. Mais do que em qualquer outro lugar, na Internet “nem tudo o que luz é ouro”.

De acordo com a mitologia grega, o oráculo de Delfos, construído no templo dedicado ao deus Apolo, no século VII antes de Cristo, tudo sabia e a tudo respondia. Só mitologicamente tal é possível. Não nos esqueçamos, por isso, que, por muito endeusada que seja, a Internet não é o oráculo dos nossos dias.

quarta-feira, 29 de junho de 2011

Doze mitos da informática


Artigo de opinião publicado no diário ‘As Beiras’
em 28 de Junho de 2011


Como é frequente no caso de assuntos pouco compreendidos mas de grande importância para a sociedade, muitos são os mitos ou erros de juízo relacionados com a informática. Apesar de terem sempre um fundo de verdade, esses mitos levam a tomadas de decisão erradas, pelo que importa conhecer e desmontar os principais.

Desde a sua invenção, os computadores têm sido fonte de inúmeros mitos, dos quais são de salientar os quatro seguintes: os computadores pensam; programar é difícil; as crianças que trabalham com computadores são (ou ficam) mais inteligentes; tirando os erros de computador, os computadores têm sempre razão. Com efeito, os computadores não pensam e, por isso, não se enganam, nem têm razão. Os computadores executam simplesmente sequências de ações inteiramente controladas por programas pré-definidos. Conhecendo as regras para escrita desses programas, programar torna-se relativamente fácil. Erros nos programas levam a ações inesperadas ou indesejadas, mas isso não significa que o computador se tenha enganado. Por outro lado, a utilização de uma ferramenta como os computadores desenvolve tanto o cérebro como qualquer outra atividade que exija raciocínio lógico.

A Internet também tem a sua cota parte na geração de mitos. Quatro deles são: os criadores da Internet eram génios; tudo está na Internet; se está na Internet é verdade; a Internet é perigosa. Por muito revolucionária que seja a Internet, quem lhe deu origem não imaginava naquilo em que ela se transformaria, tendo apenas dado o primeiro passo, conceptualmente bastante simples. Apesar do seu sucesso, nem tudo está na Internet (ainda bem que assim é) e nem tudo o que lá está é verdade, já que quem coloca conteúdos na Internet são pessoas e não seres omniscientes. É também por esse motivo que o perigo não está na Internet mas sim nas pessoas que a utilizam.

Os quatro mitos restantes têm a ver com a informática em geral. Tratá-los-emos pela negativa. Os informáticos são pessoas como quaisquer outras, que desempenham as suas funções com maior ou menor competência. Nem sempre informatizar é sinónimo de simplificar, já que a simplificação está nos processos, e estes são definidos por pessoas. A informática não é a profissão do futuro mas, simplesmente, uma entre muitas, cuja chave do sucesso é serem exercidas com competência e dedicação. A informática não resolve todos os problemas e, de facto, até cria problemas que nunca existiriam se ela própria não existisse.

Computadores, Internet e informática em geral nada têm, afinal, de místico. Por detrás têm ciências de engenharia, tecnologia, racionalidade. É por isso que a melhor forma de lidar com a informática é, simplesmente, esquecê-la e tentar olhar para os problemas que se pretende resolver e não para a ferramenta que se vai utilizar. Só assim podemos afastar o véu mistificador que tolda o raciocínio lógico e olhar para a realidade em toda a sua clareza e objectividade.

terça-feira, 21 de junho de 2011

Verdade ou consequência?


Artigo de opinião publicado no diário ‘As Beiras’
em 20 de Junho de 2011


Têm vindo a lume algumas preocupações com certos programas de apoio à modernização e desenvolvimento tecnológicos – nos quais as tecnologias da informação e comunicação (TIC) desempenham um papel de relevo – essencialmente pelo facto de a disponibilização de meios de financiamento não estar a produzir os resultados desejados. A este respeito, o indicador invariavelmente utilizado é a taxa de execução dos projetos que, pelos vistos, em muitos casos é bastante mais baixa do que seria desejável.

Parece isso indicar que se essa taxa fosse elevada tudo estaria perfeito, quer do ponto de vista de quem financia quer do ponto de vista de quem é financiado. Apetece perguntar: então os projetos avaliam-se pela taxa de execução ou pela qualidade e impacto dos seus resultados? Será que com estes ninguém está preocupado?

Logo na fase de candidatura, em demasiados casos se dá mais importância à correção formal dos formulários, à promessa quantificada de indicadores de realização, à satisfação de requisitos meramente administrativos, à inclusão de provas documentais, certidões e atestados, aparentando assim querer-se filtrar mais pelo cansaço burocrático do que pelo conteúdo e mérito técnico do projeto.

Pouco parece interessar se os objetivos do projeto são relevantes e exequíveis, se existe um plano de trabalhos composto por tarefas coerentes e consistentes, se foi definida uma calendarização realista mas rigorosa, se se ponderaram os riscos, se a equipa de projeto tem as competências necessárias e, ainda mais importante, se está contemplada uma adequada gestão do projeto, que garanta a boa execução dos trabalhos e o alcance dos objetivos.

De facto, o sucesso de qualquer projeto depende, de forma crítica, da sua gestão. À equipa de gestão cabe coordenar todas as atividades do projeto, fazer cumprir o plano de trabalhos de acordo com os prazos e objetivos inicialmente fixados, gerir os recursos materiais e humanos afetos ao projeto, resolver conflitos e, ainda, decidir sobre eventuais ações corretivas.

Naturalmente que, a par da equipa de gestão, a qualidade do plano de trabalhos também é determinante. Um bom plano de trabalhos tem que contemplar uma análise de requisitos e de cenários de utilização, uma especificação detalhada do sistema a construir ou integrar, desde a arquitetura à funcionalidade, a construção ou integração propriamente ditas, a realização de testes e ensaios e, ainda, a entrada em produção. Para além disso, poderá também contemplar a avaliação do sistema por parte dos utilizadores.

Se os inúmeros projetos com a tal baixa taxa de execução tivessem sido aprovados com base num plano de trabalhos e calendarização bem definidos, e contemplassem uma gestão adequada, não poderiam estar na situação em que se encontram. Não sendo esse o caso, a baixa taxa de execução não é o verdadeiro problema mas sim a consequência natural de uma gritante falta de metodologia de projeto.

quarta-feira, 15 de junho de 2011

O cavalo de Tróia


Artigo de opinião publicado no diário ‘As Beiras’
em 13 de Junho de 2011


Os cavalos tiveram um papel fundamental na História da Humanidade, tendo estado na base da ascensão e queda de grandes impérios. Durante milénios os cavalos foram um recurso estratégico de enorme importância, fornecendo mobilidade e força motriz. De forma diferente, essa importância perdura nos dias de hoje, não só pelos elevados montantes envolvidos na indústria equina, mas também pelo carácter intemporal da relação quase mágica entre seres humanos e estes simpáticos animais.

No entanto, os atuais ‘cavalos de batalha’ são, sem sombra de dúvida, as tecnologias da informação e comunicação (TIC). É com recurso às TIC que se constroem verdadeiros impérios, se desenvolvem negócios, se gera emprego e se desenvolve toda a espécie de atividades. As TIC são o novo motor da sociedade, são o catalisador da mobilidade – real e virtual – e são uma poderosa ferramenta para o desenvolvimento.

Curiosamente, tal como o imenso cavalo de madeira repleto do soldados hostis, utilizado como engodo pelos gregos na guerra contra os troianos no final da Idade do Bronze, por volta de 1300 a 1200 anos antes de Cristo, também as TIC podem trazer graves e inesperados problemas.

Os mais comuns – e, provavelmente, os mais tratáveis, pelo facto de existirem ferramentas especializadas para tal – são os problemas de segurança. Para além de incontáveis vírus e vermes informáticos, todos já ouvimos falar de cavalos de Tróia, que não são mais do que programas que, a coberto de aplicações ‘bem comportadas’, executam ações indesejáveis, como sejam o roubo ou destruição de informação. Felizmente que vírus, vermes e cavalos de Tróia podem, em regra, ser eliminados com recurso a software de anti-vírus.

Mas os piores cavalos de Tróia informáticos são aqueles que ninguém classifica como tal e que, por isso, não se podem eliminar com recurso a software especializado, pois todo o seu funcionamento é perfeitamente legítimo. Refiro-me às soluções informáticas com custos escondidos, que, depois de instaladas no terreno, se revelam um sorvedouro de recursos humanos e financeiros.

São relativamente frequentes os casos em que na escolha de soluções informáticas se menosprezam os custos de operação, manutenção, expansão e evolução, tantas vezes porque quem compra fica ofuscado por baixos custos iniciais de aquisição ou por grandes e generosos descontos comerciais. Só algum tempo depois de instalada a solução – tipicamente, após o primeiro ano – se torna claro que esta é demasiado cara e, pior ainda, que os custos de instalação de uma solução alternativa seriam agora incomportáveis, pois obrigariam a um largo e caro período de transição. Fica-se, assim, refém de uma solução que estrangula quem a adoptou.

Tal como no caso do cavalo de Tróia original, este é um estratagema que sai muito caro às vítimas. Surpreendentemente, passados mais de 1200 anos, ainda é grande o número de sábios decisores que se deixa enganar.