quinta-feira, 22 de dezembro de 2011

A união faz a força






Artigo de opinião publicado no diário ‘As Beiras’
em 21 de Dezembro de 2011


Quando se fala em supercomputadores, a maioria das pessoas pensa em máquinas para cálculo científico intensivo, utilizadas por uma fração muito reduzida de eleitos. No entanto, os supercomputadores são fundamentais para todos nós e para a sociedade global, já que sem eles os motores de busca da Internet e as redes sociais não conseguiriam funcionar.

Mas o que é, afinal, um supercomputador? É, sem dúvida, uma máquina com enorme capacidade de processamento, normalmente medida em número de operações de vírgula flutuante executadas por segundo (floating point operations per second, flops).

Não nos esqueçamos, no entanto, que os supercomputadores de ontem são os pequenos computadores pessoais de hoje. Note-se, por exemplo, que há mais poder de cálculo num telemóvel dos dias de hoje do que nos computadores de bordo da Apolo XI, que levou o Homem à Lua ou, ainda, que há mais capacidade de processamento numa boa consola de jogos atual do que num supercomputador de meados dos anos 1990.

Mas será possível que o vertiginoso ritmo de evolução dos computadores se mantenha como até aqui, principalmente no que diz respeito aos supercomputadores?

Os supercomputadores atuais são já compostos por conjuntos de milhares de microprocessadores, precisamente porque existem dificuldades práticas em construir processadores cada vez mais potentes. Os microprocessadores atuais estão já perto de limites praticáveis em termos de capacidade de processamento, simplesmente porque fazer trabalhar mais depressa as centenas ou milhares de milhões de transístores que os compõem geraria um aquecimento tão grande que destruiria o próprio microprocessador.

O maior obstáculo à evolução dos supercomputadores é, assim, o consumo de energia. Os atuais supercomputadores consomem entre 4 a 6 megawatt, o que é equivalente ao consumo de uma cidade pequena. Com a tecnologia atual, para um computador ser capaz de atingir um trilião de flops (ou seja, um exaflops, isto é, dez elevado a dezoito flops) o consumo estimado seria próximo dos 1.5 gigawatt. Considerando que haverá ganhos de eficiência decorrentes de melhoria da tecnologia, os especialistas estimam que, mesmo assim, o consumo seria na ordem dos 70 megawatt, ou seja, mais ou menos o consumo de toda a cidade de Coimbra. Provavelmente, tal equipamento derreter-se-ia a si próprio, a não ser que ocupasse uma área descomunalmente grande.

Serão tais computadores impossíveis de construir? Para já sim, mas o tempo o dirá. Talvez por isso se recorra cada vez mais à cooperação entre vários supercomputadores, ligados entre si, para atingir cada vez maior capacidade de cálculo. É a chamada computação em malha, também conhecida por grid computing. Afinal, também no caso dos computadores a união faz a força.

quarta-feira, 14 de dezembro de 2011

Telhados de vidro






Artigo de opinião publicado no diário ‘As Beiras’
em 13 de Dezembro de 2011


Nas últimas semanas têm vindo a lume várias notícias sobre ataques de piratas informáticos contra sistemas da administração do Estado. Muitos dirão que quem anda à chuva molha-se, mas o que é certo é que todos ficamos desconfortáveis pelo facto de o Estado parecer não estar bem preparado para umas gotas de água que, inevitavelmente, salpicam do mar que é a Internet.

Todos concordarão que a utilização das tecnologias da informação e comunicação (TIC) na administração central e local é indispensável nos dias de hoje, sendo fundamental não só para a eficiência e eficácia dos serviços mas, sobretudo, para a comodidade dos cidadãos. E não nos esqueçamos deste último aspeto, já que existe uma enorme diferença entre um Estado que existe para servir os cidadãos e um outro que exista para ser servido por eles.

A questão central é, no entanto, que para além de se construir uma máquina eficiente, eficaz e cómoda com base nas TIC, é necessário que esta máquina seja suficientemente robusta para aguentar as investidas do ambiente em que se insere. Em termos informáticos isto significa que essa máquina tem que estar bem dimensionada, tem que ser capaz de resistir a falhas e, não menos importante, tem que ser segura.

Todos os especialistas informáticos sabem que o potencial de ataque associado a qualquer sistema ligado à Internet é tanto maior quanto maior for a visibilidade que esse sistema tem. É, por isso, impensável que sistemas estatais não sejam geridos de acordo com as mais estritas políticas de segurança informática e não estejam sujeitos aos mecanismos de segurança mais robustos que existem, já que são sistemas críticos para o país e é claro que quanto mais fortes forem as medidas de segurança informática menor será o número de ataques bem sucedidos.

Um dos procedimentos mais importantes para a detecção de brechas de segurança são as auditorias. Sistemas estatais têm, forçosamente, que ser auditados, em termos de segurança informática, várias vezes por ano, por entidades externas expressamente contratadas para o efeito.

Para além disso, é essencial que existam especialistas em segurança informática dedicados à gestão dos sistemas mais críticos. Nesta matéria específica, o recurso a outsourcing deve ser evitado, por forma a limitar a difusão de informação de segurança a outras entidades. Aqui a dificuldade é encontrar esses especialistas, já que a carreira informática da administração pública não contempla especificamente a área de segurança.

Os ataques informáticos – sejam eles a sistemas do Estado ou não – são sempre ilegais. É despropositado, por isso, dizer que os organismos atacados tenham andado a atirar pedras, mas, a avaliar pelos ataques bem sucedidos de que foram alvo, é evidente que têm demasiados telhados de vidro.

terça-feira, 6 de dezembro de 2011

O método imperfeito





Artigo de opinião publicado no diário ‘As Beiras’
em 5 de Dezembro de 2011


O sucesso de qualquer projeto de engenharia exige, para além de uma série de condições materiais e de uma equipa com as necessárias competências técnicas, uma rigorosa metodologia de desenvolvimento. Assim acontece também no caso dos projetos de Engenharia Informática.

A metodologia tradicional de desenvolvimento de projetos informáticos é conhecida por metodologia “em cascata”, devendo-se esse nome ao fato de que cada fase do desenvolvimento dá origem à seguinte, de forma sequencial, sem que exista possibilidade de fases posteriores influenciarem o desenvolvimento. Com efeito, também a água que desce uma cascata não tem forma de voltar ao seu início.

Durante várias décadas, o desenvolvimento em cascata foi considerado o método perfeito. Numa primeira fase faz-se um exaustivo planeamento, que inclui o levantamento de requisitos, a especificação do sistema a desenvolver, a identificação das diversas tarefas a executar, a respectiva duração e os meios necessários. Todos estes aspetos devem ser exaustivamente documentados. Uma vez aprovado o planeamento, segue-se a fase da execução, na qual a equipa de desenvolvimento deve por em prática tudo o que foi decidido na fase de planeamento. A última fase é a dos testes – por entidade certificada – e aceitação por parte do cliente.

A metodologia em cascata é bastante rígida, tendo vantagens e desvantagens. Do lado das vantagens, há a assinalar o grande controlo que permite sobre a execução do projeto. No entanto, a principal desvantagem é a de que assume que quer os utilizadores, quer o cliente da aplicação quer, ainda, quem a desenvolve, são pessoas cuja visão não muda ao longo de todo o desenvolvimento, que não podem ter qualquer criatividade, e que executam as tarefas como se fossem robôs e não seres humanos.

O reconhecimento dessa desvantagem levou ao aparecimento, no início da década de 1990, de metodologias de desenvolvimento rápido, das quais a metodologia ‘Scrum’ é a mais conhecida e mais utilizada. Neste caso, a metodologia assume que os requisitos podem mudar ao longo do projeto, assim como os objetivos da aplicação ou sistema, por forma a refletir a natureza dinâmica de utilizadores, clientes e desenvolvedores. Em cada ciclo de desenvolvimento – denominado ‘sprint’ – os objetivos são reavaliados à luz do trabalho realizado, dos erros e experiência acumulados, e de novas ideias ou requisitos.

Também esta metodologia tem riscos – frequentemente desvalorizados e, quiçá, mais problemáticos que os de metodologias mais rígidas – compensados, no entanto, por um muito maior potencial para atingir produtos de maior qualidade, mais fáceis de utilizar e mais próximos das necessidades do mercado. Não existirá uma metodologia perfeita mas, ao prever formas de lidar com a mudança e com a imperfeição humanas, esta metodologia dá um grande passo nesse sentido.

terça-feira, 29 de novembro de 2011

Os computadores pensam?

Artigo de opinião publicado no diário ‘As Beiras’
em 28 de Novembro de 2011


Nos bons velhos tempos, só em obras de ficção – fossem elas em forma de livro ou filme de carácter futurista – se poderia colocar a hipótese de que os computadores pensassem. No entanto, o extraordinário avanço da ciência e da tecnologia nas últimas décadas levou ao aparecimento de computadores com grande capacidade de processamento e de programas extremamente sofisticados, o que tem levado a que um número crescente de pessoas – desde o cidadão comum a eminentes cientistas – coloque questões como as seguintes: pode um computador pensar, ter uma mente, ter consciência, sentir?

Um computador é um sistema físico, composto por dispositivos elétricos e electrónicos, que opera segundo regras bem definidas e conhecidas e que, em última análise, obedece às leis universais da física. Parece, portanto, ser claro que um computador é algo inerte, que não pode pensar ou ter consciência. No entanto, todos os cientistas concordam que o cérebro humano é também um sistema que obedece às leis da física, composto por cerca de cem mil milhões de neurónios e, portanto, pelo menos em teoria, será possível construir um dispositivo físico que como ele funcione.

De facto, foram já feitas experiências no sentido de utilizar máquinas para simular o funcionamento do cérebro. Diga-se, de passagem, que para simular um segundo de atividade cerebral tiveram que ser utilizados vários supercomputadores que, para o efeito, demoraram cerca de cinquenta dias e consumiram quantidades gigantescas de energia.

Mas mesmo admitindo que num futuro mais ou menos distante os computadores serão tão poderosos que poderão simular o funcionamento do cérebro, será que alguma vez se poderá dizer que têm mente, que têm consciência, que têm sentimentos? Note-se que, hoje em dia existem já programas que agem de uma forma tão similar à mente humana que é difícil a um humano saber se está a interagir com uma máquina ou com uma pessoa. Há, por isso, quem defenda que se um computador pode exibir um comportamento inteligente indiscernível do dos humanos, então é inteligente, tem consciência e pode sentir.

Essa mesma posição é defendida por muitos investigadores, por muitos filósofos e por muitos cientistas cognitivos aos quais, naturalmente, se opõem – com argumentos igualmente válidos – pelo menos outros tantos investigadores, filósofos e cientistas cognitivos.

Pessoalmente, enquadro-me nestes últimos, mas o que é certo é que temos que reconhecer que existem hoje máquinas de elevado grau de sofisticação, que podem exibir comportamentos inteligentes, executar tarefas muito complexas e tomar decisões de forma autónoma. Nalguns casos, é muito mais fácil ensinar uma dessas máquinas a executar uma tarefa ou, até, deixar que a máquina aprenda sozinha, do que ensinar pessoas, muitas das quais dificilmente aprendem o que quer que seja. E nesses casos poderá acontecer que um computador coloque, de forma autónoma, a questão: mas, afinal, as pessoas pensam?

terça-feira, 22 de novembro de 2011

Divórcio litigioso





Artigo de opinião publicado no diário ‘As Beiras’
em 21 de Novembro de 2011


O que têm em comum a tecnologia, a política e o futebol? À primeira vista, pouca coisa mas, pensando bem, os três interessam a um grande número de pessoas, movimentam grandes meios e, consequentemente, têm o poder de moldar uma boa parte da nossa sociedade.

Idealmente, as coincidências deveriam terminar aí, mas todos sabemos que não é assim. Se entre a política e o futebol existe já um consenso na sociedade em geral de que deve haver uma grande independência, já entre tecnologias e política as dependências têm sido exploradas muito para além do desejável.

É certo que as tecnologias em geral e, dentro destas, as de informação e comunicação (TIC) mudaram e continuarão a mudar a nossa civilização e, por conseguinte, têm que ser alvo de atenção do poder político, na medida em que têm impacto no desenvolvimento económico e social, no ensino e investigação e, ainda, nas liberdades e garantias dos povos. Por isso, não devem a política e a ciência/tecnologia estar de costas voltadas. Seria absurdo que tal acontecesse, num mundo cada vez mais tecnológico, cada vez mais influenciado pela informação e pelo conhecimento.

Mas por muito que a ciência e a tecnologia condicionem a nossa vida, não pode a política ser sua refém. Significa isto que a política não pode ser inteiramente ditada por nem subjugada à ciência e à tecnologia. Significa isto, ainda, que não devem os cientistas nem os engenheiros, enquanto profissionais, ditarem as políticas. Significa isto, por fim, que não devem os políticos orientar as suas políticas exclusivamente para a ciência e a tecnologia, estabelecendo estas últimas como um fim em si mesmas. Tal seria não ver o principal porque só se olha para o acessório. Tal seria esquecer as pessoas em favor dos sistemas, que existem, exclusivamente, para lhes dar apoio.

Mas se é certo que a política não deve ser refém da ciência e da tecnologia, não é menos certo que a ciência e a tecnologia não devem ser reféns da política. Não deve a política definir as linhas nem os limites para a atividade científica e tecnológica, estabelecendo entraves à curiosidade intelectual e ao engenho. Não devem os financiamentos para a ciência e a tecnologia ser exclusivamente ditados por razões políticas, sob pena de reduzir a ciência e a inovação ao meramente planeado e previsível, o que, em si, é um contrassenso. Não deve a política “apoderar-se” da ciência e da tecnologia – e, muito menos, dos seus agentes – encarando-as como uma ferramenta que existe para servir os seus fins. Nesta matéria como, aliás, em todas as outras, não pode haver ditadura.

A chave do sucesso está, assim, no respeito mútuo, na interação saudável e, sobretudo, na independência decisória. E se se pode dizer, em face da experiência recente, que um casamento por conveniência entre política e tecnologia é manifestamente indesejável, muitos concordarão que a nossa sociedade não se pode agora dar ao luxo de um divórcio litigioso.

terça-feira, 15 de novembro de 2011

O ensino adiado





Artigo de opinião publicado no diário ‘As Beiras’
em 14 de Novembro de 2011


Se muitos dos países mais desenvolvidos do mundo são o que são, muito o devem a uma política de ensino ativa, cuidada e coerentemente mantida ao longo de décadas, se não mesmo de séculos. Sempre foi este o nosso calcanhar de Aquiles, já que ao longo da nossa história, com ênfase nos séculos XIX e seguintes, o ensino foi tratado como um parente pobre num país que, já de si, não é rico.

Diziam os antigos que isso dos livros e dos estudos era só para quem nada que tinha que fazer, pois o importante era amanhar a terra, trabalhar nas fábricas. Tarde reconhecemos que o analfabetismo teve custos incalculáveis para o país, condenando-o a um atraso do qual ainda sofremos as consequências.

Surge agora um novo tipo de literacia – o das tecnologias da informação e comunicação (TIC) – essencial para todas as profissões sem exceção e para todas as atividades produtivas. Consistentemente, países e povos preparam os seus jovens para a sociedade da informação de forma planeada, nas escolas básicas, secundárias e superiores. De entre esses jovens sairão não só pessoas com formação adequada para o dia-a-dia, mas também os novos engenheiros, os novos cientistas, os que construirão o futuro desses países e os que exportarão a sua tecnologia e enriquecerão o seu país.

Nós por cá acabamos com o ensino das TIC no ensino básico e secundário porque, pasme-se, todos sabem desde muito cedo usar um computador! Deixa-se, assim, a formação numa área tão essencial para a sociedade ao sabor do autodidatismo, do amadorismo e da superficialidade. Condenamo-nos, desde cedo, a importar tecnologia, saber e competências por falta de as criarmos no país.

Ficamos, pois, com um ensino que poderia ser o de há cinco décadas atrás, reduzido às disciplinas chamadas estruturantes (como se no básico e secundário não o fossem todas!). Mas se todos sabem usar (frequentemente mal, diga-se de passagem) os computadores desde muito cedo, também desde cedo as pessoas são autónomas na sua língua e desde cedo têm as noções básicas de matemática mais do que suficientes para a vida quotidiana da esmagadora maioria da população, e não é por isso que se deixa de lecionar essas disciplinas, cuja importância é reconhecida unanimemente. A razão é, portanto, outra, e tem a ver exclusivamente com o imediatismo das contas e não com a desculpa mais ou menos esfarrapada de que as crianças já nascem a saber informática. Pobres de nós, que comprometemos o amanhã por não sabermos estabelecer as prioridades no dia de hoje!

Parece que, mais uma vez, pelas mesmas razões – a crise constante, a pobreza do país, o aperto financeiro em que nos encontramos, a urgência de desviar meios para outros fins – vamos perder a oportunidade de ensinar e educar as gerações que são o futuro da nação, criando um outro lote de analfabetos, desta vez digitais. Só daqui a vários anos lamentaremos profundamente os custos para o país deste novo episódio de ensino adiado.

quarta-feira, 9 de novembro de 2011

A chave primária





Artigo de opinião publicado no diário ‘As Beiras’
em 8 de Novembro de 2011


Todos estamos habituados a ouvir falar em bases de dados. As empresas têm bases de dados de clientes, as escolas têm bases de dados de alunos, as entidades do Estado têm bases de dados de cidadãos nacionais e estrangeiros, e assim por diante. Os dados – e, mais ainda, a informação – são essenciais para o funcionamento de todas as entidades, e todos nós aceitamos como natural que existam todo o tipo de bases de dados. Afinal, por alguma razão dizemos que vivemos na era da informação.

Os registos contidos em qualquer base de dados têm que ter um identificador único – ou seja, algo que os distinga uns dos outros – que, em linguagem técnica, se designa por chave primária. Por exemplo, numa base de dados de cidadãos eleitores a chave primária poderá ser composta pela conjugação da freguesia de recenseamento com o número de eleitor, já que os cidadãos recenseados numa dada freguesia têm, forçosamente, números de eleitor diferentes. Por outro lado, o nome das pessoas não pode funcionar como chave primária, pois pessoas diferentes poderão ter nomes iguais.

Como vimos no exemplo acima, uma chave primária não é, necessariamente, um número, podendo ser uma conjugação de vários campos, textuais e numéricos. Em bases de dados relativas a pessoas – principalmente se forem bases de dados estatais – a utilização de um número como chave primária, isto é, a utilização de um número para representar pessoas, tende a ser evitada oficialmente por ser considerado politicamente incorreto reduzir pessoas a simples números em bases de dados.

É, talvez, por isso que diferentes países adoptam diferentes políticas no que diz respeito à identificação dos seus nacionais. Em certos países a emissão de um cartão nacional de identificação por cidadão (que contém, necessariamente, um número distinto) é obrigatória. Noutros países, essa emissão é facultativa, Noutros, ainda, não existe qualquer cartão nacional de identificação. Curiosamente, ou talvez não, nestas duas últimas categorias encontram-se alguns dos países mais ricos e mais desenvolvidos do mundo.

No caso de Portugal, numa tentativa de evitar a atribuição de um número único a cada cidadão, existem vários números de identificação – cada qual único – diluindo-se e disfarçando-se assim o “odioso” de cada cidadão ser representado por um número. Destes referem-se o número de identificação civil (ou número de bilhete de identidade), o número de segurança social, o número de utente de saúde e, ainda, o número de contribuinte, todos e cada um deles uma chave primária na correta acepção do termo.

Na prática, no entanto, é o número de contribuinte o que mais força tem, pois é obrigatório desde o nascimento até muito depois da morte. É esta a verdadeira chave primária da grande base de dados a que, por vezes, se quer reduzir o país, que nos parece querer dizer que sendo nós pessoas com direitos civis, sociais e de saúde, para o Estado somos, acima de tudo, contribuintes.

terça-feira, 1 de novembro de 2011

Os Aventureiros





Artigo de opinião publicado no diário ‘As Beiras’
em 31 de Outubro de 2011


O enorme potencial e a grande flexibilidade das tecnologias da informação e comunicação (TIC) permitem o desenvolvimento de um infindável número e variedade de aplicações. Parecem não existir limites para a utilização das TIC, que todos querem explorar das mais variadas formas e com os mais diversos intuitos. Ao contrário das selvas naturais – cada vez mais ameaçadas – a “selva informática” está em franco crescimento, atraindo um número crescente de pessoas, desafiando os audazes, impondo as suas duras regras, mostrando os seus perigos e selecionando vencedores e vencidos.

São variados os apelos da selva informática: a procura de benefícios (serviços, recursos, bens, riquezas), o gosto pelo conhecimento (tecnologia e ciência), a simples descoberta (atração pelo desconhecido) ou, ainda, o desafio de superar-se a si próprio e aos outros.

É inevitável que algo tão apelativo conduza a uma boa dose de ousadia e até, em muitos casos, de imprudência. Seria impensável que quem não se sabe orientar decidisse aventurar-se numa selva, mal conhecendo regras básicas e sem adequado equipamento de sobrevivência. No entanto, é isso que acontece, em grande medida, com as TIC, sendo frequentes os casos em que utilizadores e, até, decisores, se lançam inconscientemente às feras, sem qualquer preparação, confiando, simplesmente, na sorte.

Apesar de existirem leis e regras precisas para a utilização e exploração das TIC, elas são desconhecidas para a esmagadora maioria das pessoas. De facto, em termos de TIC parece que tudo se faz e tudo se tenta, à laia de Indiana Jones da selva informática, procurando um tesouro perdido e tentando impor a lei do mais forte.

Numa selva tão densa como a das TIC, muitos perigos só são reconhecidos tarde demais. Facilmente se pode perder o rumo: quais os objetivos e qual o caminho para os atingir? Facilmente se pode perder o bem mais precioso das TIC: a informação. Pode-se ser atacado de diversas formas, por entidades praticamente indetetáveis. Pode-se cair em todo o tipo de armadilhas.

Na selva informática a sobrevivência passa, necessariamente, por uma sólida formação e por metodologias de trabalho robustas. É indispensável saber o que fazer, como fazer e o que não fazer. É fundamental conhecer as ferramentas mais utilizadas, os principais riscos e as respetivas soluções.

Também neste tipo de selva, os safaris são uma boa solução: confiar em especialistas para nos guiarem por caminhos por eles conhecidos, com objetivos e programas claros, é uma boa forma de usufruir da selva informática em segurança ou, pelo menos, com risco controlado.

Hoje em dia já não se pode fugir da selva das TIC, nem se podem vencer todos os seus perigos. A melhor forma de lidar com ela é conhecê-la o melhor possível, aceitá-la e respeitá-la. Das TIC há que esperar o melhor, estando preparado para o pior, já que se trata de uma selva cheia de beleza mas pouco condescendente com aventureiros mal preparados.

terça-feira, 25 de outubro de 2011

A idade toca a todos




Artigo de opinião publicado no diário ‘As Beiras’
em 24 de Outubro de 2011


Os semicondutores, essenciais para a construção dos transístores, são a pedra angular de todos os equipamentos electrónicos da atualidade. Sem eles, o mundo não seria o que é, já que as tecnologias da informação e comunicação (TIC) só são possíveis com recurso a estes componentes. A unidade de processamento central dos atuais computadores pode conter milhares de milhões de transístores, o que constitui uma autêntica maravilha tecnológica. Mas será que, após algum tempo, todos eles funcionam tão bem como quando saíram da fábrica?

De fato, nem os transístores fogem à regra universal do envelhecimento. A exposição a variações de voltagem, o funcionamento por longos períodos a temperaturas elevadas e a própria disposição física de componentes e circuitos afetam o desempenho destes minúsculos componentes e, em última análise, dos equipamentos que integram. Com o envelhecimento os transístores passam a funcionar mais lentamente – isto é, deixam de ser capazes de mudar de estado tão rapidamente como quando eram novos – e podem, até, deixar de funcionar completamente, provocando falhas nos processadores. A utilização intensa afeta, também, os próprios circuitos elétricos de interligação dos transístores, podendo provocar interrupção de circuitos, curto-circuitos, ou interferências indesejadas.

Felizmente que muitos destes efeitos não se chegam a sentir, pois os computadores são, em regra, largamente sobredimensionados para as tarefas que normalmente executam, mas a realidade é que pode existir uma considerável diferença de desempenho entre um computador novo e um outro rigorosamente igual mas com alguns anos de utilização intensa.

É claro que para além do envelhecimento do hardware – isto é, dos circuitos e componentes de um equipamento computacional – muitos outros fatores podem afetar o desempenho das máquinas, numa escala muito maior e, portanto, muito mais perceptível.

Por um lado, o próprio software – os programas executados pela máquina – também envelhece. Com efeito, todos os programas de média ou elevada complexidade têm erros (bugs) que, não se manifestando de início, começam a evidenciar-se ao fim de horas ou dias de execução contínua. Tal acontece, por exemplo, com os sistemas operativos, sendo relativamente frequente o total bloqueio – ou crash – de máquinas. Ao reiniciar-se um computador está-se, no fundo, a fazer rejuvenescer o software, livrando-nos dos erros acumulados até aí.

O maior fator de envelhecimento é, no entanto, a obsolescência provocada pela desadaptação funcional. À medida que as tarefas a executar se tornam mais complexas, equipamentos projetados para tarefas mais simples e cargas mais baixas deixam de ser capazes de dar resposta adequada às necessidades.

Por fim, há que não esquecer que também os utilizadores envelhecem. É este o envelhecimento mais crítico, que só pode ser vencido com inteligência, abertura de espírito, gosto pela mudança, experiência e conhecimento.

terça-feira, 18 de outubro de 2011

Cidades inteligentes










Artigo de opinião publicado no diário ‘As Beiras’
em 17 de Outubro de 2011


Preso no trânsito que, por causa das obras, se encontrava completamente parado, a minha mente divagou para o tema das “cidades inteligentes”.

Talvez por causa da crise não se fale agora tanto em “cidades inteligentes” como se tinha vindo a falar ao longo últimos anos. O boom tecnológico das duas décadas mais recentes estimulou a imaginação dos mais visionários, que anteviam cidades nas quais tudo, sem exceção, se apoiaria na forte utilização das tecnologias da informação e comunicação (TIC), desde as redes de energia, gás e água, até ao ambiente, passando por cuidados de saúde, apoio a idosos, educação, segurança, serviços de emergência, transportes, urbanismo, habitação e entretenimento.

Era – e ainda é – uma visão otimista, irrealista e, portanto, inviável, já que exigiria uma utilização massiva das TIC e, sobretudo, a mobilização de importantes meios financeiros e humanos para projeto, operação e manutenção do grande número de sistemas que confeririam a tais cidades a tão desejada inteligência.

Não significa isto que as necessidades por detrás do conceito de cidade inteligente tenham desaparecido. As infraestruturas das cidades estão, cada vez mais, sob stress, dado o crescimento da população citadina, o incremento das necessidades de recursos, a maior mobilidade de pessoas e bens e, ainda, as maiores exigências de qualidade de vida dos cidadãos. De fato, quer estes aspetos quer a própria existência de uma crise tornam mais premente do que nunca a redução de custos, a maximização da eficiência dos sistemas e a eficaz gestão de infraestruturas, ou seja, tornam mais premente a concretização do conceito de cidade inteligente.

A questão é que a concretização deste conceito tem, agora, que se pautar por critérios realistas, e não por critérios de mediatização que, tantas vezes, levam ao esbanjamento de recursos para a construção de serviços tão ‘engraçados’ quanto inúteis.

As cidades são conjuntos de sistemas complexos, coordenados por várias entidades, mas que não são, de maneira nenhuma, independentes. Qualquer cidade na qual o planeamento, a gestão e a operação de sistemas sejam feitos de forma independente pelas diversas entidades em causa está condenada a custos acrescidos, ineficiência e prejuízo para os cidadãos.

Há, no entanto, que avaliar claramente as necessidades, identificar as oportunidades de melhoria com base nas TIC, fixar objetivos claros, estabelecer prioridades de desenvolvimento e definir métricas de avaliação de resultados. Há, também, que ter em mente que o principal fator de sucesso de qualquer projeto de cidade inteligente será sempre a inteligência (essa sim) dos responsáveis pelos vários sectores envolvidos. Já os principais juízes desse sucesso serão, necessariamente, os cidadãos, muitos dos quais eram agora meus colegas de engarrafamento.

De repente o meu pensamento foi interrompido. Após um longo período de espera, o trânsito começava novamente a fluir.

terça-feira, 11 de outubro de 2011

O inventor dos computadores


Artigo de opinião publicado no diário ‘As Beiras’
em 10 de Outubro de 2011


Os computadores de hoje são, certamente, radicalmente diferentes dos computadores do passado. Cada vez mais poderosos e complexos, executam procedimentos tão elaborados que quase nos fazem crer que são seres vivos e inteligentes. Mas, afinal, o que é um computador e quem os inventou? Estas são questões de difícil resposta, gerando, até, discórdia entre muitos especialistas.

Diferentes dispositivos, com diferentes características – de funcionamento mecânico, eletromecânico ou electrónico – podem ser considerados computadores, daí que seja difícil chegar a uma definição consensual, suficientemente abrangente. Por esse mesmo motivo é, também, difícil dizer quem construiu o primeiro computador.

Entre 1934 e 1938, o engenheiro alemão Konrad Zuse (n. 22/6/1910, f. 18/12/1995) construiu uma unidade aritmética mecânica, digital, programável por cartões perfurados, que batizou com o nome de Z1. Em 1939 construiu o Z2, uma versão eletromecânica melhorada, a que se seguiu o Z3, em 1941. Por isto, muitos atribuem a Zuse a construção do primeiro computador.

Entre 1943 e 1946 foi desenvolvido o ENIAC – Electronic Numerical Integrator And Computer. Inicialmente explorado pelo exército dos EUA para cálculo de trajetórias de tiro, foi utilizado em múltiplas tarefas até 1955. O ENIAC é, atualmente, reconhecido como o primeiro computador inteiramente electrónico de uso comum.

Surpreendentemente, quando se alarga o conceito de computador por forma a abranger qualquer dispositivo capaz de se substituir a cálculos científicos manuais, teremos que recuar mais de dois mil anos na História da Humanidade.

De facto, o mecanismo descoberto em 1900 nos restos de um naufrágio ocorrido entre os anos 80 e 40 antes de Cristo (AC) ao largo da ilha grega de Antikythera é considerado o primeiro computador conhecido. Totalmente mecânico, com trinta rodas dentadas com diferentes factores multiplicativos e três mostradores, constitui uma calculadora astronómica especializada.

Este computador permitia calcular as fases e posição da Lua, a posição do Sol e dos cinco planetas então conhecidos, bem como as datas de ocorrência dos eclipses do Sol e da Lua. Para além da data, os seus mostradores apresentavam os calendários e ciclos Sinódico, Calítico, Metónico, Olímpico e de Saros. Este mecanismo conseguia, ainda, reproduzir a variação do movimento angular da Lua, causada pelo facto da sua órbita ser elítica e não circular.

O mecanismo de Antikythera, presentemente exposto no Museu Arqueológico Nacional de Atenas, é extremamente sofisticado e, para além de resultar de conhecimento científico recolhido ao longo de séculos, evidencia um longo percurso tecnológico, pelo que não deveria ser um exemplar único. Textos de Cícero referem que Arquimedes (n. 287 AC, f. 212 AC) construiu dois desses aparelhos. Tudo indica, assim, que para além de um genial matemático, físico, astrónomo e engenheiro, Arquimedes foi o inventor dos computadores.

quinta-feira, 6 de outubro de 2011

A praia digital


Artigo de opinião publicado no diário ‘As Beiras’
em 3 de Outubro de 2011




Por onde quer que passemos e o que quer que façamos, deixamos sempre marcas. Por vezes queremos que perdurem, para que outros reconheçam o que fizemos. Outras vezes, queremos que sejam as menores possíveis, como no caso da pegada ecológica. Também quando usamos as tecnologias da informação e comunicação (TIC) deixamos uma pegada digital, que outros poderão seguir e utilizar para fins – meritórios ou não – que a maior parte das pessoas desconhece.

Sempre que utilizamos uma infraestrutura de comunicações – seja ela a Internet, uma rede de comunicações móveis ou uma rede privada – são gerados registos que identificam a origem e o destino da comunicação, a data e hora, a quantidade de tráfego gerado, os protocolos utilizados. São registos necessários ao funcionamento e gestão da infraestrutura, que permitem, por exemplo, a taxação, mas também, a intercepção legal de comunicações.

Também a utilização de todo o tipo de aplicações Web – como sejam a utilização de serviços de web mail, das redes sociais, de compras on-line, de jogos ou, simplesmente, de web browsing – deixa ‘pegadas profundas’ já que, para além dos já referidos dados de utilização da infraestrutura de comunicações, os servidores e serviços de aplicação guardam todo um manancial de informação sobre quem os utiliza, que podem incluir dados pessoais, preferências manifestadas ou implícitas, padrões de utilização, registo de compras, registos de páginas mais visitadas e contactos com outros utilizadores. Parece, no entanto, que a maior parte dos utilizadores consente essa recolha de informação, ao contrário do que se passaria se tal recolha fosse feita não por meios automáticos mas sim de forma presencial.

É certo que muitos dos dados deixados pela utilização das TIC podem ser utilizados para benefício de todos, como no caso da interpretação de dados de mobilidade urbana – assumindo que os dispositivos móveis dos utilizadores têm um sistema de posicionamento e os utilizadores autorizam a utilização desses dados – ou, como é evidente, no caso da prevenção e combate de atividades criminosas e/ou terroristas.

As questões que se levantam a essa utilização são, no entanto, muitas, sendo muito ténue a linha que separa a legalidade da ilegalidade. Existe uma clara diferença entre utilização de dados consentida e não consentida. Mesmo que privacidade e legalidade sejam garantidas, falhas humanas podem levar a que dados confidenciais sejam inadvertidamente divulgados. Neste caso, os riscos das TIC são, claramente, o preço a pagar pelas suas vantagens.

O nosso rastro digital é semelhante a pegadas na areia de uma praia. Por vezes, sobrepõem-se pegadas de outras pessoas, tornando-as indiscerníveis. Outras vezes, o mar encarrega-se de apagar as que dele se encontram mais perto. Mas, ainda que se queira, é extremamente difícil apagar todas as marcas que deixamos desde que entramos na praia até que saímos. Também é assim a praia digital.

terça-feira, 27 de setembro de 2011

Profissionais com futuro








Artigo de opinião publicado no diário ‘As Beiras’
em 26 de Setembro de 2011


Costuma dizer-se que o futuro a Deus pertence, mas o que é certo é que várias são as entidades e empresas, a nível nacional ou internacional, que se dedicam a identificar as principais tendências de mercado e a realizar testes vocacionais, por forma a aconselhar – tantas vezes a preços pouco modestos – quem pretende iniciar a sua formação ou a sua carreira profissional.

Para tal apregoam – quase jurando a pés juntos – que sabem de fonte segura quais são ou vão ser as profissões com futuro, escamoteando o pequeno pormenor de que nesta como em outras áreas as tendências são como as ondas do oceano, umas vezes grandes outras vezes pequenas, umas vezes mais rápidas outras vezes mais lentas, por vezes muito calmas outras vezes gerando tsunamis, mas sempre com um elevado grau de imprevisibilidade.

Por outro lado, também é certo que as modernas tecnologias da informação e comunicação (TIC) mudaram radicalmente o panorama profissional, tendo levado à obsolescência de muitas profissões e ao aparecimento de várias outras, confirmando que, tal como os indivíduos e as espécies, também as profissões aparecem, florescem e se extinguem.

Apesar do impacto das TIC, não se pode afirmar, no entanto, como muitos o fazem, que só as profissões tecnológicas têm futuro. Independentemente da evolução tecnológica, as pessoas precisarão sempre de se alimentar, de se educar, de se deslocar, de habitar e trabalhar em edifícios, de comunicar, de usufruir de cuidados de higiene e saúde, de ter acesso à justiça, de criar e de beneficiar das criações de outros, de adquirir bens e serviços, de se divertir, de apreciar arte, de conhecer outras paragens e costumes, enfim, de viver.

Naturalmente que praticamente todas as profissões que servem de base ao enorme conjunto de atividades contemporâneas, das quais se deram alguns exemplos acima, foram afetadas – em geral, de forma muito positiva – pelas TIC, tendo passado a exigir mais e melhor formação. No entanto, é curioso verificar que as profissões menos tecnológicas, isto é, as mais artesanais e/ou as que dependem mais do génio e criatividade humanos, são as que melhor sobrevivem às mudanças impostas pelo tempo, enquanto que as profissões mais dependentes das tecnologias são as que mais risco de obsolescência correm.

De facto, a par da competência, empenho e capacidade de trabalho, uma outra característica chave para qualquer pessoa que procure sucesso na sua profissão é a capacidade para adaptação à mudança. A formação de base e a formação específica são, naturalmente, importantes, mas de pouco ou nada servem se o profissional que delas emerge for incapaz de se adaptar a novos contextos e de evoluir.
É por isso que, mais do que pessoas rigidamente afetas a esta ou aquela profissão, ou com estas ou aquelas aptidões tecnológicas, as boas empresas procuram profissionais dinâmicos e, sobretudo, versáteis, pois é com estes que melhor podem enfrentar os desafios do futuro.

terça-feira, 20 de setembro de 2011

Arqueologia computacional


Artigo de opinião publicado no diário ‘As Beiras’
em 19 de Setembro de 2011


A pouco e pouco, com a popularidade das séries televisivas de investigação criminal, o público em geral começa a aperceber-se do enorme potencial que as tecnologias da informação e comunicação (TIC) têm no que diz respeito à reconstituição do passado. E porque é sobre o passado que se debruçam a Arqueologia e a História, também aqui as TIC desempenham um papel cada vez mais importante. Há, no entanto, boas e más utilizações das TIC nestas matérias, embora, felizmente, as primeiras sejam muito mais frequentes que as segundas.

As ferramentas computacionais podem suportar quase todas as áreas da Arqueologia e da História, como sejam a procura e exploração de sítios arqueológicos, o registo da evolução de escavações, o estudo e análise de locais, edifícios, artefactos, obras de arte e relíquias, a reconstituição e restauro de objetos, a troca de informação entre especialistas, a formação e, ainda, a divulgação ao grande público, quer em museus quer através da Internet.

O recurso a modelação 3D permite, por exemplo, a visualização de artefactos sob todos os ângulos, a comparação de formas, a visualização imersiva de locais arqueológicos antes e depois de reconstituição ou, ainda, a extração de contornos e/ou desenho de linhas, tão importantes no estudo arqueológico. A modelação, 3D ou 2D, é, também, um precioso auxiliar na reconstituição e restauro de artefactos, pinturas, locais arqueológicos e paisagens.

Por outro lado, a constituição de repositórios digitais contendo não só imagens mas também todo o tipo de dados permite a catalogação e indexação de objetos, bem como a subsequente análise e mineração de dados, quer por processos automáticos quer manuais. Estes repositórios assumem particular importância se estiverem disponíveis, através da Internet, a especialistas, que podem executar todo o tipo de estudos e ensaios sem causar qualquer tipo de dano aos objetos em estudo.

De entre a multiplicidade de tecnologias utilizadas na arqueologia computacional, destacam-se a tomografia computorizada, os scanners 3D (quer com base em dados sísmicos – tal como se faz na prospecção de petróleo – quer com base em técnicas óticas) a computação gráfica, as ferramentas matemáticas, os sistemas de informação geográfica e os sistemas de posicionamento.

Como aspecto negativo da utilização das TIC nestes domínios, salienta-se a pressão para realização de estudos antropológicos de figuras proeminentes da História – por exemplo, para determinar estaturas, tipos de alimentação, analisar possíveis fraturas, ou proceder a sempre duvidosas reconstituições faciais – não porque exista alguma razão objectiva e científica para realização desses estudos, mas sim para alimentar uma quase coscuvilhice em relação a “famosos” do passado, um pouco à laia de “reality show” retroativo. São, claramente, estudos a evitar, já que qualquer povo só se pode respeitar a si próprio se dignificar e respeitar o melhor do seu passado.

quarta-feira, 14 de setembro de 2011

O elo mais fraco


Artigo de opinião publicado no diário ‘As Beiras’
em 12 de Setembro de 2011


Há quem se questione se estamos a assistir, nos dias de hoje, a um incremento do número de ciber-ataques ou se, por outro lado, o que existe é mais atenção dos media em relação a este tipo de ocorrências. Provavelmente, a resposta certa é que ambas as afirmações correspondem à verdade, o que se entende facilmente.

Por um lado, o crescimento da utilização das tecnologias da informação e comunicação (TIC) leva a um maior número de potenciais vítimas, a uma maior exposição de informação e serviços críticos e, também, à existência de um maior número de especialistas informáticos capazes de ultrapassarem barreiras de segurança. Por outro, o impacto de certos ataques, mesmo que não totalmente consumados, pode ser de tal forma grande que, inevitavelmente, tem que ser alvo de informação por parte dos órgãos de comunicação social.

É certo que a capacidade dos ciber-criminosos aumenta todos os dias, a par da evolução tecnológica. Todos os dias, milhares de milhões de mensagens de correio electrónico com vírus, worms, cavalos de Tróia e muitos outros programas maliciosos, dignos da verdadeira caixa de Pandora, são enviados através da Internet. Todos os dias, incontáveis computadores infetados são agregados em botnets, sem que os seus donos suspeitem, formando “exércitos” de mercenários literalmente vendidos a hackers e crackers, para que estes os utilizem nos seus ataques. Todos os dias, centenas de milhares de ciber-crimes são perpetrados, com especial predileção por ataques contra contas bancárias, embora sistemas de grandes multinacionais e sistemas de informação e de segurança de governos e nações também estejam debaixo de constantes ameaças.

É claro que existe um manancial de ferramentas para proteger os sistemas informáticos, desde protocolos de comunicação especificamente desenvolvidos para garantir a confidencialidade e integridade da informação que circula na rede, a firewalls colocadas nas fronteiras e/ou pontos críticos das redes privadas das organizações ou, ainda, programas especializados na detecção e eliminação de todo o tipo de software malicioso. No entanto, como a sofisticação das ameaças está constantemente a evoluir, é essencial que tais sistemas sejam permanentemente atualizados e monitorizados, por forma a minimizar riscos e reduzir danos, o que, surpreendentemente, ou talvez não, é descurado num grande número de casos.

Apesar de todas as ferramentas disponíveis, nenhuma pode garantir a eliminação do erro ou falha humanos. Quase todos os ataques bem sucedidos têm por detrás uma falha humana, seja ela uma palavra chave demasiado frágil, a não observância de um procedimento básico ou o desconhecimento de regras fundamentais. Isto para não mencionar as quebras intencionais de segurança de sistemas de informação, normalmente com origem em pessoas internas ao sistema. Afinal de contas, em termos de segurança, por uma ou outra razão, o ser humano sempre foi e sempre será o elo mais fraco.

terça-feira, 6 de setembro de 2011

O quadro interativo


Artigo de opinião a publicar no diário ‘As Beiras’
em 5 de Setembro de 2011


Numa altura em que arranca um novo ano letivo e em que, mais uma vez, se perfilam algumas mudanças no nosso sistema educativo, importa analisar o papel que as tecnologias da informação e comunicação (TIC) podem e devem desempenhar neste sistema que, há mais de um século, teima em ser um dos calcanhares de Aquiles da nossa sociedade.

Nos últimos anos a utilização das TIC no ensino foi claramente sobrevalorizada. Gerou-se, de algum modo, a crença de que as TIC nas salas de aula – e fora delas – seriam a chave para o crónico problema da educação em Portugal, a panaceia que resolveria de uma só vez, por artes mágicas, o flagelo do mau aproveitamento dos alunos e a maldição da falta de ferramentas de apoio à atividade dos professores.

Efetivamente, já dizia Arthur C. Clarke – escritor e inventor britânico recentemente falecido, a quem devemos o conceito de satélite de telecomunicações – que qualquer tecnologia suficientemente avançada é indistinguível da magia. Parece, no entanto, que no caso da educação em Portugal se confiou demasiado numa anunciada magia, esquecendo-se que a tecnologia que lhe daria origem não tinha, de fato, capacidade para a produzir.

No grande espetáculo das TIC no ensino duas estrelas brilharam: o computador portátil e o quadro interativo. O primeiro seria um instrumento de acesso a informação, potenciador do conhecimento e estimulante do raciocínio. O segundo resolveria o difícil problema da interação professor-aluno, tornando-a mais cativante e mais viva. Ambos falharam os objectivos, quer por razões intrínsecas quer extrínsecas.

Curiosamente, na maioria dos casos o computador rapidamente se transformou numa ferramenta para minimizar a necessidade de procurar, analisar, questionar, raciocinar e aprender. Quanto ao quadro interativo passou a facilitar fortemente as aulas pré-formatadas, tantas vezes com recurso a diapositivos, tendo um efeito contrário ao pretendido: maior passividade e alheamento dos alunos.

Note-se que o próprio nome – quadro interativo – é enganador no contexto da educação. Com efeito, estes equipamentos são interativos, mas a interação ocorre entre o utilizador – neste caso, o professor – e o computador. Centra-se, assim, a interatividade na relação entre o docente e a máquina que este utiliza, quando, na realidade, o que se pretende no ensino é a interatividade entre docente e alunos, para a qual os quadros interativos pouco ou nada contribuem.

A interação docente-aluno é absolutamente necessária e determinante no ensino, especialmente no básico e no secundário. As tecnologias devem ser utilizadas se e quando potenciarem essa interação, e ser preteridas sempre que prejudicarem a educação e formação, por muito atrativas e interessantes que pareçam. Todos os bons docentes o sabem, assim como sabem que os verdadeiros e únicos quadros interativos de que precisam – aqueles nos quais realmente querem “escrever” com tinta indelével - são os seus alunos.

domingo, 31 de julho de 2011

A Internet das coisas


Artigo de opinião publicado no diário ‘As Beiras’
em 25 de Julho de 2011


Dizem as previsões que por volta de 2015 haverá quinze mil milhões de dispositivos ligados à Internet, ou seja, mais do dobro dos habitantes do planeta. Significará isto que a Internet deixará de ser uma rede para interligar pessoas e passará a ser uma rede de ‘coisas’?

A Internet dos dias de hoje é usada não só por pessoas, mas também por dispositivos ou objetos com alguma “inteligência”, isto é, com capacidades de processamento que lhes permitem, entre outras tarefas, enviar e receber informação através da rede, quer como resposta a comandos executados por humanos quer de forma autónoma.

A comunicação pessoa-objeto ou objeto-objeto tem por objetivo fundamental aumentar o leque de serviços disponíveis, tornando-os mais sensíveis ao contexto e mais “conscientes” de aspetos sociais e ambientais. Por exemplo, a ligação de dispositivos sensores e actuadores à Internet permite uma integração de mundos reais e virtuais, possibilitando que os utilizadores humanos tenham acesso a – e controlem – entidades e grandezas físicas através da Internet.

Através da Internet pode passar, assim, a ser possível aceder a variáveis ambientais numa habitação, controlar um processo fabril, monitorizar o funcionamento de componentes críticos de uma aeronave ou, simplesmente, verificar o stock de mantimentos no nosso frigorífico. O próprio frigorífico poderá proceder à encomenda de mantimentos num supermercado, através da Internet, se esse stock baixar para valores pré-definidos. Um carro poderá, também, agendar uma reparação quando detectar algum problema no seu próprio funcionamento.

De facto, o conceito de Internet das coisas pode ser levado tão longe quanto se queira. Com dispositivos cada vez mais “inteligentes”, estes poderão utilizar informação de contexto, analisar intenções e comportamentos humanos e atuar em vez das pessoas. Tal poderá ser útil, por exemplo, na monitorização de doentes em ambulatório. Se sensores de movimento e de posição detetarem que uma pessoa está imóvel, caída no chão de sua casa, poderão estabelecer de imediato uma videochamada com uma equipa de emergência ou com as autoridades, desencadeando uma ação de socorro.

A Internet das coisas abre enormes perspectivas de negócio, sendo encarada como um fator muito promissor para a economia de muitos países. Também abre muitas perspectivas em áreas chave como o lazer, a saúde, a segurança civil, a segurança militar e, até, a administração de países e territórios. É por isso que, a nível mundial, se investem já muitos milhares de milhões de euros na investigação e desenvolvimento nesta área.

Há, no entanto, que ter especial cuidado com este tipo de tecnologias, pois facilmente poderão ser desenvolvidos serviços que ponham em causa a privacidade, a independência, o livre arbítrio, a segurança e a liberdade das pessoas. Há que não esquecer que se é certo que a Internet será, no futuro, das coisas, o Mundo nunca poderá deixar de ser das pessoas.

terça-feira, 19 de julho de 2011

A lição de Camões


Artigo de opinião publicado no diário ‘As Beiras’
em 18 de Julho de 2011









Um requisito essencial para o sucesso de uma boa parte das atuais empresas, especialmente se forem de cariz tecnológico, é terem capacidade de adaptação à mudança. Nas últimas décadas são inúmeros os exemplos de mudanças que alteraram radicalmente o negócio de milhares de empresas, algumas das quais de grande dimensão.

Um dos mercados mais sujeito a mudança é o das comunicações móveis. Até à década de 1980 este tipo de sistemas era de utilização extremamente reduzida. O desenvolvimento dos sistemas de comunicações celulares de primeira geração (1G) , na década de 1980, foi um passo importante no sentido da utilização mais alargada das comunicações móveis. No entanto, os sistemas 1G estavam reduzidos ao suporte dos serviços de voz, tendo fortes limitações de capacidade e segurança decorrentes da sua natureza analógica.

Na década de 1990 os sistemas celulares de segunda geração (2G) revolucionaram as comunicações móveis. Inteiramente suportados em tecnologia digital, caracterizaram-se por grande capacidade em termos de número de utilizadores, mobilidade generalizada dentro e entre redes, vulgarização de novos serviços – como, por exemplo, identificação do chamador, gravação de mensagens e SMS – para além de serviços de transferência de dados de baixo débito, como é o caso do GPRS. O sistema Europeu GSM esteve na base do enorme sucesso da tecnologia 2G, ainda largamente utilizada nos dias de hoje.

Por forma a dar resposta à forte apetência dos utilizadores por serviços multimédia e de acesso à Internet, foi desenvolvida a tecnologia de comunicações móveis de terceira geração (3G), com capacidade para débitos de dados relativamente elevados – até dois milhões de bits por segundo (2 Mbps) – e para o suporte de uma multiplicidade de serviços, muito para além do tradicional serviço de voz. Esta tecnologia – que, nas redes de acesso, se designa por tecnologia UMTS – começou a vulgarizar-se nos meados da década de 2000.

A evolução da tecnologia UMTS, designada E-UMTS, está na base dos emergentes sistemas de tecnologia LTE (Long Term Evolution), que podem considerar-se como um passo intermédio para os sistemas de quarta geração (4G). Os sistemas 4G serão caracterizados por se basearem nos protocolos da Internet, suportarem múltiplas tecnologias de redes de acesso e disponibilizarem débitos da ordem das centenas de Mbps. No caso da tecnologia LTE, cuja utilização generalizada se antevê para meados da década de 2010, o débito binário ronda os 100 Mbps.

Vemos, assim, que no espaço de poucas décadas – e devido à procura dos utilizadores – se passou de serviços unicamente centrados na voz para todo o tipo de serviços, nos quais a voz representa uma pequena parcela. Este é um claro exemplo daquilo que já no século XVI nos ensinou Luís de Camões: “Mudam-se os tempos, mudam-se as vontades, Muda-se o ser, muda-se a confiança; Todo o Mundo é composto de mudança, Tomando sempre novas qualidades”.

terça-feira, 12 de julho de 2011

Vestir o rei


Artigo de opinião publicado no diário ‘As Beiras’
em 11 de Julho de 2011


Já todos ouvimos falar da banda larga e muitos utilizam esta expressão sem terem sequer uma vaga ideia do que significa, apesar de se afectarem ares de grande conhecimento técnico quando o fazem. No fundo, com tanto alarido à volta da banda larga, fixa ou móvel, com tanta publicidade em jornais, rádio e televisão, ninguém quer dar parte de fraco e admitir que gostaria de saber em que consiste essa ‘coisa’, saber, afinal, porque é que se chama banda e porque é que é larga. É um pouco como a história do rei que todos viam que ia nu, mas que ninguém queria admitir por medo de confessar a sua ignorância. Vamos, então, “vestir o rei”.

As redes de comunicação são, em geral, constituídas por canais, que suportam a transmissão de fluxos de informação. Por exemplo, uma rede de televisão por cabo comporta vários canais, uma rede telefónica tem capacidade para operar múltiplos canais telefónicos, etc.. Nesses canais a informação é representada por sinais eléctricos, electromagnéticos, luminosos, ou outros, que variam ao longo do tempo de uma forma mais ou menos rápida, com determinadas frequências. À diferença entre a frequência mais elevada e a frequência mais baixa transportadas por um dado canal chama-se largura de banda.

Na primeira metade do século XX, Claude E. Shannon e Harry Nyquist, trabalhando separadamente, deram enormes contributos para o desenvolvimento dos sistemas de comunicação e da transmissão de dados, provando que quanto maior for a largura de banda de um canal e quanto menor for o ruído nele presente, maior será a quantidade de bits de informação que se pode transmitir por unidade de tempo. Os trabalhos de Shannon e Nyquist estiveram na base da construção dos computadores e redes digitais, tais como os conhecemos hoje.

Com a utilização crescente das redes de dados, passou a haver necessidade de comunicação a partir de qualquer lugar. No entanto, em meados do século XX e nas décadas seguintes, a única rede amplamente disponível era a rede telefónica, cujos canais tinham uma largura de banda bastante reduzida, de apenas 3100 hertz. Ora, essa banda tão estreita permitia apenas velocidades de transmissão (isto é, débitos binários) bastante modestos, na ordem das poucas dezenas de milhares de bits por segundo.

Surgiu, assim, a necessidade de redes de “banda larga”, isto é, redes com largura de banda superior à da tradicional rede telefónica, capazes de suportarem a transmissão a débitos binários da ordem dos milhões de bits por segundo (megabits por segundo, Mbps). É esse o caso das redes DSL, redes de cabo coaxial, redes de fibra óptica ou, ainda, redes móveis de terceira geração.

Todas estas redes são, afinal, de banda larga. De facto, já ninguém utiliza banda estreita – isto é, a rede telefónica comutada – para transmissão de dados. É por isso que a expressão “banda larga” já pouco ou nada diz, transmitindo apenas uma ilusória superioridade, tal como o fato do rei que ia nu.

quarta-feira, 6 de julho de 2011

O oráculo


Artigo de opinião publicado no diário ‘As Beiras’
em 4 de Julho de 2011


Atualmente, todas as áreas de atividade são tão dependentes das tecnologias da informação e comunicação (TIC) que quase só pelos livros – também estes cada vez mais electrónicos – nos lembramos de como era o mundo antes dos computadores e da Internet. Órgãos de soberania, governos e políticas recorrem intensivamente às TIC. Comércio e indústria – cada vez mais globalizados – servem-se do enorme potencial de comunicação da Internet para alargar mercados. Ensino, investigação, arte e lazer exploram as TIC de múltiplas e variadas maneiras.

Os computadores pessoais e dispositivos móveis são, predominantemente, portas para o manancial de informação acessível através da Internet. De facto, em linguagem corrente muitas vezes se confunde os serviços e repositórios de informação a que a Internet dá acesso com a própria Internet. A pergunta “onde descobriste isso?” é, nos dias de hoje, praticamente supérflua, pois a resposta é, quase invariavelmente, “na Internet”.

A Internet assume-se, assim, como enciclopédia universal, fonte de inesgotável sabedoria, quase com estatuto de mente superior, omnisciente e omnipresente, divindade pagã que todos idolatram. Para muitos – cujo número não pára de aumentar – se está na Internet é verdade, principalmente se estiver nalgum dos seus reputados e incontornáveis sites. Qualquer pessoa que se preze, qualquer iniciativa respeitável, tem que ter existência na Internet. Todo o “bom aluno”, com pretensão a uma boa nota, copia da Internet, quantas vezes não se dando sequer ao trabalho de ler – quanto mais perceber – o resultado do seu mecânico “copy/paste”.

E como a resposta para tudo está à distância de um clique, como tudo o que é relevante e conta está na Internet, como já não é preciso ir para chegar, como tudo se pode fazer remotamente, deixa de ser preciso estudar ou pensar, deixa de ser preciso questionar, perceber o porquê, procurar as causas, avaliar os efeitos, compreender a dinâmica das pessoas, das coisas e do mundo.

Esquecemo-nos de – ou desconhecemos – que a informação que está na Internet foi lá colocada por pessoas reais, que se enganam como todos nós, que não sabem tudo, que têm opiniões que podem ser questionadas. Não nos lembramos que os incontáveis serviços on-line podem estar tão mal concebidos ou organizados como os serviços presenciais.

Como ferramenta inicial para pesquisa a Internet tem grande utilidade. Há que, depois da recolha dos abundantes dados que lá se encontram, digerir e filtrar o que se obteve, consultar outras fontes, estudar e compreender. Mais do que em qualquer outro lugar, na Internet “nem tudo o que luz é ouro”.

De acordo com a mitologia grega, o oráculo de Delfos, construído no templo dedicado ao deus Apolo, no século VII antes de Cristo, tudo sabia e a tudo respondia. Só mitologicamente tal é possível. Não nos esqueçamos, por isso, que, por muito endeusada que seja, a Internet não é o oráculo dos nossos dias.

quarta-feira, 29 de junho de 2011

Doze mitos da informática


Artigo de opinião publicado no diário ‘As Beiras’
em 28 de Junho de 2011


Como é frequente no caso de assuntos pouco compreendidos mas de grande importância para a sociedade, muitos são os mitos ou erros de juízo relacionados com a informática. Apesar de terem sempre um fundo de verdade, esses mitos levam a tomadas de decisão erradas, pelo que importa conhecer e desmontar os principais.

Desde a sua invenção, os computadores têm sido fonte de inúmeros mitos, dos quais são de salientar os quatro seguintes: os computadores pensam; programar é difícil; as crianças que trabalham com computadores são (ou ficam) mais inteligentes; tirando os erros de computador, os computadores têm sempre razão. Com efeito, os computadores não pensam e, por isso, não se enganam, nem têm razão. Os computadores executam simplesmente sequências de ações inteiramente controladas por programas pré-definidos. Conhecendo as regras para escrita desses programas, programar torna-se relativamente fácil. Erros nos programas levam a ações inesperadas ou indesejadas, mas isso não significa que o computador se tenha enganado. Por outro lado, a utilização de uma ferramenta como os computadores desenvolve tanto o cérebro como qualquer outra atividade que exija raciocínio lógico.

A Internet também tem a sua cota parte na geração de mitos. Quatro deles são: os criadores da Internet eram génios; tudo está na Internet; se está na Internet é verdade; a Internet é perigosa. Por muito revolucionária que seja a Internet, quem lhe deu origem não imaginava naquilo em que ela se transformaria, tendo apenas dado o primeiro passo, conceptualmente bastante simples. Apesar do seu sucesso, nem tudo está na Internet (ainda bem que assim é) e nem tudo o que lá está é verdade, já que quem coloca conteúdos na Internet são pessoas e não seres omniscientes. É também por esse motivo que o perigo não está na Internet mas sim nas pessoas que a utilizam.

Os quatro mitos restantes têm a ver com a informática em geral. Tratá-los-emos pela negativa. Os informáticos são pessoas como quaisquer outras, que desempenham as suas funções com maior ou menor competência. Nem sempre informatizar é sinónimo de simplificar, já que a simplificação está nos processos, e estes são definidos por pessoas. A informática não é a profissão do futuro mas, simplesmente, uma entre muitas, cuja chave do sucesso é serem exercidas com competência e dedicação. A informática não resolve todos os problemas e, de facto, até cria problemas que nunca existiriam se ela própria não existisse.

Computadores, Internet e informática em geral nada têm, afinal, de místico. Por detrás têm ciências de engenharia, tecnologia, racionalidade. É por isso que a melhor forma de lidar com a informática é, simplesmente, esquecê-la e tentar olhar para os problemas que se pretende resolver e não para a ferramenta que se vai utilizar. Só assim podemos afastar o véu mistificador que tolda o raciocínio lógico e olhar para a realidade em toda a sua clareza e objectividade.

terça-feira, 21 de junho de 2011

Verdade ou consequência?


Artigo de opinião publicado no diário ‘As Beiras’
em 20 de Junho de 2011


Têm vindo a lume algumas preocupações com certos programas de apoio à modernização e desenvolvimento tecnológicos – nos quais as tecnologias da informação e comunicação (TIC) desempenham um papel de relevo – essencialmente pelo facto de a disponibilização de meios de financiamento não estar a produzir os resultados desejados. A este respeito, o indicador invariavelmente utilizado é a taxa de execução dos projetos que, pelos vistos, em muitos casos é bastante mais baixa do que seria desejável.

Parece isso indicar que se essa taxa fosse elevada tudo estaria perfeito, quer do ponto de vista de quem financia quer do ponto de vista de quem é financiado. Apetece perguntar: então os projetos avaliam-se pela taxa de execução ou pela qualidade e impacto dos seus resultados? Será que com estes ninguém está preocupado?

Logo na fase de candidatura, em demasiados casos se dá mais importância à correção formal dos formulários, à promessa quantificada de indicadores de realização, à satisfação de requisitos meramente administrativos, à inclusão de provas documentais, certidões e atestados, aparentando assim querer-se filtrar mais pelo cansaço burocrático do que pelo conteúdo e mérito técnico do projeto.

Pouco parece interessar se os objetivos do projeto são relevantes e exequíveis, se existe um plano de trabalhos composto por tarefas coerentes e consistentes, se foi definida uma calendarização realista mas rigorosa, se se ponderaram os riscos, se a equipa de projeto tem as competências necessárias e, ainda mais importante, se está contemplada uma adequada gestão do projeto, que garanta a boa execução dos trabalhos e o alcance dos objetivos.

De facto, o sucesso de qualquer projeto depende, de forma crítica, da sua gestão. À equipa de gestão cabe coordenar todas as atividades do projeto, fazer cumprir o plano de trabalhos de acordo com os prazos e objetivos inicialmente fixados, gerir os recursos materiais e humanos afetos ao projeto, resolver conflitos e, ainda, decidir sobre eventuais ações corretivas.

Naturalmente que, a par da equipa de gestão, a qualidade do plano de trabalhos também é determinante. Um bom plano de trabalhos tem que contemplar uma análise de requisitos e de cenários de utilização, uma especificação detalhada do sistema a construir ou integrar, desde a arquitetura à funcionalidade, a construção ou integração propriamente ditas, a realização de testes e ensaios e, ainda, a entrada em produção. Para além disso, poderá também contemplar a avaliação do sistema por parte dos utilizadores.

Se os inúmeros projetos com a tal baixa taxa de execução tivessem sido aprovados com base num plano de trabalhos e calendarização bem definidos, e contemplassem uma gestão adequada, não poderiam estar na situação em que se encontram. Não sendo esse o caso, a baixa taxa de execução não é o verdadeiro problema mas sim a consequência natural de uma gritante falta de metodologia de projeto.

quarta-feira, 15 de junho de 2011

O cavalo de Tróia


Artigo de opinião publicado no diário ‘As Beiras’
em 13 de Junho de 2011


Os cavalos tiveram um papel fundamental na História da Humanidade, tendo estado na base da ascensão e queda de grandes impérios. Durante milénios os cavalos foram um recurso estratégico de enorme importância, fornecendo mobilidade e força motriz. De forma diferente, essa importância perdura nos dias de hoje, não só pelos elevados montantes envolvidos na indústria equina, mas também pelo carácter intemporal da relação quase mágica entre seres humanos e estes simpáticos animais.

No entanto, os atuais ‘cavalos de batalha’ são, sem sombra de dúvida, as tecnologias da informação e comunicação (TIC). É com recurso às TIC que se constroem verdadeiros impérios, se desenvolvem negócios, se gera emprego e se desenvolve toda a espécie de atividades. As TIC são o novo motor da sociedade, são o catalisador da mobilidade – real e virtual – e são uma poderosa ferramenta para o desenvolvimento.

Curiosamente, tal como o imenso cavalo de madeira repleto do soldados hostis, utilizado como engodo pelos gregos na guerra contra os troianos no final da Idade do Bronze, por volta de 1300 a 1200 anos antes de Cristo, também as TIC podem trazer graves e inesperados problemas.

Os mais comuns – e, provavelmente, os mais tratáveis, pelo facto de existirem ferramentas especializadas para tal – são os problemas de segurança. Para além de incontáveis vírus e vermes informáticos, todos já ouvimos falar de cavalos de Tróia, que não são mais do que programas que, a coberto de aplicações ‘bem comportadas’, executam ações indesejáveis, como sejam o roubo ou destruição de informação. Felizmente que vírus, vermes e cavalos de Tróia podem, em regra, ser eliminados com recurso a software de anti-vírus.

Mas os piores cavalos de Tróia informáticos são aqueles que ninguém classifica como tal e que, por isso, não se podem eliminar com recurso a software especializado, pois todo o seu funcionamento é perfeitamente legítimo. Refiro-me às soluções informáticas com custos escondidos, que, depois de instaladas no terreno, se revelam um sorvedouro de recursos humanos e financeiros.

São relativamente frequentes os casos em que na escolha de soluções informáticas se menosprezam os custos de operação, manutenção, expansão e evolução, tantas vezes porque quem compra fica ofuscado por baixos custos iniciais de aquisição ou por grandes e generosos descontos comerciais. Só algum tempo depois de instalada a solução – tipicamente, após o primeiro ano – se torna claro que esta é demasiado cara e, pior ainda, que os custos de instalação de uma solução alternativa seriam agora incomportáveis, pois obrigariam a um largo e caro período de transição. Fica-se, assim, refém de uma solução que estrangula quem a adoptou.

Tal como no caso do cavalo de Tróia original, este é um estratagema que sai muito caro às vítimas. Surpreendentemente, passados mais de 1200 anos, ainda é grande o número de sábios decisores que se deixa enganar.

terça-feira, 7 de junho de 2011

Uma nova era


Artigo de opinião publicado no diário ‘As Beiras’
em 6 de Junho de 2011


Todos reconhecemos que poucos factores são tão importantes para o desenvolvimento como as tecnologias da informação e comunicação (TIC), já que estas nos permitem acrescentar valor, aumentar a produtividade e criar riqueza em praticamente todas as áreas de atividade.

No entanto, numa altura em que o País escolheu os seus governantes e, numa importante encruzilhada do destino, optou pelo caminho a seguir, importa ponderar o papel que estas tecnologias podem ter, aprendendo com os erros do passado para sobre eles construir um melhor futuro.

Sempre que se utiliza uma nova ferramenta cometem-se muitos erros. As TIC não são exceção a esta regra. De facto, é precisamente pelo facto de as TIC serem uma ferramenta poderosa e complexa que esses erros são maiores e têm maior impacto.

É claro que cometer alguns erros é natural e, até, essencial para dominar qualquer ferramenta, já que o erro é parte integrante de todos os processos de aprendizagem. Não se pode é insistir teimosamente nos mesmos erros, não tendo humildade para os admitir nem inteligência para os evitar no futuro. A ânsia de fazer qualquer coisa com as TIC só porque estão na moda foi compreensível num primeiro momento, mas não é aceitável nos dias de hoje.

Curiosamente, o fator que mais induz a tomada de decisões erradas no que diz respeito à utilização das TIC está relacionado com a sua maior força: a versatilidade que elas proporcionam. É esse fator que faz com que, para os menos conhecedores, as TIC sejam encaradas como panaceia para todos os males e como fórmula mágica para o desenvolvimento.

Naturalmente que as TIC resolvem muitos problemas e têm grande potencial como motor de desenvolvimento, mas esse facto não dispensa que a sua utilização tenha que se reger por metodologias bem definidas, há muito conhecidas de qualquer profissional com experiência na concepção e desenvolvimento de sistemas.

Assim, fases como o planeamento, a análise de requisitos, a concepção da arquitetura geral, o desenho de interfaces, a construção, a realização de testes, a disponibilização aos utilizadores e respectiva avaliação e, ainda, a manutenção, são etapas do desenvolvimento de qualquer sistema.

Destas, talvez a falta de planeamento – comportando a definição dos objectivos e âmbito do sistema, a definição das tarefas e calendarização do desenvolvimento, a análise de riscos e a estimativa de custos – seja o pecado capital de um substancial número de desenvolvimentos em TIC.

A experiência dos últimos anos mostra que muito do investimento em TIC realizado quer no sector público quer no sector privado ficou muito aquém em termos de resultados e impacto, apesar de em muitos casos ficar muito além do esperado em termos de custos. Tal deve-se, em grande medida, à falta de metodologias adequadas para o desenvolvimento. Também na utilização das TIC nos resta esperar que, com a mudança de rumo do País, possamos iniciar uma nova era.

terça-feira, 31 de maio de 2011

A outra face


Artigo de opinião publicado no diário ‘As Beiras’
em 30 de Maio de 2011


Apesar de a Internet ter sido criada há pouco mais de quatro décadas, podem distinguir-se já diferenças fundamentais entre sucessivas gerações dos seus utilizadores, que refletem a própria evolução desta rede.

Não contando com os seus desenvolvedores, os primeiros utilizadores da Internet eram, quase exclusivamente, membros de universidades e institutos de investigação. Em Portugal essa fase ocorreu há cerca de vinte anos, tendo a Internet – em particular, o correio electrónico – sido um vital instrumento de comunicação entre universitários.

No entanto, as primeiras utilizações alargadas do correio electrónico rapidamente ensinaram aos universitários que a pior forma de discutir questões entre duas ou mais pessoas era através da Internet. Sem se ouvirem de viva voz, muitas frases eram mal interpretadas, assumindo-se um sentido e intenção que não tinham. Sem se verem, as pessoas facilmente faziam acusações que não fariam se estivessem frente a frente. Sendo muito útil para comunicação factual, mais ou menos formal, a Internet era, afinal, um instrumento muito pouco social.

Para a chamada Geração Z – a geração das pessoas nascidas entre 1990 e 2000 – o panorama foi e é muito diferente, já que nasceram e cresceram com a massificação da Internet e das suas mais marcantes aplicações, como sejam a World Wide Web, o instant messaging e, mais recentemente, as redes sociais. Para estas pessoas, a Internet é uma das principais formas de interação social, estando de tal modo enraizada que o simples facto de a rede estar momentaneamente inacessível pode causar-lhes ansiedade, insegurança e stress.

Neste contexto, a utilização da Internet e das redes sociais para a política e pelos políticos está generalizada. Sendo a Internet um poderoso instrumento de comunicação e, por conseguinte, um excelente veículo de ideias e opiniões, a sua utilização na política é lógica e perfeitamente natural, constituindo uma das mais eficazes formas de chegar aos cidadãos.

Por outro lado, a utilização das redes sociais na atividade política confere a esta última um carácter bidirecional para o qual nem todos estão preparados. Se os políticos podem facilmente chegar aos cidadãos, o reverso da medalha também se verifica: os cidadãos podem mais facilmente chegar aos políticos e figuras públicas, expressando a sua opinião, questionando-os e criticando-os, justa ou injustamente, pacifica ou agressivamente, correta ou incorretamente.

É esta a outra face das redes sociais, por vezes menos agradável, mas fazendo parte integrante da sua essência. É esta outra face que desequilibra forças e altera as regras de sociabilização ditadas por milhões de anos de evolução da raça humana, baseadas na interação real e não virtual. É esta outra face que representa um enorme desafio para todos nós: o de utilizarmos as redes sociais de forma construtiva e com sentido de responsabilidade, privilegiando o respeito pela diferença e pelo próximo.

terça-feira, 24 de maio de 2011

A nova geração


Artigo de opinião publicado no diário ‘As Beiras’
em 23 de Maio de 2011


Vivemos numa sociedade cada vez mais ligada às tecnologias da informação e comunicação (TIC), na qual muitos termos e expressões técnicos são de uso vulgarizado, assimilados já pela linguagem corrente. Apesar disso, não são poucas as pessoas que desconhecem o verdadeiro significado de vários deles e não são raros os casos em que a sua utilização é incorreta.

Peguemos no exemplo da expressão “redes de nova geração”, conhecida e usada por todos e com base na qual se definem, até, iniciativas, programas de financiamento, políticas e tantos outros instrumentos de governação de TIC.

Afinal o que são as tão badaladas redes de nova geração? De um ponto de vista técnico, a expressão é vaga e, portanto, imprecisa. Será que se pretende designar as redes que utilizam fibras ópticas, cujo conceito foi demonstrado pela primeira vez há cerca de 170 anos, na década de 1840? Ou refere-se, por outro lado, às modernas redes sem fios, que utilizam transmissão rádio, cujo princípio foi estudado e desenvolvido desde 1820 até ao final desse século por ilustres cientistas, dos quais se destaca Heinrich Hertz?

Talvez a característica determinante dessas redes seja a velocidade de transmissão – mais corretamente designada por débito binário – que deverá ser da ordem das dezenas ou centenas de megabits por segundo? Mas redes com estes e maiores débitos já existem desde 1990, ou seja, há mais de vinte anos. Será que são redes de “banda larga”? Ooops! Esqueço-me que a expressão “banda larga” é ainda mais imprecisa do que a que pretendemos definir!

Decerto que as redes de nova geração serão aquelas que permitem um acesso rápido à Internet e aos serviços que ela suporta. Mas quantas e quão variadas são tecnologias já o permitem há várias décadas?

Pois, de facto, a expressão “redes de nova geração” pouco ou nada diz. Não especifica meios físicos de transmissão, não estabelece débitos binários, não garante capacidade de comutação, não impõe tecnologias, não determina protocolos a utilizar, não assegura a qualidade dos serviços.

Na realidade, todas as gerações de redes são novas quando comparadas com as que as antecederam, pelo que o conceito de redes de nova geração é meramente transitório, não tendo um significado absoluto. A rede telefónica foi, à altura do seu aparecimento, revolucionária. O mesmo sucedeu com as redes de dados, as redes de serviços integrados, a rede Arpanet, as redes móveis e redes sem fios e, por fim, a Internet como rede universal e única.

Talvez a expressão “redes de nova geração” seja, afinal e apenas, um instrumento de marketing destinado a atrair a atenção de clientes, um chamariz para quem gosta de novidades pela novidade, um indicador de realização para quem precisa de mostrar que realiza. Tudo o que é novo chama a atenção e dinamiza negócios e mercados. Sendo isso positivo, também tem o seu lado negativo, já que é esse o princípio que está na base do consumismo que todos temos agora que pagar.

terça-feira, 17 de maio de 2011

Amor e ódio


Artigo de opinião publicado no diário ‘As Beiras’
em 16 de Maio de 2011


São muitas as ideias erradas e os preconceitos acerca do que são e de como devem ser as relações entre a Universidade e a sociedade envolvente, com especial ênfase na relação com empresas, mas não excluindo outras entidades, públicas ou privadas.

Os mais distraídos ou menos informados ainda acreditarão no mito da torre de marfim, imaginando uma Universidade acantonada, fechada sobre si própria, olhando para o passado, agarrando-se ao conhecimento bafioso e livresco, com medo do mundo real e das empresas.

Alheado e distante do mundo que o rodeia está quem assim pensa, já que a realidade atual é muito diferente. A interação entre Universidade e empresas é, hoje em dia, uma vital fonte de receita para a primeira e uma importante fonte de conhecimento, tecnologia e know-how para as segundas. Dessa interação resultam novos desafios, inovação e considerável benefício mútuo.

Não obstante o bom nível de interação que já existe, é ainda necessário um diálogo mais intenso entre Universidade e empresas. Por comparação com outros países da Europa, pode dizer-se que, em Portugal, a percentagem de empresas que interagem com a Universidade é relativamente baixa, embora tenha crescido bastante nos últimos anos.

No entanto, sendo desejável, a relação entre Universidade e empresas só é viável se as naturais diferenças entre ambos os parceiros forem reconhecidas e aceites à partida. Se, por um lado, é um erro conceber a Universidade como uma entidade fechada sobre si mesma, por outro é um erro quase tão grande pensar que ela deve chamar a si o papel que só pode ser desempenhado eficazmente pelas empresas.

Universidade e empresas têm missões diferentes mas complementares. A da Universidade é centrada na investigação, na geração de conhecimento, na formação avançada. A das empresas é centrada na aplicação do conhecimento e da tecnologia, no fabrico de produtos acabados, na comercialização de produtos e serviços.

Naturalmente que não significa isto que não possam, em certos casos, as empresas fazer investigação e a Universidade fazer desenvolvimentos e prestar serviços. Muito pelo contrário, é até desejável que o façam, pois daí decorre, no mínimo, uma visão mais abrangente e enriquecedora para cada um. Uma Universidade que forma quadros superiores para o mercado de trabalho não pode ignorar a missão das empresas nem alhear-se delas. Por outro lado, uma empresa dinâmica, que queira enfrentar os desafios atuais e futuros, não pode dar-se ao luxo de desperdiçar os saberes e a inovação característicos, mas não exclusivos, da Universidade.

Diferença e complementaridade parecem, assim, ser a chave do sucesso das relações entre Universidade e empresas, que se fortalecem mutuamente quando interagem e cooperam. É claro que essas relações nem sempre têm sido fáceis, umas vezes de amor, outras de ódio. Mas, mais frequentemente do que se julga, é de amor e ódio que se fazem as coisas importantes da vida.