Neste blogue encontrará artigos de opinião sobre: * as tecnologias de informação e comunicação (TIC) * o impacto das TIC nas organizações * as TIC e a administração central e local * as TIC na vida dos cidadãos * as TIC nos mais variados ramos da ciência e sociedade (saúde, ecologia, turismo, comércio, etc.)
Os segundos 60 posts deste blogue agora disponíveis em e-book
terça-feira, 10 de janeiro de 2012
O tsunami dos dados
Artigo de opinião publicado no diário ‘As Beiras’
em 9 de Janeiro de 2012
Longe vão os tempos nos quais a ciência se fazia com teorias simples e com pequenas experiências, que geravam reduzidos conjuntos de dados para análise. Apesar de ser essa a imagem que a maioria das pessoas ainda tem da ciência – em muito alimentada pelo cinema e por programas televisivos de divulgação e entretenimento – a realidade é bem diferente.
As tecnologias da informação e comunicação (TIC) em muito alteraram este paradigma. Os instrumentos científicos são cada vez mais complexos, podendo atingir um grau de sofisticação semelhante ao de grandes computadores. Estes instrumentos geram enormes quantidades de dados, sendo impraticável que esses dados sejam analisados e tratados manualmente e/ou no momento da experiência.
A título de exemplo, refere-se que o acelerador de partículas LHC (Large Hadron Collider), localizado num túnel de 27 Km construído 175 metros abaixo da superfície na fronteira franco-suíça, perto de Genebra, poderá gerar cerca de 15 petabytes de dados por ano (1 petabyte são cerca de 1126 biliões de bytes). Por outro lado, estima-se que estudos de mapeamento do cérebro humano poderão exigir o tratamento de 1 zettabyte de dados, ou seja, cerca de um milhão de petabytes.
Mesmo quando o volume de dados é muito inferior aos valores acima referidos, o mais comum é que esse volume seja ainda de tal modo alto que exija a separação entre a realização das experiências e a análise dos dados que delas resultam. Significa isto que quando fazem as experiências os cientistas não têm, em muitos casos, uma ideia precisa do conhecimento que poderá vir a ser extraído dos dados e que, também frequentemente, esse conhecimento só poderá ser extraído após meses ou anos de trabalho de análise, recorrendo a supercomputadores.
O enorme volume de dados com o qual a ciência se depara conduziu, por isso, a um novo pilar do processo científico, para além da teorização, da experimentação e da computação: o pilar da mineração de dados, no âmbito do qual os dados são organizados, processados e analisados por forma a que deles se possa extrair conhecimento. É um pilar que exige meios de cálculo intensivos, muitas vezes envolvendo vários computadores ligados em rede.
Mas não é só nas diversas áreas da ciência que as TIC têm levado a uma superabundância de dados. Esta tendência regista-se em todas as áreas da nossa sociedade, com a recolha, processamento e cruzamento de todo o tipo de dados sobre pessoas, serviços e bens. É um fenómeno de tal forma vasto que o maior desafio que agora se coloca à nossa civilização é o de sobreviver à revolução provocada pela intensiva utilização das novas tecnologias, não se deixando ela, por um lado, subjugar pelas TIC nem, por outro, afogar pelo tsunami de dados que elas provocam.
terça-feira, 3 de janeiro de 2012
A solidão digital
Artigo de opinião publicado no diário ‘As Beiras’
em 2 de Janeiro de 2012
Tal como o nome indica, as tecnologias da informação e comunicação (TIC) são uma ferramenta que potencia a comunicação. As redes de computadores e de telecomunicações possibilitam que sistemas informáticos localizados em qualquer parte do mundo comuniquem entre si como se estivessem diretamente ligados. As pessoas podem aceder a serviços inimagináveis há apenas meia dúzia de anos, a qualquer hora e a partir de qualquer lugar. Comunicar nunca foi tão fácil, tão imediato e tão utilizado.
As TIC possibilitam agora que pessoas que se encontram fisicamente distantes falem umas com as outras, se relacionem, se vejam e cooperem na execução de tarefas. O mundo deixou de ser uma aldeia e passou a ser uma única sala, onde podemos encontrar – para além de informação e serviços – as pessoas de quem necessitamos.
As interfaces de comunicação que estão disponíveis nos atuais equipamentos computacionais e de comunicação recorrem cada vez mais ao tato, à voz e ao vídeo. As interações pessoa-máquina são cada vez mais naturais, ou seja, mais próximas daquilo que seriam entre pessoas de carne e osso.
Naturalmente que tais ferramentas revolucionaram a forma como trabalhamos, como produzimos riqueza e, ainda, como interagimos uns com os outros. Dir-se-ia que as TIC aproximaram as pessoas. Mas, apesar de todas estas facilidades de comunicação, tão intensamente exploradas, será que as pessoas estão verdadeiramente mais próximas?
É certo que temos as redes sociais, mas muitos dos que nessas redes se apelidam de “verdadeiros amigos” dar-se-iam a considerável trabalho para evitar encontrar-se. É certo que ainda temos o velho correio electrónico, mas quantas coisas se escrevem em mensagens de correio que nunca se diriam se as pessoas estivessem cara-a-cara? É certo que temos a videoconferência, mas as decisões verdadeiramente importantes só se tomam em reuniões presenciais. É certo que alguns, mais avisados, usam as TIC para conhecerem outras pessoas e culturas, explorarem o mundo que os rodeia, a história, a ciência, a natureza e o Universo, mas muitos outros usam-nas para se isolarem num mundo virtual, irreal, inexistente.
Frequentes são as vezes em que se utilizam as TIC para não ser necessário encarar os colegas que estão nos gabinetes próximos, para comunicar ordens de serviço, para se controlar pessoas como se fossem processos num qualquer sistema de business intelligence, para se contratar e despedir funcionários.
Mas se tal acontece, em muito isso se deve à natureza das pessoas e não às TIC em si. Cabe-nos, pois, evitar um futuro no qual a única voz simpática seja a de um ou uma assistente virtual e em que o único contacto seja o de um frio ecrã táctil, pois se não o fizermos estaremos irremediavelmente entregues à solidão digital.
quinta-feira, 22 de dezembro de 2011
A união faz a força
Artigo de opinião publicado no diário ‘As Beiras’
em 21 de Dezembro de 2011
Quando se fala em supercomputadores, a maioria das pessoas pensa em máquinas para cálculo científico intensivo, utilizadas por uma fração muito reduzida de eleitos. No entanto, os supercomputadores são fundamentais para todos nós e para a sociedade global, já que sem eles os motores de busca da Internet e as redes sociais não conseguiriam funcionar.
Mas o que é, afinal, um supercomputador? É, sem dúvida, uma máquina com enorme capacidade de processamento, normalmente medida em número de operações de vírgula flutuante executadas por segundo (floating point operations per second, flops).
Não nos esqueçamos, no entanto, que os supercomputadores de ontem são os pequenos computadores pessoais de hoje. Note-se, por exemplo, que há mais poder de cálculo num telemóvel dos dias de hoje do que nos computadores de bordo da Apolo XI, que levou o Homem à Lua ou, ainda, que há mais capacidade de processamento numa boa consola de jogos atual do que num supercomputador de meados dos anos 1990.
Mas será possível que o vertiginoso ritmo de evolução dos computadores se mantenha como até aqui, principalmente no que diz respeito aos supercomputadores?
Os supercomputadores atuais são já compostos por conjuntos de milhares de microprocessadores, precisamente porque existem dificuldades práticas em construir processadores cada vez mais potentes. Os microprocessadores atuais estão já perto de limites praticáveis em termos de capacidade de processamento, simplesmente porque fazer trabalhar mais depressa as centenas ou milhares de milhões de transístores que os compõem geraria um aquecimento tão grande que destruiria o próprio microprocessador.
O maior obstáculo à evolução dos supercomputadores é, assim, o consumo de energia. Os atuais supercomputadores consomem entre 4 a 6 megawatt, o que é equivalente ao consumo de uma cidade pequena. Com a tecnologia atual, para um computador ser capaz de atingir um trilião de flops (ou seja, um exaflops, isto é, dez elevado a dezoito flops) o consumo estimado seria próximo dos 1.5 gigawatt. Considerando que haverá ganhos de eficiência decorrentes de melhoria da tecnologia, os especialistas estimam que, mesmo assim, o consumo seria na ordem dos 70 megawatt, ou seja, mais ou menos o consumo de toda a cidade de Coimbra. Provavelmente, tal equipamento derreter-se-ia a si próprio, a não ser que ocupasse uma área descomunalmente grande.
Serão tais computadores impossíveis de construir? Para já sim, mas o tempo o dirá. Talvez por isso se recorra cada vez mais à cooperação entre vários supercomputadores, ligados entre si, para atingir cada vez maior capacidade de cálculo. É a chamada computação em malha, também conhecida por grid computing. Afinal, também no caso dos computadores a união faz a força.
quarta-feira, 14 de dezembro de 2011
Telhados de vidro
Artigo de opinião publicado no diário ‘As Beiras’
em 13 de Dezembro de 2011
Nas últimas semanas têm vindo a lume várias notícias sobre ataques de piratas informáticos contra sistemas da administração do Estado. Muitos dirão que quem anda à chuva molha-se, mas o que é certo é que todos ficamos desconfortáveis pelo facto de o Estado parecer não estar bem preparado para umas gotas de água que, inevitavelmente, salpicam do mar que é a Internet.
Todos concordarão que a utilização das tecnologias da informação e comunicação (TIC) na administração central e local é indispensável nos dias de hoje, sendo fundamental não só para a eficiência e eficácia dos serviços mas, sobretudo, para a comodidade dos cidadãos. E não nos esqueçamos deste último aspeto, já que existe uma enorme diferença entre um Estado que existe para servir os cidadãos e um outro que exista para ser servido por eles.
A questão central é, no entanto, que para além de se construir uma máquina eficiente, eficaz e cómoda com base nas TIC, é necessário que esta máquina seja suficientemente robusta para aguentar as investidas do ambiente em que se insere. Em termos informáticos isto significa que essa máquina tem que estar bem dimensionada, tem que ser capaz de resistir a falhas e, não menos importante, tem que ser segura.
Todos os especialistas informáticos sabem que o potencial de ataque associado a qualquer sistema ligado à Internet é tanto maior quanto maior for a visibilidade que esse sistema tem. É, por isso, impensável que sistemas estatais não sejam geridos de acordo com as mais estritas políticas de segurança informática e não estejam sujeitos aos mecanismos de segurança mais robustos que existem, já que são sistemas críticos para o país e é claro que quanto mais fortes forem as medidas de segurança informática menor será o número de ataques bem sucedidos.
Um dos procedimentos mais importantes para a detecção de brechas de segurança são as auditorias. Sistemas estatais têm, forçosamente, que ser auditados, em termos de segurança informática, várias vezes por ano, por entidades externas expressamente contratadas para o efeito.
Para além disso, é essencial que existam especialistas em segurança informática dedicados à gestão dos sistemas mais críticos. Nesta matéria específica, o recurso a outsourcing deve ser evitado, por forma a limitar a difusão de informação de segurança a outras entidades. Aqui a dificuldade é encontrar esses especialistas, já que a carreira informática da administração pública não contempla especificamente a área de segurança.
Os ataques informáticos – sejam eles a sistemas do Estado ou não – são sempre ilegais. É despropositado, por isso, dizer que os organismos atacados tenham andado a atirar pedras, mas, a avaliar pelos ataques bem sucedidos de que foram alvo, é evidente que têm demasiados telhados de vidro.
terça-feira, 6 de dezembro de 2011
O método imperfeito
Artigo de opinião publicado no diário ‘As Beiras’
em 5 de Dezembro de 2011
O sucesso de qualquer projeto de engenharia exige, para além de uma série de condições materiais e de uma equipa com as necessárias competências técnicas, uma rigorosa metodologia de desenvolvimento. Assim acontece também no caso dos projetos de Engenharia Informática.
A metodologia tradicional de desenvolvimento de projetos informáticos é conhecida por metodologia “em cascata”, devendo-se esse nome ao fato de que cada fase do desenvolvimento dá origem à seguinte, de forma sequencial, sem que exista possibilidade de fases posteriores influenciarem o desenvolvimento. Com efeito, também a água que desce uma cascata não tem forma de voltar ao seu início.
Durante várias décadas, o desenvolvimento em cascata foi considerado o método perfeito. Numa primeira fase faz-se um exaustivo planeamento, que inclui o levantamento de requisitos, a especificação do sistema a desenvolver, a identificação das diversas tarefas a executar, a respectiva duração e os meios necessários. Todos estes aspetos devem ser exaustivamente documentados. Uma vez aprovado o planeamento, segue-se a fase da execução, na qual a equipa de desenvolvimento deve por em prática tudo o que foi decidido na fase de planeamento. A última fase é a dos testes – por entidade certificada – e aceitação por parte do cliente.
A metodologia em cascata é bastante rígida, tendo vantagens e desvantagens. Do lado das vantagens, há a assinalar o grande controlo que permite sobre a execução do projeto. No entanto, a principal desvantagem é a de que assume que quer os utilizadores, quer o cliente da aplicação quer, ainda, quem a desenvolve, são pessoas cuja visão não muda ao longo de todo o desenvolvimento, que não podem ter qualquer criatividade, e que executam as tarefas como se fossem robôs e não seres humanos.
O reconhecimento dessa desvantagem levou ao aparecimento, no início da década de 1990, de metodologias de desenvolvimento rápido, das quais a metodologia ‘Scrum’ é a mais conhecida e mais utilizada. Neste caso, a metodologia assume que os requisitos podem mudar ao longo do projeto, assim como os objetivos da aplicação ou sistema, por forma a refletir a natureza dinâmica de utilizadores, clientes e desenvolvedores. Em cada ciclo de desenvolvimento – denominado ‘sprint’ – os objetivos são reavaliados à luz do trabalho realizado, dos erros e experiência acumulados, e de novas ideias ou requisitos.
Também esta metodologia tem riscos – frequentemente desvalorizados e, quiçá, mais problemáticos que os de metodologias mais rígidas – compensados, no entanto, por um muito maior potencial para atingir produtos de maior qualidade, mais fáceis de utilizar e mais próximos das necessidades do mercado. Não existirá uma metodologia perfeita mas, ao prever formas de lidar com a mudança e com a imperfeição humanas, esta metodologia dá um grande passo nesse sentido.
terça-feira, 29 de novembro de 2011
Os computadores pensam?
Artigo de opinião publicado no diário ‘As Beiras’
em 28 de Novembro de 2011
Nos bons velhos tempos, só em obras de ficção – fossem elas em forma de livro ou filme de carácter futurista – se poderia colocar a hipótese de que os computadores pensassem. No entanto, o extraordinário avanço da ciência e da tecnologia nas últimas décadas levou ao aparecimento de computadores com grande capacidade de processamento e de programas extremamente sofisticados, o que tem levado a que um número crescente de pessoas – desde o cidadão comum a eminentes cientistas – coloque questões como as seguintes: pode um computador pensar, ter uma mente, ter consciência, sentir?
Um computador é um sistema físico, composto por dispositivos elétricos e electrónicos, que opera segundo regras bem definidas e conhecidas e que, em última análise, obedece às leis universais da física. Parece, portanto, ser claro que um computador é algo inerte, que não pode pensar ou ter consciência. No entanto, todos os cientistas concordam que o cérebro humano é também um sistema que obedece às leis da física, composto por cerca de cem mil milhões de neurónios e, portanto, pelo menos em teoria, será possível construir um dispositivo físico que como ele funcione.
De facto, foram já feitas experiências no sentido de utilizar máquinas para simular o funcionamento do cérebro. Diga-se, de passagem, que para simular um segundo de atividade cerebral tiveram que ser utilizados vários supercomputadores que, para o efeito, demoraram cerca de cinquenta dias e consumiram quantidades gigantescas de energia.
Mas mesmo admitindo que num futuro mais ou menos distante os computadores serão tão poderosos que poderão simular o funcionamento do cérebro, será que alguma vez se poderá dizer que têm mente, que têm consciência, que têm sentimentos? Note-se que, hoje em dia existem já programas que agem de uma forma tão similar à mente humana que é difícil a um humano saber se está a interagir com uma máquina ou com uma pessoa. Há, por isso, quem defenda que se um computador pode exibir um comportamento inteligente indiscernível do dos humanos, então é inteligente, tem consciência e pode sentir.
Essa mesma posição é defendida por muitos investigadores, por muitos filósofos e por muitos cientistas cognitivos aos quais, naturalmente, se opõem – com argumentos igualmente válidos – pelo menos outros tantos investigadores, filósofos e cientistas cognitivos.
Pessoalmente, enquadro-me nestes últimos, mas o que é certo é que temos que reconhecer que existem hoje máquinas de elevado grau de sofisticação, que podem exibir comportamentos inteligentes, executar tarefas muito complexas e tomar decisões de forma autónoma. Nalguns casos, é muito mais fácil ensinar uma dessas máquinas a executar uma tarefa ou, até, deixar que a máquina aprenda sozinha, do que ensinar pessoas, muitas das quais dificilmente aprendem o que quer que seja. E nesses casos poderá acontecer que um computador coloque, de forma autónoma, a questão: mas, afinal, as pessoas pensam?
em 28 de Novembro de 2011
Nos bons velhos tempos, só em obras de ficção – fossem elas em forma de livro ou filme de carácter futurista – se poderia colocar a hipótese de que os computadores pensassem. No entanto, o extraordinário avanço da ciência e da tecnologia nas últimas décadas levou ao aparecimento de computadores com grande capacidade de processamento e de programas extremamente sofisticados, o que tem levado a que um número crescente de pessoas – desde o cidadão comum a eminentes cientistas – coloque questões como as seguintes: pode um computador pensar, ter uma mente, ter consciência, sentir?
Um computador é um sistema físico, composto por dispositivos elétricos e electrónicos, que opera segundo regras bem definidas e conhecidas e que, em última análise, obedece às leis universais da física. Parece, portanto, ser claro que um computador é algo inerte, que não pode pensar ou ter consciência. No entanto, todos os cientistas concordam que o cérebro humano é também um sistema que obedece às leis da física, composto por cerca de cem mil milhões de neurónios e, portanto, pelo menos em teoria, será possível construir um dispositivo físico que como ele funcione.
De facto, foram já feitas experiências no sentido de utilizar máquinas para simular o funcionamento do cérebro. Diga-se, de passagem, que para simular um segundo de atividade cerebral tiveram que ser utilizados vários supercomputadores que, para o efeito, demoraram cerca de cinquenta dias e consumiram quantidades gigantescas de energia.
Mas mesmo admitindo que num futuro mais ou menos distante os computadores serão tão poderosos que poderão simular o funcionamento do cérebro, será que alguma vez se poderá dizer que têm mente, que têm consciência, que têm sentimentos? Note-se que, hoje em dia existem já programas que agem de uma forma tão similar à mente humana que é difícil a um humano saber se está a interagir com uma máquina ou com uma pessoa. Há, por isso, quem defenda que se um computador pode exibir um comportamento inteligente indiscernível do dos humanos, então é inteligente, tem consciência e pode sentir.
Essa mesma posição é defendida por muitos investigadores, por muitos filósofos e por muitos cientistas cognitivos aos quais, naturalmente, se opõem – com argumentos igualmente válidos – pelo menos outros tantos investigadores, filósofos e cientistas cognitivos.
Pessoalmente, enquadro-me nestes últimos, mas o que é certo é que temos que reconhecer que existem hoje máquinas de elevado grau de sofisticação, que podem exibir comportamentos inteligentes, executar tarefas muito complexas e tomar decisões de forma autónoma. Nalguns casos, é muito mais fácil ensinar uma dessas máquinas a executar uma tarefa ou, até, deixar que a máquina aprenda sozinha, do que ensinar pessoas, muitas das quais dificilmente aprendem o que quer que seja. E nesses casos poderá acontecer que um computador coloque, de forma autónoma, a questão: mas, afinal, as pessoas pensam?
terça-feira, 22 de novembro de 2011
Divórcio litigioso
Artigo de opinião publicado no diário ‘As Beiras’
em 21 de Novembro de 2011
O que têm em comum a tecnologia, a política e o futebol? À primeira vista, pouca coisa mas, pensando bem, os três interessam a um grande número de pessoas, movimentam grandes meios e, consequentemente, têm o poder de moldar uma boa parte da nossa sociedade.
Idealmente, as coincidências deveriam terminar aí, mas todos sabemos que não é assim. Se entre a política e o futebol existe já um consenso na sociedade em geral de que deve haver uma grande independência, já entre tecnologias e política as dependências têm sido exploradas muito para além do desejável.
É certo que as tecnologias em geral e, dentro destas, as de informação e comunicação (TIC) mudaram e continuarão a mudar a nossa civilização e, por conseguinte, têm que ser alvo de atenção do poder político, na medida em que têm impacto no desenvolvimento económico e social, no ensino e investigação e, ainda, nas liberdades e garantias dos povos. Por isso, não devem a política e a ciência/tecnologia estar de costas voltadas. Seria absurdo que tal acontecesse, num mundo cada vez mais tecnológico, cada vez mais influenciado pela informação e pelo conhecimento.
Mas por muito que a ciência e a tecnologia condicionem a nossa vida, não pode a política ser sua refém. Significa isto que a política não pode ser inteiramente ditada por nem subjugada à ciência e à tecnologia. Significa isto, ainda, que não devem os cientistas nem os engenheiros, enquanto profissionais, ditarem as políticas. Significa isto, por fim, que não devem os políticos orientar as suas políticas exclusivamente para a ciência e a tecnologia, estabelecendo estas últimas como um fim em si mesmas. Tal seria não ver o principal porque só se olha para o acessório. Tal seria esquecer as pessoas em favor dos sistemas, que existem, exclusivamente, para lhes dar apoio.
Mas se é certo que a política não deve ser refém da ciência e da tecnologia, não é menos certo que a ciência e a tecnologia não devem ser reféns da política. Não deve a política definir as linhas nem os limites para a atividade científica e tecnológica, estabelecendo entraves à curiosidade intelectual e ao engenho. Não devem os financiamentos para a ciência e a tecnologia ser exclusivamente ditados por razões políticas, sob pena de reduzir a ciência e a inovação ao meramente planeado e previsível, o que, em si, é um contrassenso. Não deve a política “apoderar-se” da ciência e da tecnologia – e, muito menos, dos seus agentes – encarando-as como uma ferramenta que existe para servir os seus fins. Nesta matéria como, aliás, em todas as outras, não pode haver ditadura.
A chave do sucesso está, assim, no respeito mútuo, na interação saudável e, sobretudo, na independência decisória. E se se pode dizer, em face da experiência recente, que um casamento por conveniência entre política e tecnologia é manifestamente indesejável, muitos concordarão que a nossa sociedade não se pode agora dar ao luxo de um divórcio litigioso.
Subscrever:
Mensagens (Atom)






