Neste blogue encontrará artigos de opinião sobre: * as tecnologias de informação e comunicação (TIC) * o impacto das TIC nas organizações * as TIC e a administração central e local * as TIC na vida dos cidadãos * as TIC nos mais variados ramos da ciência e sociedade (saúde, ecologia, turismo, comércio, etc.)
Os segundos 60 posts deste blogue agora disponíveis em e-book
quinta-feira, 22 de dezembro de 2011
A união faz a força
Artigo de opinião publicado no diário ‘As Beiras’
em 21 de Dezembro de 2011
Quando se fala em supercomputadores, a maioria das pessoas pensa em máquinas para cálculo científico intensivo, utilizadas por uma fração muito reduzida de eleitos. No entanto, os supercomputadores são fundamentais para todos nós e para a sociedade global, já que sem eles os motores de busca da Internet e as redes sociais não conseguiriam funcionar.
Mas o que é, afinal, um supercomputador? É, sem dúvida, uma máquina com enorme capacidade de processamento, normalmente medida em número de operações de vírgula flutuante executadas por segundo (floating point operations per second, flops).
Não nos esqueçamos, no entanto, que os supercomputadores de ontem são os pequenos computadores pessoais de hoje. Note-se, por exemplo, que há mais poder de cálculo num telemóvel dos dias de hoje do que nos computadores de bordo da Apolo XI, que levou o Homem à Lua ou, ainda, que há mais capacidade de processamento numa boa consola de jogos atual do que num supercomputador de meados dos anos 1990.
Mas será possível que o vertiginoso ritmo de evolução dos computadores se mantenha como até aqui, principalmente no que diz respeito aos supercomputadores?
Os supercomputadores atuais são já compostos por conjuntos de milhares de microprocessadores, precisamente porque existem dificuldades práticas em construir processadores cada vez mais potentes. Os microprocessadores atuais estão já perto de limites praticáveis em termos de capacidade de processamento, simplesmente porque fazer trabalhar mais depressa as centenas ou milhares de milhões de transístores que os compõem geraria um aquecimento tão grande que destruiria o próprio microprocessador.
O maior obstáculo à evolução dos supercomputadores é, assim, o consumo de energia. Os atuais supercomputadores consomem entre 4 a 6 megawatt, o que é equivalente ao consumo de uma cidade pequena. Com a tecnologia atual, para um computador ser capaz de atingir um trilião de flops (ou seja, um exaflops, isto é, dez elevado a dezoito flops) o consumo estimado seria próximo dos 1.5 gigawatt. Considerando que haverá ganhos de eficiência decorrentes de melhoria da tecnologia, os especialistas estimam que, mesmo assim, o consumo seria na ordem dos 70 megawatt, ou seja, mais ou menos o consumo de toda a cidade de Coimbra. Provavelmente, tal equipamento derreter-se-ia a si próprio, a não ser que ocupasse uma área descomunalmente grande.
Serão tais computadores impossíveis de construir? Para já sim, mas o tempo o dirá. Talvez por isso se recorra cada vez mais à cooperação entre vários supercomputadores, ligados entre si, para atingir cada vez maior capacidade de cálculo. É a chamada computação em malha, também conhecida por grid computing. Afinal, também no caso dos computadores a união faz a força.
quarta-feira, 14 de dezembro de 2011
Telhados de vidro
Artigo de opinião publicado no diário ‘As Beiras’
em 13 de Dezembro de 2011
Nas últimas semanas têm vindo a lume várias notícias sobre ataques de piratas informáticos contra sistemas da administração do Estado. Muitos dirão que quem anda à chuva molha-se, mas o que é certo é que todos ficamos desconfortáveis pelo facto de o Estado parecer não estar bem preparado para umas gotas de água que, inevitavelmente, salpicam do mar que é a Internet.
Todos concordarão que a utilização das tecnologias da informação e comunicação (TIC) na administração central e local é indispensável nos dias de hoje, sendo fundamental não só para a eficiência e eficácia dos serviços mas, sobretudo, para a comodidade dos cidadãos. E não nos esqueçamos deste último aspeto, já que existe uma enorme diferença entre um Estado que existe para servir os cidadãos e um outro que exista para ser servido por eles.
A questão central é, no entanto, que para além de se construir uma máquina eficiente, eficaz e cómoda com base nas TIC, é necessário que esta máquina seja suficientemente robusta para aguentar as investidas do ambiente em que se insere. Em termos informáticos isto significa que essa máquina tem que estar bem dimensionada, tem que ser capaz de resistir a falhas e, não menos importante, tem que ser segura.
Todos os especialistas informáticos sabem que o potencial de ataque associado a qualquer sistema ligado à Internet é tanto maior quanto maior for a visibilidade que esse sistema tem. É, por isso, impensável que sistemas estatais não sejam geridos de acordo com as mais estritas políticas de segurança informática e não estejam sujeitos aos mecanismos de segurança mais robustos que existem, já que são sistemas críticos para o país e é claro que quanto mais fortes forem as medidas de segurança informática menor será o número de ataques bem sucedidos.
Um dos procedimentos mais importantes para a detecção de brechas de segurança são as auditorias. Sistemas estatais têm, forçosamente, que ser auditados, em termos de segurança informática, várias vezes por ano, por entidades externas expressamente contratadas para o efeito.
Para além disso, é essencial que existam especialistas em segurança informática dedicados à gestão dos sistemas mais críticos. Nesta matéria específica, o recurso a outsourcing deve ser evitado, por forma a limitar a difusão de informação de segurança a outras entidades. Aqui a dificuldade é encontrar esses especialistas, já que a carreira informática da administração pública não contempla especificamente a área de segurança.
Os ataques informáticos – sejam eles a sistemas do Estado ou não – são sempre ilegais. É despropositado, por isso, dizer que os organismos atacados tenham andado a atirar pedras, mas, a avaliar pelos ataques bem sucedidos de que foram alvo, é evidente que têm demasiados telhados de vidro.
terça-feira, 6 de dezembro de 2011
O método imperfeito
Artigo de opinião publicado no diário ‘As Beiras’
em 5 de Dezembro de 2011
O sucesso de qualquer projeto de engenharia exige, para além de uma série de condições materiais e de uma equipa com as necessárias competências técnicas, uma rigorosa metodologia de desenvolvimento. Assim acontece também no caso dos projetos de Engenharia Informática.
A metodologia tradicional de desenvolvimento de projetos informáticos é conhecida por metodologia “em cascata”, devendo-se esse nome ao fato de que cada fase do desenvolvimento dá origem à seguinte, de forma sequencial, sem que exista possibilidade de fases posteriores influenciarem o desenvolvimento. Com efeito, também a água que desce uma cascata não tem forma de voltar ao seu início.
Durante várias décadas, o desenvolvimento em cascata foi considerado o método perfeito. Numa primeira fase faz-se um exaustivo planeamento, que inclui o levantamento de requisitos, a especificação do sistema a desenvolver, a identificação das diversas tarefas a executar, a respectiva duração e os meios necessários. Todos estes aspetos devem ser exaustivamente documentados. Uma vez aprovado o planeamento, segue-se a fase da execução, na qual a equipa de desenvolvimento deve por em prática tudo o que foi decidido na fase de planeamento. A última fase é a dos testes – por entidade certificada – e aceitação por parte do cliente.
A metodologia em cascata é bastante rígida, tendo vantagens e desvantagens. Do lado das vantagens, há a assinalar o grande controlo que permite sobre a execução do projeto. No entanto, a principal desvantagem é a de que assume que quer os utilizadores, quer o cliente da aplicação quer, ainda, quem a desenvolve, são pessoas cuja visão não muda ao longo de todo o desenvolvimento, que não podem ter qualquer criatividade, e que executam as tarefas como se fossem robôs e não seres humanos.
O reconhecimento dessa desvantagem levou ao aparecimento, no início da década de 1990, de metodologias de desenvolvimento rápido, das quais a metodologia ‘Scrum’ é a mais conhecida e mais utilizada. Neste caso, a metodologia assume que os requisitos podem mudar ao longo do projeto, assim como os objetivos da aplicação ou sistema, por forma a refletir a natureza dinâmica de utilizadores, clientes e desenvolvedores. Em cada ciclo de desenvolvimento – denominado ‘sprint’ – os objetivos são reavaliados à luz do trabalho realizado, dos erros e experiência acumulados, e de novas ideias ou requisitos.
Também esta metodologia tem riscos – frequentemente desvalorizados e, quiçá, mais problemáticos que os de metodologias mais rígidas – compensados, no entanto, por um muito maior potencial para atingir produtos de maior qualidade, mais fáceis de utilizar e mais próximos das necessidades do mercado. Não existirá uma metodologia perfeita mas, ao prever formas de lidar com a mudança e com a imperfeição humanas, esta metodologia dá um grande passo nesse sentido.
terça-feira, 29 de novembro de 2011
Os computadores pensam?
Artigo de opinião publicado no diário ‘As Beiras’
em 28 de Novembro de 2011
Nos bons velhos tempos, só em obras de ficção – fossem elas em forma de livro ou filme de carácter futurista – se poderia colocar a hipótese de que os computadores pensassem. No entanto, o extraordinário avanço da ciência e da tecnologia nas últimas décadas levou ao aparecimento de computadores com grande capacidade de processamento e de programas extremamente sofisticados, o que tem levado a que um número crescente de pessoas – desde o cidadão comum a eminentes cientistas – coloque questões como as seguintes: pode um computador pensar, ter uma mente, ter consciência, sentir?
Um computador é um sistema físico, composto por dispositivos elétricos e electrónicos, que opera segundo regras bem definidas e conhecidas e que, em última análise, obedece às leis universais da física. Parece, portanto, ser claro que um computador é algo inerte, que não pode pensar ou ter consciência. No entanto, todos os cientistas concordam que o cérebro humano é também um sistema que obedece às leis da física, composto por cerca de cem mil milhões de neurónios e, portanto, pelo menos em teoria, será possível construir um dispositivo físico que como ele funcione.
De facto, foram já feitas experiências no sentido de utilizar máquinas para simular o funcionamento do cérebro. Diga-se, de passagem, que para simular um segundo de atividade cerebral tiveram que ser utilizados vários supercomputadores que, para o efeito, demoraram cerca de cinquenta dias e consumiram quantidades gigantescas de energia.
Mas mesmo admitindo que num futuro mais ou menos distante os computadores serão tão poderosos que poderão simular o funcionamento do cérebro, será que alguma vez se poderá dizer que têm mente, que têm consciência, que têm sentimentos? Note-se que, hoje em dia existem já programas que agem de uma forma tão similar à mente humana que é difícil a um humano saber se está a interagir com uma máquina ou com uma pessoa. Há, por isso, quem defenda que se um computador pode exibir um comportamento inteligente indiscernível do dos humanos, então é inteligente, tem consciência e pode sentir.
Essa mesma posição é defendida por muitos investigadores, por muitos filósofos e por muitos cientistas cognitivos aos quais, naturalmente, se opõem – com argumentos igualmente válidos – pelo menos outros tantos investigadores, filósofos e cientistas cognitivos.
Pessoalmente, enquadro-me nestes últimos, mas o que é certo é que temos que reconhecer que existem hoje máquinas de elevado grau de sofisticação, que podem exibir comportamentos inteligentes, executar tarefas muito complexas e tomar decisões de forma autónoma. Nalguns casos, é muito mais fácil ensinar uma dessas máquinas a executar uma tarefa ou, até, deixar que a máquina aprenda sozinha, do que ensinar pessoas, muitas das quais dificilmente aprendem o que quer que seja. E nesses casos poderá acontecer que um computador coloque, de forma autónoma, a questão: mas, afinal, as pessoas pensam?
em 28 de Novembro de 2011
Nos bons velhos tempos, só em obras de ficção – fossem elas em forma de livro ou filme de carácter futurista – se poderia colocar a hipótese de que os computadores pensassem. No entanto, o extraordinário avanço da ciência e da tecnologia nas últimas décadas levou ao aparecimento de computadores com grande capacidade de processamento e de programas extremamente sofisticados, o que tem levado a que um número crescente de pessoas – desde o cidadão comum a eminentes cientistas – coloque questões como as seguintes: pode um computador pensar, ter uma mente, ter consciência, sentir?
Um computador é um sistema físico, composto por dispositivos elétricos e electrónicos, que opera segundo regras bem definidas e conhecidas e que, em última análise, obedece às leis universais da física. Parece, portanto, ser claro que um computador é algo inerte, que não pode pensar ou ter consciência. No entanto, todos os cientistas concordam que o cérebro humano é também um sistema que obedece às leis da física, composto por cerca de cem mil milhões de neurónios e, portanto, pelo menos em teoria, será possível construir um dispositivo físico que como ele funcione.
De facto, foram já feitas experiências no sentido de utilizar máquinas para simular o funcionamento do cérebro. Diga-se, de passagem, que para simular um segundo de atividade cerebral tiveram que ser utilizados vários supercomputadores que, para o efeito, demoraram cerca de cinquenta dias e consumiram quantidades gigantescas de energia.
Mas mesmo admitindo que num futuro mais ou menos distante os computadores serão tão poderosos que poderão simular o funcionamento do cérebro, será que alguma vez se poderá dizer que têm mente, que têm consciência, que têm sentimentos? Note-se que, hoje em dia existem já programas que agem de uma forma tão similar à mente humana que é difícil a um humano saber se está a interagir com uma máquina ou com uma pessoa. Há, por isso, quem defenda que se um computador pode exibir um comportamento inteligente indiscernível do dos humanos, então é inteligente, tem consciência e pode sentir.
Essa mesma posição é defendida por muitos investigadores, por muitos filósofos e por muitos cientistas cognitivos aos quais, naturalmente, se opõem – com argumentos igualmente válidos – pelo menos outros tantos investigadores, filósofos e cientistas cognitivos.
Pessoalmente, enquadro-me nestes últimos, mas o que é certo é que temos que reconhecer que existem hoje máquinas de elevado grau de sofisticação, que podem exibir comportamentos inteligentes, executar tarefas muito complexas e tomar decisões de forma autónoma. Nalguns casos, é muito mais fácil ensinar uma dessas máquinas a executar uma tarefa ou, até, deixar que a máquina aprenda sozinha, do que ensinar pessoas, muitas das quais dificilmente aprendem o que quer que seja. E nesses casos poderá acontecer que um computador coloque, de forma autónoma, a questão: mas, afinal, as pessoas pensam?
terça-feira, 22 de novembro de 2011
Divórcio litigioso
Artigo de opinião publicado no diário ‘As Beiras’
em 21 de Novembro de 2011
O que têm em comum a tecnologia, a política e o futebol? À primeira vista, pouca coisa mas, pensando bem, os três interessam a um grande número de pessoas, movimentam grandes meios e, consequentemente, têm o poder de moldar uma boa parte da nossa sociedade.
Idealmente, as coincidências deveriam terminar aí, mas todos sabemos que não é assim. Se entre a política e o futebol existe já um consenso na sociedade em geral de que deve haver uma grande independência, já entre tecnologias e política as dependências têm sido exploradas muito para além do desejável.
É certo que as tecnologias em geral e, dentro destas, as de informação e comunicação (TIC) mudaram e continuarão a mudar a nossa civilização e, por conseguinte, têm que ser alvo de atenção do poder político, na medida em que têm impacto no desenvolvimento económico e social, no ensino e investigação e, ainda, nas liberdades e garantias dos povos. Por isso, não devem a política e a ciência/tecnologia estar de costas voltadas. Seria absurdo que tal acontecesse, num mundo cada vez mais tecnológico, cada vez mais influenciado pela informação e pelo conhecimento.
Mas por muito que a ciência e a tecnologia condicionem a nossa vida, não pode a política ser sua refém. Significa isto que a política não pode ser inteiramente ditada por nem subjugada à ciência e à tecnologia. Significa isto, ainda, que não devem os cientistas nem os engenheiros, enquanto profissionais, ditarem as políticas. Significa isto, por fim, que não devem os políticos orientar as suas políticas exclusivamente para a ciência e a tecnologia, estabelecendo estas últimas como um fim em si mesmas. Tal seria não ver o principal porque só se olha para o acessório. Tal seria esquecer as pessoas em favor dos sistemas, que existem, exclusivamente, para lhes dar apoio.
Mas se é certo que a política não deve ser refém da ciência e da tecnologia, não é menos certo que a ciência e a tecnologia não devem ser reféns da política. Não deve a política definir as linhas nem os limites para a atividade científica e tecnológica, estabelecendo entraves à curiosidade intelectual e ao engenho. Não devem os financiamentos para a ciência e a tecnologia ser exclusivamente ditados por razões políticas, sob pena de reduzir a ciência e a inovação ao meramente planeado e previsível, o que, em si, é um contrassenso. Não deve a política “apoderar-se” da ciência e da tecnologia – e, muito menos, dos seus agentes – encarando-as como uma ferramenta que existe para servir os seus fins. Nesta matéria como, aliás, em todas as outras, não pode haver ditadura.
A chave do sucesso está, assim, no respeito mútuo, na interação saudável e, sobretudo, na independência decisória. E se se pode dizer, em face da experiência recente, que um casamento por conveniência entre política e tecnologia é manifestamente indesejável, muitos concordarão que a nossa sociedade não se pode agora dar ao luxo de um divórcio litigioso.
terça-feira, 15 de novembro de 2011
O ensino adiado
Artigo de opinião publicado no diário ‘As Beiras’
em 14 de Novembro de 2011
Se muitos dos países mais desenvolvidos do mundo são o que são, muito o devem a uma política de ensino ativa, cuidada e coerentemente mantida ao longo de décadas, se não mesmo de séculos. Sempre foi este o nosso calcanhar de Aquiles, já que ao longo da nossa história, com ênfase nos séculos XIX e seguintes, o ensino foi tratado como um parente pobre num país que, já de si, não é rico.
Diziam os antigos que isso dos livros e dos estudos era só para quem nada que tinha que fazer, pois o importante era amanhar a terra, trabalhar nas fábricas. Tarde reconhecemos que o analfabetismo teve custos incalculáveis para o país, condenando-o a um atraso do qual ainda sofremos as consequências.
Surge agora um novo tipo de literacia – o das tecnologias da informação e comunicação (TIC) – essencial para todas as profissões sem exceção e para todas as atividades produtivas. Consistentemente, países e povos preparam os seus jovens para a sociedade da informação de forma planeada, nas escolas básicas, secundárias e superiores. De entre esses jovens sairão não só pessoas com formação adequada para o dia-a-dia, mas também os novos engenheiros, os novos cientistas, os que construirão o futuro desses países e os que exportarão a sua tecnologia e enriquecerão o seu país.
Nós por cá acabamos com o ensino das TIC no ensino básico e secundário porque, pasme-se, todos sabem desde muito cedo usar um computador! Deixa-se, assim, a formação numa área tão essencial para a sociedade ao sabor do autodidatismo, do amadorismo e da superficialidade. Condenamo-nos, desde cedo, a importar tecnologia, saber e competências por falta de as criarmos no país.
Ficamos, pois, com um ensino que poderia ser o de há cinco décadas atrás, reduzido às disciplinas chamadas estruturantes (como se no básico e secundário não o fossem todas!). Mas se todos sabem usar (frequentemente mal, diga-se de passagem) os computadores desde muito cedo, também desde cedo as pessoas são autónomas na sua língua e desde cedo têm as noções básicas de matemática mais do que suficientes para a vida quotidiana da esmagadora maioria da população, e não é por isso que se deixa de lecionar essas disciplinas, cuja importância é reconhecida unanimemente. A razão é, portanto, outra, e tem a ver exclusivamente com o imediatismo das contas e não com a desculpa mais ou menos esfarrapada de que as crianças já nascem a saber informática. Pobres de nós, que comprometemos o amanhã por não sabermos estabelecer as prioridades no dia de hoje!
Parece que, mais uma vez, pelas mesmas razões – a crise constante, a pobreza do país, o aperto financeiro em que nos encontramos, a urgência de desviar meios para outros fins – vamos perder a oportunidade de ensinar e educar as gerações que são o futuro da nação, criando um outro lote de analfabetos, desta vez digitais. Só daqui a vários anos lamentaremos profundamente os custos para o país deste novo episódio de ensino adiado.
quarta-feira, 9 de novembro de 2011
A chave primária
Artigo de opinião publicado no diário ‘As Beiras’
em 8 de Novembro de 2011
Todos estamos habituados a ouvir falar em bases de dados. As empresas têm bases de dados de clientes, as escolas têm bases de dados de alunos, as entidades do Estado têm bases de dados de cidadãos nacionais e estrangeiros, e assim por diante. Os dados – e, mais ainda, a informação – são essenciais para o funcionamento de todas as entidades, e todos nós aceitamos como natural que existam todo o tipo de bases de dados. Afinal, por alguma razão dizemos que vivemos na era da informação.
Os registos contidos em qualquer base de dados têm que ter um identificador único – ou seja, algo que os distinga uns dos outros – que, em linguagem técnica, se designa por chave primária. Por exemplo, numa base de dados de cidadãos eleitores a chave primária poderá ser composta pela conjugação da freguesia de recenseamento com o número de eleitor, já que os cidadãos recenseados numa dada freguesia têm, forçosamente, números de eleitor diferentes. Por outro lado, o nome das pessoas não pode funcionar como chave primária, pois pessoas diferentes poderão ter nomes iguais.
Como vimos no exemplo acima, uma chave primária não é, necessariamente, um número, podendo ser uma conjugação de vários campos, textuais e numéricos. Em bases de dados relativas a pessoas – principalmente se forem bases de dados estatais – a utilização de um número como chave primária, isto é, a utilização de um número para representar pessoas, tende a ser evitada oficialmente por ser considerado politicamente incorreto reduzir pessoas a simples números em bases de dados.
É, talvez, por isso que diferentes países adoptam diferentes políticas no que diz respeito à identificação dos seus nacionais. Em certos países a emissão de um cartão nacional de identificação por cidadão (que contém, necessariamente, um número distinto) é obrigatória. Noutros países, essa emissão é facultativa, Noutros, ainda, não existe qualquer cartão nacional de identificação. Curiosamente, ou talvez não, nestas duas últimas categorias encontram-se alguns dos países mais ricos e mais desenvolvidos do mundo.
No caso de Portugal, numa tentativa de evitar a atribuição de um número único a cada cidadão, existem vários números de identificação – cada qual único – diluindo-se e disfarçando-se assim o “odioso” de cada cidadão ser representado por um número. Destes referem-se o número de identificação civil (ou número de bilhete de identidade), o número de segurança social, o número de utente de saúde e, ainda, o número de contribuinte, todos e cada um deles uma chave primária na correta acepção do termo.
Na prática, no entanto, é o número de contribuinte o que mais força tem, pois é obrigatório desde o nascimento até muito depois da morte. É esta a verdadeira chave primária da grande base de dados a que, por vezes, se quer reduzir o país, que nos parece querer dizer que sendo nós pessoas com direitos civis, sociais e de saúde, para o Estado somos, acima de tudo, contribuintes.
Subscrever:
Mensagens (Atom)






