População desconhece órgãos que combatem a corrupção, revela pesquisa da UnB

Pesquisa da Universidade de Brasília (UnB) mostra que os órgãos de combate à corrupção no país são desconhecidos pela população. A constatação foi feita por alunos do curso de ciência política, que coordenados pelos professores Ricardo Caldas e Robson Pereira, entrevistaram 839 pessoas de diversas cidades do Distrito Federal.

Pesquisa da Universidade de Brasília (UnB) mostra que os órgãos de combate à corrupção no Brasil são desconhecidos pela população. A constatação foi feita por alunos da disciplina Teoria e Análise da Corrupção, do curso de graduação em ciência política. Coordenados pelos professores Ricardo Caldas e Robson Pereira, os estudantes entrevistaram 839 pessoas de diversas cidades do Distrito Federal. O estudo destaca que a sociedade não sabe com quais órgãos pode contar para denunciar a corrupção.

Os resultados da pesquisa revelam que a maioria dos entrevistados (55%) desconhece, por exemplo, as atribuições do Tribunal de Contas da União (TCU), o principal órgão de fiscalização do dinheiro e dos bens públicos. Algumas das competências do TCU são: apreciar as contas anuais do presidente da República; julgar as contas dos administradores e demais responsáveis por dinheiros, bens e valores públicos; apreciar a legalidade dos atos de admissão de pessoal e de concessão de aposentadorias, reformas e pensões civis e militares; fiscalizar a aplicação de recursos da União repassados a estados, ao Distrito Federal e a municípios, dentre outras. Dos entrevistados, entre os que conhecem o Tribunal, quase 40% não confiam no seu trabalho.

Já em relação à Controladoria Geral da União (CGU), órgão que responde pelo Brasil perante a Convenção das Nações Unidas contra a Corrupção (UNCAC), suas atribuições são desconhecidas por 68,4% dos entrevistados. Entre os 27,3% que têm noção do trabalho da CGU, 40,6% não acreditam na sua eficiência. A CGU é responsável por assistir ao presidente da República quanto aos assuntos que, no âmbito do poder executivo, sejam relativos à defesa do patrimônio público e ao incremento da transparência da gestão, por meio das atividades de controle interno, auditoria pública, prevenção e combate à corrupção.

De acordo com Robson Costa Pereira, presidente do grupo Cristãos Contra a Corrupção (Criscor) e um dos coordenadores do estudo, uma das premissas básicas de políticas públicas, a nível federal, é o conhecimento de um órgão e o reconhecimento de suas competências. Para divulgar seus trabalhos e resultados, os órgãos como o TCU e a CGU utilizam como meio principalmente a Internet, mas, segundo Pereira, os poucos que acessam os sites sentem dificuldades em encontrar informação básica com linguagem popular. “Para as grandes massas da sociedade civil, há muito pouco sendo feito para que os órgãos sejam conhecidos e respeitados. A população fica sabendo pela mídia o que está acontecendo, mas algumas informações são transmitidas de modo distorcido”, diz Pereira.

A pesquisa ainda revela que a falta de confiança em relação às instituições pode influenciar na maneira como é feita a fiscalização. “A cultura da corrupção sugere que mesmo o mais corrupto nunca assumirá. Por isso, a pesquisa também sugere que o serviço de fiscalização depende muito do relacionamento com a população. Grande parte de processos contra a corrupção são iniciados por indícios percebidos quase que por acaso (uma escuta, uma visita, etc). O que deveria acontecer é uma avalanche de denúncias sobre todo e qualquer tipo de corrupção para que estes órgãos entrassem em ação a partir da participação popular. Se não há confiança, não há interesse, se não houver interesse, não haverá denúncia”, afirma Pereira. As denúncias aos crimes de corrupção podem ser feitas de forma anônima, o que contribui para que as pessoas denunciem.

Após participar da recente cerimônia de posse do governador de São Paulo José Serra, no Palácio dos Bandeirantes, o ex-presidente Fernando Henrique Cardoso disse que o país assistiu, nos últimos dois anos, a um “descalabro” em relação à punição dos casos de corrupção, referindo-se à falta de punição em relação aos escândalos como o da “máfia das sanguessugas”. Já o presidente re-eleito, Luís Inácio Lula da Silva, no discurso de posse, afirmou que dentre as prioridades do governo nos próximos anos está o combate à corrupção.

A pesquisa da UnB mostra que, apesar do recente quadro de denúncias de corrupção na esfera pública do país, o brasileiro ainda tem esperança. A maioria (86,2%) acredita que o uso ilícito dos bens públicos pode ser combatido, principalmente pelo Ministério Público da União, a Polícia Federal e a própria sociedade civil. “Chegamos em um momento de amadurecimento, em que o povo percebeu que precisa participar mais do processo”, diz Pereira. Ele afirma que esse despertar da sociedade deve-se, principalmente, a uma profunda decepção com os três poderes que, ao invés de combaterem a corrupção, abrem espaço para ela.

Teóricos e analistas em corrupção

A matéria Teoria e Análise da Corrupção, da graduação em ciência política na UnB, aborda os temas mais recorrentes no estudo teórico da corrupção, como causas, conseqüências e custos gerados por ela. Os alunos trabalham com estudos de casos, comparando a experiência do Brasil no combate à corrupção com a de outros países. O analista político, ou cientista político, trabalha como um especialista na análise da conjuntura política para fornecimento de projetos de políticas públicas para autoridades governamentais ou para o setor privado. Os dados pesquisados por esses profissionais têm uma demanda importante, e muitas empresas estrangeiras fazem consultas a peritos brasileiros sobre o mercado e sobre a política antes de decidir investir no país.

Segurança garantida na Internet de quarta geração?

Os legisladores preocupados em estabelecer uma regulamentação específica para garantir a segurança na Internet precisam considerar que já está em desenvolvimento o que os especialistas em tecnologia da informação denominam “Internet de Quarta Onda”, viabilizada pela transmissão de informações em velocidades cada vez maiores.

Os legisladores preocupados em estabelecer uma regulamentação específica para garantir a segurança na Internet precisam considerar que já está em desenvolvimento o que os especialistas em tecnologia da informação denominam “Internet de Quarta Onda”. É aquela viabilizada pela transmissão de informações em velocidades cada vez maiores, em que o internauta poderá interagir à distância, isoladamente ou em grupos, por meios remotos, com equipamentos para realização de experiências. Por enquanto, tais recursos, ainda em desenvolvimento, têm seu uso restrito aos laboratórios. Mas a própria história da web aponta que mais cedo ou mais tarde, eles poderão abarcar o uso comum.

Como lembra o professor César Augusto Camillo Teixeira, coordenador do curso de engenharia de computação da Universidade Federal de São Carlos (UFSCar), a Internet nasceu de um projeto militar, justamente para aumentar a segurança e a disponibilidade de informações. Mas sua abertura e expansão acabaram atraindo a atenção de criminosos. Assim, não é preciso ser um grande roteirista de ficção científica para imaginar uma trama onde a possibilidade de interagir com máquinas à distância caia nas mãos de pessoas mal intencionadas. Ou aconteça (ou seja provocado) algum acidente dentro de um laboratório.

Na opinião de Wilson Ruggiero, professor da Escola Politécnica da USP e diretor do Laboratório de Arquitetura e Redes de Computadores (Larc), as mesmas técnicas para proteção de informações e transações bancárias podem ser aplicadas na Internet de quarta geração. Porém, imagina que numa rede de tão alta velocidade os mecanismos de segurança irão enfrentar desafios tecnológicos bastante mais complicados de serem superados do que foram os existentes até agora. “Os tempos serão muito reduzidos para se detectar e tomar providências no caso de uma fraude. Assim, a mesma tecnologia que possibilita uma ação de segurança mais efetiva, ao mesmo tempo ajuda os fraudadores!”, afirma.

No momento, o que existe de realidade é que os integrantes do projeto Tecnologia de Informação no Desenvolvimento de Internet Avançada (Tidia) vêm concebendo e implementando ferramentas para viabilizar o processo de virtualização de experimentos e para o ensino à distância. Segundo Teixeira, o desenvolvimento dessas atividades só foi possível porque a eficiência dos dispositivos eletrônicos e a qualidade dos softwares têm permitido que os atrasos sofridos por uma informação transmitida por redes de computadores caiam para valores imperceptíveis ao tempo de reação humana, possibilitando a transmissão de imagens de boa qualidade com atraso muito pequeno e viabilizando a realização de atividades remotas.

Para explicar a importância disso, ele usa como exemplo um jogo de tiro ao alvo no qual patinhos movimentam-se à frente do atirador para serem alvejados. Se a arma fosse controlada por um computador, o atirador só acertaria o alvo se a qualidade da imagem para fazer a mira fosse boa e o intervalo entre os acionamentos do gatilho fosse muito pequeno – ou pelo menos a variação do atraso na percepção da imagem.

Se o princípio fosse aplicado a uma experiência de condicionamento de ratos, em que os animais privados de água só a recebem se realizarem determinadas tarefas, ela só seria bem sucedida se a água fosse oferecida no tempo previsto, imediatamente após a ação esperada. Se a água demorar, o animal pode não cumprir a tarefa. Por isso, o gerenciamento deve ser cuidadoso, para evitar que um animal morra de sede por falhas na comunicação com o técnico presencial, a identificação do animal e/ou a especificação de tempo de privação de água.

As mesmas medidas de segurança aplicadas para experimentos presenciais devem ser adotadas nos de acesso remoto. Em alguns aspectos, o professor da UFSCar acredita que elas possam até ser mais brandas. No experimento com ratos, por exemplo, não seriam necessárias medidas para evitar que o aluno fosse mordido, ou em outros experimentos, fosse exposto à radiação. É claro que um software mal projetado pode implicar em acidentes e/ou prejuízos, mas para o professor, um simples software de supervisão seria o bastante para evitar o “muito mais provável erro humano”.

Teixeira acredita que os estudantes e pesquisadores que atuam à distância estão absolutamente seguros. Quem pode estar em perigo são eventuais técnicos necessários para a execução dos experimentos. Mas ele insiste em afirmar que sob a supervisão de um sistema computacional, os erros de alunos remotos são mais fáceis de serem detectados e suas ações abortadas. O sistema pode ser projetado para evitar que o aluno remoto provoque explosão num laboratório de química, por exemplo. Seria bem mais difícil promover essa mesma segurança se o aluno estivesse dentro do laboratório.

De acordo com Teixeira, não existem ainda experimentos em laboratórios remotos em escala suficiente para enfrentar tais problemas. Ele imagina que a maioria deles será referente a erros na automação dos equipamentos, permitindo que alunos estabeleçam valores inapropriados. Um exemplo seria um determinado líquido que não poderia ser aquecido por mais que cinco minutos, mas o programa permite que o aluno estabeleça qualquer duração. Por isso, ele defende que deve ser realizada uma análise rigorosa do sistema antes que seja colocado em produção, para que as falhas observadas possam ser corrigidas. Porém, adverte que os mesmos problemas aconteceriam se o aluno estivesse presente. “Talvez a única diferença, esta sim, bastante preocupante, é que à distância, o aluno pode se tornar mais ousado”, avalia.

Com relação à segurança externa, Ruggiero, da USP, sugere a implementação de mecanismos, protocolos e serviços de segurança que garantam o controle de acesso, que as informações sejam entendidas somente por pessoas autorizadas e sejam exatamente iguais às enviadas; que todos os participantes sejam autenticados e seja possível comprovar a autoria das ações. Ele defende ainda que informações pessoais ou institucionais somente sejam solicitadas em quantidade suficiente para que a transação possa ser executada.

O futuro à computação pertence

No seminário “Grandes Desafios da Pesquisa em Computação no Brasil 2006-2016”, promovido pela SBC no ano passado, e concebido de modo semelhante aos realizados nos EUA, Inglaterra e Coréia do Norte, foram definidas as “Grand Challenges” – mudanças necessárias capazes de afetar várias áreas do conhecimento nos próximos dez anos.

É difícil imaginar como será a sociedade brasileira daqui a dez anos. Especialmente quando se faz uma avaliação retrospectiva: “Dez anos atrás, a web apenas começava, os celulares eram caríssimos (e só serviam para telefonar!). Não havia Google, carros flex, a produção agrícola brasileira não chegava aos pés do que é hoje e ninguém falava sobre células-tronco. Hoje, reclamamos quando em um aeroporto não conseguimos nos conectar sem fio!”, aponta Cláudia Maria Bauzer Medeiros, presidente da Sociedade Brasileira da Computação (SBC).

A única certeza para ela é que os avanços – em engenharia, ciências agrárias, biologia e várias outras ciências – dependem muito de apoio computacional. “A computação está cada vez mais entranhada em nossa vida, podendo melhorá-la, mas também complicá-la – como no caso de vírus de computadores, que destroem sistemas ou paralisam bolsas de valores ou salas de operação”, avalia.

Entre os benefícios a serem trazidos pela computação, ela cita diagnósticos mais rápidos e precisos nos hospitais; a reorganização de arquivos e diminuição de fraudes na Previdência; e a agilização da tramitação de processos na Justiça. No entanto, afirma, tudo depende do usuário. Se ele não souber usar os serviços computacionais adequadamente, poderá até complicar a própria vida; se não lhe for garantido o acesso aos serviços, de nada adiantará desenvolver sistemas eficientes. Essas condições constituem desafios a serem enfrentados pela comunidade científica como um todo e pelos membros da SBC em particular. Estes entendem que a comunidade brasileira de computação precisaria ser mais pró-ativa e definir metas de longo prazo, como forma de contribuir para o desenvolvimento cientifico, tecnológico econômico e social do país.

Um primeiro passo foi o seminário “Grandes Desafios da Pesquisa em Computação no Brasil 2006-2016”, promovido pela SBC no ano passado, com o apoio da Fapesp e da Capes. Segundo Medeiros, o evento foi concebido de modo semelhante aos realizados nos EUA, Inglaterra e Coréia do Norte, nos quais foram definidas as “Grand Challenges” -mudanças necessárias capazes de afetar várias áreas do conhecimento, como a biologia e a química, entre outras, que vêm servindo para nortear as principais linhas de ação de pesquisa em tecnologia de informação nesses países desde 2002. Para ilustrar a importância do evento, Medeiros aponta que o financiamento da pesquisa em computação nos EUA e na Inglaterra, foi definido em 2001-2002 a partir de seminários como esse, e até hoje, as linhas de fomento nesses países se referem aos desafios traçados nesses eventos.

Os resultados foram tão importantes que no Brasil, os diretores da SBC têm sido chamados para apresentar palestra sobre os Grandes Desafios em diversos outros eventos, no país – como a reunião anual da SBPC, e no exterior, em fóruns científicos de outras áreas que querem estudar o modelo do evento. Um dos mais recentes foi o III Workshop Tidia – Programa de Tecnologia da Informação no Desenvolvimento da Internet Avançada -, realizado em novembro de 2006, em São Paulo.

Entre os objetivos dessas apresentações, Medeiros cita a ênfase em apontar novos problemas e sua multidisciplinaridade; conscientizar os responsáveis pelas políticas de financiamento acerca de problemas existentes e as soluções mais promissoras; e atrair mais cientistas, no Brasil, para estabelecerem parceria em projetos multidisciplinares.

As metas do decênio 2006-1016

Cinco temas foram definidos como os grandes desafios brasileiros que têm ligação com a realidade atual e apontam para grandes progressos para a sociedade como um todo: a gestão da informação em grandes volumes de dados multimídia distribuídos; a modelagem computacional de sistemas complexos artificiais, naturais e sócio-culturais e da interação homem-natureza; os impactos da transição do silício para novas tecnologias, na área da computação; o acesso participativo e universal do cidadão brasileiro ao conhecimento; e o desenvolvimento tecnológico de qualidade a partir da disponibilização de sistemas corretos, seguros, escaláveis, persistentes e ubíquos (ou seja, que se difundiu de forma universal).

Um exemplo das pesquisas que irão revolucionar o futuro e contribuir para a gestão da informação em grandes volumes refere-se à transição do silício. Como explica Medeiros, todos os chips atuais são feitos de silício e o problema está relacionado à miniaturização dos circuitos nos chips. De forma simplificada, o problema consiste em que há cada vez mais necessidade de velocidade de processamento, o que exige aumentar as funcionalidades de um chip, juntando mais componentes. Como o espaço é limitado e os componentes exigem energia, ao serem acionados, eles produzem calor. Tudo isso, combinado, cria limites para a miniaturização atual e para o número de componentes em um chip.

Uma das primeiras soluções encontradas foi distribuir os componentes em mais de um processador – a chamada tecnologia multicore, da qual se originaram computadores dual core. Outra alternativa foi desenvolver componentes não dependentes do silício, que não sofram o problema do calor dissipado. “Esta é a razão da transição/mudança de base tecnológica, para permitir desenvolver computadores com maior capacidade de processamento”, explica Medeiros. Entre as opções para essa mudança, uma das mais originais é a “máquina biológica”, que foge aos padrões de computação até hoje conhecidos e aproveita a capacidade das células de organismos vivos armazenarem informações!