9 de dezembro de 2009

Oscar da web nomeia dez maiores momentos da internet

Veja a lista dos 10 momentos mais influentes da internet na década:

1 - O site de classificados Craigslist se expande para além da cidade de San Francisco, nos Estados Unidos, em 2000, influenciando jornais em toda parte.

2 - Google lança o AdWords, em 2000, permitindo que anunciantes direcionem anúncios com extrema precisão.

3 - A enciclopédia aberta Wikipedia é lançada, em 2001; hoje, tem 14 milhões de artigos em 271 idiomas diferentes.

4 - O fechamento do Napster, em 2001, abre as portas a múltiplos serviços de troca de arquivos.

5 - A oferta pública inicial de ações do Google, em 2004, que colocou o serviço de buscas no caminho para influenciar incontáveis aspectos de nossas vidas cotidianas.

6 - A revolução do vídeo on-line em 2006, e seu boom de conteúdo caseiro e profissional na internet, mudando a cultura pop e a política.

7 - Facebook passa a aceitar usuários não universitários e Twitter decola, em 2006.

8 - Lançamento do iPhone, em 2007, faz dos celulares inteligentes mais que produtos de luxo, disponibilizando um aplicativo para quase todo aspecto da vida moderna.

9 - A campanha presidencial norte-americana de 2008, na qual a internet mudou todos os aspectos da condução de uma campanha eleitoral.

10 - Os protestos iranianos depois da eleição presidencial deste ano, quando o Twitter se provou vital para organizar manifestações e como veículo de protesto.

Bookmark and Share

2 de dezembro de 2009

Computação em nuvem no Brasil

No Brasil, a tecnologia de computação em nuvem ainda é muito recente, e muitas vezes fora da realidade das organizações de médio e pequeno porte, pois a infra-estrutura de telecom no país é ultrapassada. Os primeiros testes foram implementados em 2007, sendo que somente em 2008 começou a ser oferecido comercialmente.

A empresa Katri foi a primeira a desenvolver a tecnologia no Brasil (2002), batizando-a IUGU. Aplicada inicialmente no site de busca de pessoas físicas e jurídicas (Fonelista), durante o período que o mesmo esteve no ar, de 2002 a 2008, seus usuários puderam comprovar a grande diferença na velocidade em pesquisas proporcionadas pelo processamento paralelo.


A oferta desta tecnologia em língua portuguesa, sem custo, ainda é bastante modesta. A empresa Arth Informática disponibiliza atualmente um sistema baseado no eyeOS gratuitamente e oferece uma série de recursos aos usuários como: gerenciamento de arquivos, criação e edição de documentos e planilhas, criação de apresentações, tocadores de músicas, e vários outros, apelidado de *Arth OS.

Atualizando para 2009, a tecnologia tem evoluido muito e sistemas funcionais desenvolvidos no início da década, já passam de sua 3ª geração, incorporando funcionalidades e utilizando de tecnologias como Índices Invertidos (Inverted Index).

Bookmark and Share

1 de dezembro de 2009

Computação em nuvem

          Computação em nuvem, entende-se pelo conjunto de serviços acessíveis pela internet que visam fornecer os mesmos serviços de um sistema operacional. Esta tecnologia consiste em compartilhar ferramentas computacionais pela interligação dos sistemas, semelhantes as nuvens no céu, ao invés de ter essas ferramentas localmente (mesmo nos servidores internos). O uso desse modelo (ambiente) é mais viável do que o uso de unidades físicas.
 Um problema originado dentro das corporações é o alto custo com Tecnologia da Informação (TI). “As organizações de TI gastam hoje 80% de seu tempo com a manutenção de sistemas e não é seu objetivo de negócio manter dados e aplicativos em operação. É dinheiro jogado fora, o que é inaceitável nos dias de hoje”, defende Clifton Ashley, diretor do Google para a América Latina. Dentro desse contexto, o PC será apenas um chip ligado à internet, a "grande nuvem" de computadores. Não há necessidade de instalação de programas, serviços e armazenamento de dados, mas apenas os dispositivos de entrada (teclado, mouse) e saída (monitor) para os usuários. Em um sistema operacional disponível na internet, pode-se, a partir de qualquer computador, em qualquer lugar, ter acesso às informações, arquivos e programas em um sistema único, independente de plataforma (o requisito mínimo é um computador compatível com os recursos disponíveis na internet). Uma arquitetura em nuvem é muito mais que apenas um conjunto (embora massivo) de computadores. Ela deve dispor de uma infra-estrutura para gerenciamento, que inclua funções como aprovisionamento de recursos computacionais, equilíbrio dinâmico do workload e monitoração do desempenho.

Bookmark and Share

30 de novembro de 2009

Protocolos

Protocolos são programas e devem ser instalados em componentes de rede que precisam deles. Computadores só podem comunicar-se entre si se utilizarem o mesmo protocolo. Se o protocolo usado por um computador não for compatível pelo usado em outro, eles não podem trocar informações. Uma variedade de protocolos está disponível para uso em sistemas de rede fechados (como Novell Netware).

TIPOS DE PROTOCOLOS

Dois tipos de protocolos existem hoje: abertos e específicos.

Protocolos Abertos
Protocolos abertos são protocolos feitos para o padrão da indústria. Eles se comunicam com outros protocolos que utilizam o mesmo padrão. Um protocolo aberto não possui dono e todos os sistemas podem fazer implementações livremente. Um ótimo exemplo do que é um protocolo aberto é o TCP/IP (Transfer Control Protocol / Internet Protocol). Ele é composto por muitos outros protocolos e está implementado em muitos sistemas (como Macintosh, Windows, Linux, Unix, etc...). O TCP/IP é o protocolo padrão da Internet.

Protocolos Específicos
Protocolos específicos são feitos para ambientes de redes fechados e possuem donos. Como é o caso do IPX / SPX que foi desenvolvido especificamente para a estrutura Novell Netware.

TIPOS DE TRANSMISSÃO DE DADOS

Protocolos roteáveis permitem a transmissão de dados entre diversos segmentos de uma rede. O problema é que o grande volume de certo tipo de tráfego (como executar uma aplicação multimídia pesada) deixa a velocidade de conexão muito lenta. A quantidade de tráfego gerada em uma rede, pode ser de três tipos: Unicast, Broadcast e Multicast.

Unicast
Em uma transmissão unicast, uma cópia separada dos dados são enviados de sua origem para cada computador cliente que os requeste. Nenhum outro computador na rede precisa processar o tráfego gerado. No entanto, em uma rede com muitos computadores o unicast não é muito eficiente pois o computador de origem terá que transmitir múltiplas cópias dos dados (resultado, ficará lento). O unicast é bom de ser usado apenas em pequenas redes.

Broadcast
Esse é o tipo de transmissão preferido da turma que gosta de um Denial of Service. Nesse tipo de transmissão, os dados são enviados apenas uma vez mas para toda a rede. Esse processo não é muito eficiente pois faz a velocidade cair bastante já que todos os computadores irão receber os dados. Mesmo os hosts que não fizeram o pedido receberão os dados. Somente não irão processá-los. Esse método é utilizado no ataque de smurf, em que é enviado um broadcast para diversos endereços IP e o endereço de origem (que deveria ser o IP de quem enviou) é modificado para o da vítima. Resultado: centenas de máquinas mandarão milhares de unicasts para um pobre coitado.

Multicast
É uma mistura dos dois. É enviada apenas uma cópia dos dados e somente os computadores que fizeram o pedido os recebem, assim evitando de se causar um tráfego muito intenso e consequentemente um congestionamento na rede. Muitos serviços de Internet usam multicast para se comunicar com computadores clientes (quando se diz cliente , é o computador que faz o pedido, que espera uma resposta). Inclusive é nesse tipo de comunicação que se baseia o protocolo IGMP.

Bookmark and Share

29 de novembro de 2009

USP inaugura centro de aproveitamento de lixo eletrônico

Em dezembro, o Centro de Computação Eletrônica (CCE) da USP irá inaugurar o Centro de Descarte e Reúso de Resíduos de Informática (Cedir), organizado para receber e enviar para reciclagem o lixo eletrônico produzido pela USP. Desde 2007, o CCE possui um Programa de Sustentabilidade que visa o reaproveitamento de materiais de informática como computadores, teclados, monitores, cabos, entre outros. Em junho de 2008, o Programa recolheu mais de 5 toneladas de lixo eletrônico oriundo apenas do CCE. "Verificamos então que o lixo eletrônico valia muito pouco. Alguma coisa devia estar errada", explica a professora Tereza Cristina Melo de Brito Carvalho, diretora do CCE.

Aproveitamento financeiro do lixo eletrônico
No início de 2009 iniciou-se uma pesquisa extensa sobre o assunto onde se constatou que as empresas de reciclagens trabalham com materiais especializados, plásticos, metais, placas, entre outros. Portanto cada empresa tem processos industriais estabelecidos para tratar apenas alguns poucos tipos de material e acabam descartando o resto. Um exemplo seria o teclado de um computador que se vendido a uma empresa de reciclagem de plástico, todo o restante, como placas e fios, seria descartado. O Cedir surge nesse contexto visando um melhor aproveitamento financeiro e tecnológico do lixo eletrônico.

Triagem do lixo
A professora Tereza explica que a entrega do lixo eletrônico pelas unidades da USP será feita num processo de agendamento. No caso das unidades do interior, os campi de Piracicaba, Ribeirão Preto e São Carlos já estão aptos a receber a sucata eletrônica por intermédio dos seus Centros de Informática. Assim que o Cedir, no caso de São Paulo, ou os Centros de Informática, recebem o material entregue pelas unidades, a primeira verificação feita é se eles operam ou não. No caso positivo, verifica-se a funcionalidade do equipamento, ou seja, se o resíduo eletrônico não está obsoleto. "Se o computador não tem utilidade nenhuma, mesmo que ele esteja operando, é considerado lixo eletrônico." Os computadores que operarem e forem funcionais serão emprestados por um período de dois anos para projetos sociais, tempo em que o material provavelmente completará seu ciclo de vida útil.

Destruição das informações digitais
Tudo aquilo que já não puder ser aproveitado no momento da entrega ao Cedir passará por um minucioso processo de classificação. Os equipamentos serão pesados, desmontados e os componentes serão separados de acordo com o tipo de material. Após a separação tudo será descaracterizado, ou seja, CDs e discos rígidos, por exemplo, serão destruídos para que as informações não sejam aproveitadas. Feito isso, o lixo eletrônico será compactado e acondicionado e enviado para as empresas de reciclagem que transformarão esses resíduos em matéria-prima para a indústria.

Ações futuras e pioneirismo
Num primeiro momento o Cedir atenderá as doações de lixo eletrônico apenas da USP, mas no futuro, comenta a professora Tereza, o projeto deve estender-se a toda a sociedade. Tereza ainda destaca que este é o primeiro projeto dessa natureza numa entidade pública no Brasil e que sua contribuição social compreende o suporte a projetos sociais e à conscientização sobre a importância do destino final correto aos eletroeletrônicos. "É um projeto que atende um vínculo social, mas também possui um viés fomentador de novas indústrias".

Bookmark and Share

28 de novembro de 2009

Características de um sistema inseguro

A segurança de sistemas existe por um conjunto de fatores. Engana-se quem pensa que somente por utilizar uma plataforma Unix ao invés de Windows está seguro. Ou que é só colocar um anti-vírus e um firewall na sua empresa que está tudo bem. A proporção do problema é bem maior. Geralmente os sistemas mais vulneráveis da rede possuem dois pontos em comum:

Administrador
O ponto chave e essencial para qualquer sistema de computador é o administrador. Ele é responsável por fazer com que tudo corra perfeitamente. Checa os dados, administra usuários, controla servidores, checa logs, tudo todos os dias. Acontece que a grande maioria dos administradores hoje não se preocupa com a segurança como deve. Logo terá problemas com o seu sistema, não importa qual seja. É como se fosse mãe e filho. Se uma mãe alimenta seu filho, cuida dos seus deveres de casa, compra roupas novas, dá brinquedos mas não é capaz de comprar um seguro de vida, ou pior, zela tão pouco pela segurança dele que ao sair de casa deixa as portas ou janelas abertas. Essa não pode ser uma boa mãe. Mesmo que uma rede utilize um sistema operacional que contenha muitas falhas, os bons administradores todo dia estarão checando por falhas descobertas e corrigindo-as. Já os outros provavelmente vão ficar em algum chat comendo sanduíches.

Sistemas operacionais
Como eu disse anteriormente, não há realmente um sistema que seja melhor que o outro. Existem vantagens e desvantagens de cada um. Tudo bem que alguns possuem erros muitos grandes, mas podem facilmente ser corrigidos. A intenção do sistema também importa. Não adianta ter uma rede e utilizar Windows 98 ou ME. Os recursos de segurança deles são muito escassos, pois foram feitos para o usuário comum e não para o ambiente empresarial. Não adianta também instalar o Digital Unix, FreeBSD ou AIX se o seu administrador só possui experiência em Lantastic. O sistema também vai depender do tipo de rede que você terá. Se você terá um servidor Web ou algum tipo de acesso externo, seria melhor utilizar o Linux ou o Windows NT. Se for uma rede interna somente, utilize Novell Netware, que ainda não fez a sua história quanto à Internet, mas ainda é insuperável nas redes locais.

Bookmark and Share

27 de novembro de 2009

O que é a ABNT NBR ISO 9001?

A ABNT NBR ISO 9001 é a versão brasileira da norma internacional ISO 9001 que estabelece requisitos para o Sistema de Gestão da Qualidade (SGQ) de uma organização, não significando, necessariamente, conformidade de produto às suas respectivas especificações. O objetivo da ABNT NBR ISO 9001 é lhe prover confiança de que o seu fornecedor poderá fornecer, de forma consistente e repetitiva, bens e serviços de acordo com o que você especificou.
A ABNT NBR ISO 9001 não especifica requisitos para bens ou serviços os quais você está comprando. Isto cabe a você definir, tornando claras as suas próprias necessidades e expectativas para o produto. Sua especificação pode se dar através da referência a uma norma ou regulamento, ou mesmo a um catálogo, bem como a anexação de um projeto, folha de dados,
etc.

Bookmark and Share

26 de novembro de 2009

Lixo eletrônico: o outro lado da Era da Tecnologia

O avanço tecnológico vem de forma crescente agregando agilidade nos processos cotidianos, melhorando a qualidade de vida do ser humano, porém as novidades tecnológicas motivam as pessoas a classificarem seus aparelhos como desatualizados. No entanto, a aquisição e a forma incorreta e/ou inconsciente de descartes destes aparelhos eletroeletrônicos causam danos ao meio ambiente e aos seres humanos, pois parte destes possui materiais tóxicos.



Algumas iniciativas estão sendo tomadas, porém a omissão da legislação brasileira em relação à regulamentação para o correto descarte da produção dessa nova modalidade de lixo vem contribuindo para a degradação do meio ambiente, mas no Brasil, não há legislação nacional que define critérios para a reciclagem e o tratamento de resídios eletrônicos. Para o Estado de São Paulo foi publicado em julho de 2009 a Lei 13.576 que institui normas e procedimentos para a reciclagem, gerenciamento e destinação final de lixo tecnológico.


Bookmark and Share

25 de novembro de 2009

O Que fazem os Antivírus?

Os sistemas de antivírus realizam basicamente 3 funções: detectar, identificar e remover vírus. A detecção é feita de forma pró-ativa, ativa e reativa. Isto é, um vírus é detectado antes de ser executado, durante a execução e após a execução. Existem 3 categorias de detecção:
  • Detecção estática – examina executáveis sem executá-los. Podem ser usados para detectar código infectado antes deste ser introduzido no sistema;
  • Detecção por interceptação – para se propagar, um vírus deve infectar outros programas que servirão de hospedeiros. Alguns sistemas de detecção servem para interceptar a execução destes tipos de atividades. As ferramentas que fazem este tipo de detecção interrompem a execução de programas infectados assim que o vírus tenta se replicar ou se tornar residente;
  • Detecção de modificação – todos os vírus causam modificação de executáveis em seu processo de replicação. Como conseqüência, a presença de vírus pode ser detectada através de busca de modificações não esperadas em arquivos executáveis. Este processo também é chamado de teste de integridade. Cabe ressaltar que este tipo de detecção só funciona após o executável infectado ter sido introduzido no sistema e o vírus já tiver sido replicado.
Ferramentas de identificação são usadas para identificar quais vírus infectaram um executável específico. Isto permite ao usuário obter informação adicional sobre o vírus. Esta é uma prática útil, uma vez que ela pode fornecer indícios sobre outros tipos de danos. Ferramentas de remoção tentam restaurar de modo eficiente o sistema para o seu estado não infectado através da remoção do código que contém o vírus que está anexado ao arquivo executado. Em muitos casos, uma vez que o vírus foi detectado, ele é encontrado em vários executáveis em um mesmo sistema. Existem no mercado vários produtos antivírus usando as técnicas descritas acima. Estes produtos podem fazer atualizações automáticas à medida que a base de vírus é incrementada com novas descobertas (novos vírus ou novas variantes). A aquisição do antivírus correto é extremamente crítica para uma organização.

Bookmark and Share

24 de novembro de 2009

O Que são Vírus?

O que comumente chamamos de vírus são pequenos programas que, por definição, não funcionam por si só sendo criados para infectar um arquivo executável ou arquivos que utilizam macros, ou seja, ficam geralmente escondidos dentro da série de comandos de um programa maior, e possuem instruções para parasitar e criar cópias de si mesmo de forma autônoma e sem autorização específica (e, em geral, sem o conhecimento) do usuário para isso, através do acesso ao seu catálogo de endereços, sendo, portanto, autoreplicantes.
Além da característa auto-replicante, podem causar muitos problemas ao computador, podendo, por exemplo, diminuir o desempenho do sistema, alterar ou deletar determinados arquivos, mostrar mensagens, formatar drives, tornar o computador acessível à distância. Além disso, determinados tipos podem começar a agir a partir de eventos ou condições que seu criador pré-estipulou tais como quando atingir uma determinada data do calendário, ou depois que um determinado programa rodou um número específico de vezes, ou através de um comando específico, entre outros. Existem muitos tipos diferentes de vírus auto-replicantes e todos os dias são lançados pelo menos 25 novos vírus de macro, cada vez mais sofisticados e prejudiciais. Para infectar uma máquina, um vírus pode ser repassado através de documentos, programas, disquetes, arquivos de sistemas, entre outros, previamente infectados. Arquivos executáveis, tais como os de extensão: .exe, .bat e .com, geralmente são os alvos preferidos para transmissão, por isso, deve-se evitar envia-los ou recebê-los. Alguns tipos de vírus:
  • Vírus de Programa;
  • Vírus de Macro;
  • Vírus Multipartite;
  • Vírus Stealth;
  • Vírus Polimórficos;
  • Vírus de Boot;

Bookmark and Share

23 de novembro de 2009

Internet via rede elétrica

          A Internet via rede elétrica poderá favorecer a inclusão digital, reduzir as contas de energia e ampliar competitividade das empresas que prestam serviços de Internet. Mas a regulamentação do Power Line Comunications (PLC), nome dado à transmissão de dados digitais pela malha de distribuição, pode não estar formulada de modo a garantir que todos os resultados previstos sejam alcançados. Dentre as discussões, a principal questão levantada pelos agentes do setor é que justamente às regras de acesso a este mercado podem limitar o interesse das distribuidoras de energia em disponibilizar sua rede para oferecer o serviço. A Resolução Normativa nº 375/2009 da Agência Nacional de Energia Elétrica (Aneel), de 25 de agosto deste ano, estabelece as diretrizes para o uso compartilhado da rede elétrica com a transmissão de dados. A regulamentação organiza a forma como as 64 distribuidoras de energia do país podem disponibilizar sua rede para o serviço de Internet. Contribuir para a modicidade tarifária e a democratização do acesso ao mundo digital são as bases motivadoras do novo modelo regulatório, explica o assessor da Superintendência de Regulação dos Serviços de Distribuição da Aneel, Carlos Alberto Mattar. O serviço público com maior cobertura no país é a rede elétrica e sua capilaridade permitiria acesso à Internet superior às demais tecnologias. Atualmente, 95% do território nacional é provido de rede de distribuição, devendo passar para 100% até o fim de 2010, com o programa de eletrificação rural Luz para Todos.
          Discussões - A medida pode ser vista por dois prismas, na consideração do presidente da Associação de Empresas Proprietárias de Infraestrutura e de Sistemas Privados de Telecomunicações (APTEL), Pedro Jatobá: Pela Agência Nacional de Telecomunicações (Anatel), do ponto de vista de reconhecer a tecnologia como forma viável de transmissão de dados e pela Aneel, como metodologia para permitir o uso da infraestrutura. Mas reconhece que o fato de a empresa de energia não poder usar a própria rede, está gerando muitos questionamentos. Enquanto a Anatel regulamentou o uso do serviço de Telecomunicação, a Aneel tratou de regularizar a forma como a distribuidora de energia irá compartilhar a sua rede. Conforme regras do setor elétrico, a empresa de distribuição não está autorizada a efetuar o serviço, devendo para isso, criar uma subsidiária para atuar na área de telecomunicações. Pelo setor elétrico, a iniciativa somaria pontos ao contribuir com a modicidade tarifária, ou seja, descontando nas contas de energia do consumidor comum o abatimento de parte do lucro. Segundo Mattar, dos recursos que a distribuidora de energia obtiver, com o aluguel de sua rede, 90% devem ser usados para reduzir as tarifas de energia. Mattar explica que até o momento não é possível projetar uma redução nas tarifas de energia que o uso do PLC deverá proporcionar, tampouco projetar a expansão real deste mercado. Esses dados serão colhidos e mensurados no 3º ciclo de revisão tarifária, que começa em abril de 2011, onde as empresas que disponibilizarem o serviço apresentarão os percentuais abatidos.
          A projeção de queda nas tarifas de energia é menos otimista para o coordenador do programa de PLC da Companhia Paranaense de Energia Elétrica (Copel), Orlando César de Oliveira. Ele exemplifica com demais empresas de telefonia e TV a cabo, que passaram a oferecer o serviço de Internet banda larga, mas não resultou em redução das tarifas do serviço nas contas do serviço base. Ele ainda sinaliza para o fato de a distribuidora de energia não poder usar o seu serviço, devendo concorrer com demais players interessados no aluguel da rede, que ocorrerá na forma de leilão onde a empresa que oferecer o maior lance, ganha. “Se a própria Copel Telecom quiser oferecer o serviço, deverá pagar a sua distribuidora pelo uso da rede da Copel?”, indaga. A distribuidora de energia só pode fazer uso do PLC no próprio serviço de distribuição – como telemedição corte e ligamento à distância, entre outros -, projetos experimentais, científicos ou de cunho social. O presidente da APTEL considera que o percentual de retorno financeiro e o fato da empresa distribuidora não ter acesso ao uso de sua própria rede, pode gerar um desestímulo às distribuidoras de energia, que poderão resguardar sua rede para uso próprio. Ele argumenta que a regulamentação em si é um avanço em relação ao país não ter nenhuma ação relativa ao PLC, mas para a expansão da tecnologia, ela não será favorável. Oliveira ressalta que à época da expansão da fibra ótica, que criou oportunidades para empresas de todo mundo, ainda nos anos 90, foi pouco aproveitado pelo mercado brasileiro, mesmo não havendo nenhuma regra de impedimento. Se o PLC possui regras que dificultam a ação das distribuidoras, certamente a aderência será menor.
          De acordo com a diretora-geral das empresas de telecom do Grupo AES no Brasil, Teresa Vernaglia, o método realmente traz vantagens, como a facilidade de instalação, banda simétrica – mesma velocidade para upload e dowload -, e mobilidade, já que o usuário pode usar em qualquer tomada da residência. Ela acredita que mercado de banda larga é sabiamente crescente no Brasil e o PLC deverá ser mais uma alternativa tecnológica para esse crescimento. Concorrência - A Aneel informa em seu hotsite sobre o PLC que a tecnologia também deverá resultar em uma queda no preço do serviço de Internet, pois será mais uma opção de se obter o serviço, ampliando a competitividade do setor. A agência não terá nenhuma responsabilidade em relação a formação de preços nesse mercado, assegurou Mattar, o que deverá ser definido entre a empresa e o cliente. Como na concorrência pelo aluguel da rede, ganha quem der o maior lance, Oliveira alerta para a possibilidade de as empresas que já dominam o mercado de Internet no Brasil oferecerem os maiores prêmios, somente para não perder espaço para outros concorrentes. Outra possibilidade é do lance elevado ser repassado para o consumidor final, onerando a tarifa e inviabilizando a expansão do PLC. Sobre esse aspecto, Jatobá considera que deverá prevalecer a estrutura de concorrência do mercado. Se a empresa oferecer um serviço de Internet caro, certamente perderá espaço para os concorrentes e seu serviço ficará inviável. “Se as empresas não podem usar a própria infra-estrutura, deverão resguardar para uso próprio”. Modelo – De acordo com Oliveira, a metodologia aplicada para o PLC no Brasil, difere dos moldes feitos no resto do mundo, onde é mais comum encontrar sistemas públicos, tanto na distribuição de energia quanto da telefonia, o que realmente gera uma maior competitividade e queda de preços.

Bookmark and Share

22 de novembro de 2009

Engenharia Social

É o ato de forjar, enganar pessoas e sociedades a respeito de algum assunto a fim de se aproveitar, lucrar ou apropriar de direitos alheios. Serve para a obtenção de informações importantes de uma empresa, através de seus usuários e colaboradores por meio da ingenuidade ou confiança. Estes ataques geralmente são realizados através de telefonemas, correio eletrônico, salas de bate-papo e até mesmo pessoalmente. Ou segundo um dos maiores hackers já vistos até hoje, que ficou conhecido por diversas invasões, sendo a primeira conhecida a computadores da NSA, que é a Agência de Segurança Nacional dos Estados Unidos, Kevin Mitnick:

“É um termo diferente para definir o uso de persuasão para influenciar as pessoas a concordar com um pedido”

Geralmente o engenheiro social é um tipo de pessoa agradável. Ou seja, uma pessoa educada, simpática, carismática. Mas, sobretudo criativa, flexível e dinâmica. Possuindo uma conversa bastante envolvente. Embora existam inúmeros “engenheiros sociais” espalhados pelo mundo, exercendo propositalmente esta arte para o bem ou para o mal, assim como pessoas que mesmo sem o conhecimento prévio desta designação, já cometeram o ato de engenharia social, de alguma forma ocasionalmente em suas rotinas diárias. Este tipo de ataque se apega a fatores emocionais e amorosos, confundindo assuntos profissionais e pessoais e se aproveitando da atração afetiva.

Bookmark and Share

21 de novembro de 2009

Assinatura Digital

Um recurso conhecido por Assinatura Digital é muito usado com chaves públicas. Trata-se de um meio que permite provar que um determinado documento eletrônico é de procedência verdadeira. O receptor da informação usará a chave pública fornecida pelo emissor para se certificar da origem. Além disso, a chave fica integrada ao documento de forma que qualquer alteração por terceiros imediatamente a invalide. É importante frisar que assinatura digital não é o mesmo que assinatura digitalizada. Esta última consiste em uma assinatura feita à mão por um indivíduo que depois é capturada por scanner e incluída em documentos.

Bookmark and Share

20 de novembro de 2009

Segurança da Informação: O Que é?

O ativo mais valioso para uma organização ou pessoa é a informação. Este grande diferencial competitivo então deve estar disponível apenas para as pessoas de direito. Elaborar e garantir critérios que protejam estas informações contra fraudes, roubos ou vazamentos nas empresas são responsabilidades e habilidades dos gestores e analistas de segurança da informação. As atividades de segurança da informação englobam o desenho, implementação, controle e monitoração de métodos e processos que visam assegurar os ativos de informação de uma organização ou pessoa.
Sua atuação numa empresa está diretamente envolvida com as áreas de negócio, principalmente com a área de tecnologia, uma vez que esta sustenta a maioria dos processos de negócio da empresa. A sinergia da área com os projetos e departamentos da organização é caráter fundamental para a boa prática da segurança da informação no ambiente corporativo. Para desenvolver uma política e uma cultura de segurança da informação, a TI precisa antes garantir a entrega dos recursos e da informação para os usuários, além de mantê-los íntegros e confidenciais.
As informações de negócio de uma organização estão dispostas em um complexo ecossistema formado por processos de negócio, pessoas e tecnologia. Para garantir a continuidade do negócio de uma organização, é preciso assegurar que cada membro deste ecossistema esteja em conformidade com normas internas criadas pela própria organização e normatizações externas, nacionais e internacionais. Vamos apresentar aqui um conjunto de boas práticas de mercado que ajuda a manter todos os recursos disponíveis e seguros para as tomadas de decisão da organização. Cada organização tem seu core businness e para cada um podemos olhar e encontrar particularidades que devemos trabalhar para garanti-las também. Mas o principal objetivo nunca muda e em todos os programas de desenvolvimento de uma política e cultura de segurança da informação vamos encontrar estes três itens:
  • Garantir disponibilidade dos recursos/informação;
  • Garantir integridade da informação;
  • Garantir confidencialidade da informação.

Bookmark and Share

19 de novembro de 2009

Projeto de Lei nº. 607/2007

No último dia 19 de agosto, o projeto de lei 607 recebeu mais um parecer favorável, agora da Comissão de Constituição, Justiça e Cidadania e caminha mais um passo em direção à votação no Plenário. Este projeto de lei visa regulamentar a profissão de analista de sistemas, cria o Conselho Nacional e Conselhos Regionais de Informática, sendo que os profissionais deverão obrigatoriamente ser associados aos conselhos com pagamento de anuidade. As atividades profissionais que serão regulamentadas por este projeto de lei são:
  • planejamento, coordenação e execução de projetos de sistemas de informação, como tais entendidos os que envolvam o processamento de dados ou utilização de recursos de informática e automação;
  • elaboração de orçamentos e definições operacionais e funcionais de projetos e sistemas para processamento de dados, informática e automação;
  • definição, estruturação, teste e simulação de programas e sistemas de informação;
  • elaboração e codificação de programas;
  • estudos de viabilidade técnica e financeira para implantação de projetos e sistemas de informação, assim como máquinas e aparelhos de informática e automação;
  • fiscalização, controle e operação de sistemas de processamento de dados que demandem acompanhamento especializado;
  • suporte técnico e consultoria especializada em informática e automação;
  • estudos, análises, avaliações, vistorias, pareceres, perícias e auditorias de projetos e sistemas de informação;
  • ensino, pesquisa, experimentação e divulgação tecnológica;
  • qualquer outra atividade que, por sua natureza, esteja incluída no âmbito de suas profissões.

Para exercer a profissão de analista de sistemas no país, os interessados devem ter diploma de nível superior em Análise de Sistemas, Ciência da Computação ou Processamento de Dados ou ter no mínimo 5 anos de experiência na função de analista de sistemas comprovadas até a data de entrada em vigor desta Lei. Grandes profissionais do mercado que são engenheiros, físicos, administradores de empresa, entre outras formações, deverão ter que comprovar experiência. Empresas de informática deverão certificar que seus funcionários são associados ao conselho, caso contrário sofrerão penalidades, assim como profissionais que prestarem os serviços listados e não foram registrados no Conselho.

Bookmark and Share

18 de novembro de 2009

O que fazer para se proteger contra a primeira falha do Windows 7

Um novo exploit descoberto na sexta-feira (13/11) pela Microsoft tem capacidade para travar o sistema Windows 7. Classificada como uma falha de Zero Day (vulnerabilidade explorada antes que seja encontrada uma solução), este bug encontra-se no Server Message Block (SMB), um protocolo criado pela empresa que forma o backbone de compartilhamento de arquivos do Windows.

Mas como o erro só pode ser explorado para incapacitar um computador, e a vulnerabilidade não permite a instalação de códigos maliciosos no Windows 7, é muito provável que hackers não utilizem esta falha para atacar.

De qualquer forma, você pode minimizar os riscos ao bloquear o tráfego SMB em seu roteador ou firewall, evitando que ameaças externas possam atacar seu sistema e sua rede.

Por Tony Bradley, PC World/EUA

Bookmark and Share

17 de novembro de 2009

Código de Ética na Computação

Um dos códigos de ética da área de computação mais bem elaborado é o da Sociedade Americana Association for Computing Machinery (ACM), que congrega profissionais e acadêmicos da área de computação em todo o mundo. O código da ACM foi elaborado no início da década de 1990 (Anderson, 1992). Trata-se de um código pioneiro em definir e apresentar de forma objetiva os principais pontos da ética nesta área.

O código da ACM (Association for Computing Machinery) é também bastante genérico. Ele estabelece para os membros, entre outras coisas, "esforçar-se para conseguirem alta qualidade, efetividade e dignidade nos processos e produtos do trabalho profissional", "adquirir e manter competência profissional" e "fornecer avaliações sobre sistemas computacionais e seus impactos, de forma compreensiva e minuciosa, incluindo análise de possíveis riscos".

Avaliar o poder de códigos endossados por organizações profissionais leva a uma interessante questão: uma empresa deve adotar um código de ética desenvolvido por determinada organização ou deveria criar o seu próprio código? Afinal, empresas podem desempenhar um importante papel na disseminação de um senso de responsabilidade e integridade profissional entre seus funcionários.

Bookmark and Share

16 de novembro de 2009

Profissão: Analista de Sistemas

O analista de sistemas ou atualmente mais conhecido como sistematizador de informações, é aquele que tem como finalidade realizar estudos de processos computacionais para encontrar o melhor e mais racional caminho para que a informação virtual possa ser processada. Este profissional estuda os diversos sistemas existentes entre hardwares (equipamento) e softwares (programas) e o usuário final, incluindo seus comportamentos e aplicações. A partir dessa conexão, desenvolve soluções que serão padronizadas e transcritas da forma que o computador possa executar. Os profissionais da área criam programas, que são executados em hardwares operados por usuários, preparados e treinados em procedimentos operacionais padronizados. Assim, cabe ao analista de sistemas, parte da organização, implantação e manutenção de aplicativos e redes de computadores.

Qual a formação necessária para ser analista de sistemas?

Até alguns anos atrás, o estudante que desejasse trabalhar com análise de sistemas, deveria prestar vestibular selecionando a opção Análise de Sistemas - Bacharelado, com duração média de 4 anos. Porém, com surgimento de novos cursos mais específicos que melhor preparam o profissional a estar apto na área em que deseja trabalhar, o curso de análise de sistemas foi ficando escasso em diversas universidades, sendo substituído por Sistemas de Informação (o mais comum), Ciências da Computação, Ciências da Informação, entre outros. Estes cursos que têm duração média de 4 anos e se relacionam entre si contemplam durante a graduação os seguintes assuntos: teoria de sistemas ou subsistemas interconectados que utilizam equipamentos na aquisição, armazenamento, manipulação, gestão, controle, troca, no intercâmbio, na transmissão, ou na recepção da voz e/ou dos dados, além de disciplinas mais gerais, porém que proporcionam a compreensão das atividades como a matemática, por exemplo.

Áreas de atuação e especialidades

Com o maior desenvolvimento tecnológico, abriu-se um leque de atividades em que um analista de sistemas pode atuar. Entre eles, as principais áreas de atuação deste profissional são como:
  • Projetista e Engenheiro de Software
  • Administrador de Banco de Dados
  • Analista de Sistemas
  • Consultor de tecnologias, tanto de hardware, de software ou de processos informatizados
  • Gerente da área/empresa tecnológica
  • Gerente/Administrador de Redes de pequeno e médio porte
  • Apoio ao desenvolvimento de Projetos Pedagógicos e atuação como docente no ensino da informática
  • CIO - Chief Information Officer - Responsável por gerenciar a informação na empresa
  • CTO - Chief Technology Officer - Responsável por gerenciar a tecnologia da informação na empresa

Bookmark and Share

15 de novembro de 2009

Entenda o que é a Web 2.0

O termo Web 2.0 é utilizado para descrever a segunda geração da World Wide Web --tendência que reforça o conceito de troca de informações e colaboração dos internautas com sites e serviços virtuais. A idéia é que o ambiente on-line se torne mais dinâmico e que os usuários colaborem para a organização de conteúdo. Dentro deste contexto se encaixa a enciclopédia Wikipedia, cujas informações são disponibilizadas e editadas pelos próprios internautas. Também entra nesta definição a oferta de diversos serviços on-line, todos interligados, como oferecido pelo Windows Live. Esta página da Microsoft, ainda em versão de testes, integra ferramenta de busca, de e-mail, comunicador instantâneo e programas de segurança, entre outros. Muitos consideram toda a divulgação em torno da Web 2.0 um golpe de marketing. Como o universo digital sempre apresentou interatividade, o reforço desta característica seria um movimento natural e, por isso, não daria à tendência o título de "a segunda geração". Polêmicas à parte, o número de sites e serviços que exploram esta tendência vem crescendo e ganhando cada vez mais adeptos.

Bookmark and Share

14 de novembro de 2009

Crackers conseguem ativar o Windows 7

Um grupo de crackers descobriu uma nova forma de ativar versões ilegais do Windows 7 e do Windows Server 2008 R2. A técnica permite que usuários acessem todas as funções do sistema sem a necessidade de utilizar a chave de ativação que acompanha as cópias originais do produto.
Segundo o My Digital Life, o crack é similar ao utilizado para burlar o recurso de ativação do Windows Vista, que já foi corrigido pela Microsoft na versão. O problema é que o Win 7 apresenta o mesmo problema que, segundo a MS, deve receber atenção em breve. “Nós já estamos sabemos do problema e estamos trabalhando e sua solução”, afirmou um representante da empresa de Redmond ao site The Register.

O crack funciona anulando o arquivo conhecido como sppcompai.dll, que invalida a ação do Windows Activation Technologies, Software Protection Platform e do Software Licensing Client. Todos desenvolvidos para validar as cópias do SO. Usuários com cópias ilegais e não registradas recebem constantes mensagens de segurança do sistema, informando que a máquina pode estar infectada com ameaças digitais, como malware e vírus.

Bookmark and Share

13 de novembro de 2009

Por que investir em Segurança?

O mundo globalizado de hoje, complexo e competitivo, exige vários cuidados, e o principal deles é a segurança e é por isso que independente do tipo e do tamanho da empresa, o investimento em segurança da informação é obviamente necessário, e também, não apenas em empresas, como usuários domésticos, devem ter muito cuidado com a segurança das suas informações em seus computadores pessoais ou notebooks.
O termo segurança está longe de ser uma palavra vaga e distante, ela não representa somente uma necessidade e sim uma obrigação, ou seja, é o ingrediente prioritário que impulsionará a empresa em busca do seu desenvolvimento. Mas antes de começar a investir, é preciso que a empresa considere quais são os seus objetivos, iniciando-se com um diagnóstico da atual situação financeira, realizando um planejamento cuidadoso, pois no mercado atual as empresas estão com seus orçamentos cada vez mais curtos e cada gasto deve ser justificado. Além disso, é necessário investir de acordo com a criticidade das ameaças e das vulnerabilidades que podem causar impactos nos negócios da empresa. O processo de segurança é um processo de realimentação, que envolve pessoas, equipamentos, sistemas e entre outros processos, a grande importância em investir ainda é uma questão que traz diversas dúvidas.
Proteger informações não é sinônimo de luxo e muito menos de uma ação de baixa prioridade, e muitos executivos desconhecem as ameaças e as vulnerabilidades que a empresa está sujeita constantemente. Eles ainda não sabem ao certo, quanto, como e onde investir em segurança. Nesse sentido, a questão é refletir em quanto à empresa pode perder se não investir e não em quanto ela vai lucrar, ou seja, o ROI (Return of Investiment) da segurança não tem uma dimensão definida, a questão de investimento está intimamente ligada ao diferencial competitivo que é algo estável, e uma vez que a empresa apresentar uma gestão de processo de segurança bem estabelecida, certamente ela atrairá novos clientes e originará mais lucros.

Bookmark and Share

12 de novembro de 2009

Firewall


Firewall consiste em combinar hardware e software para limitar a exposição de uma máquina ou uma rede de um ataque feito por um ‘hacker’, ou melhor, é o nome dado ao dispositivo de rede que tem por função regular o tráfego de rede entre redes distintas e impedir a transmissão de dados nocivos ou não autorizados de uma rede a outra.Existe na forma de software e hardware, ou na combinação de ambos. A instalação depende do tamanho da rede, da complexidade das regras que autorizam o fluxo de entrada e saída de informações e do grau de segurança desejado.É utilizado para evitar que o tráfego não autorizado possa fluir de um domínio de rede para o outro, apesar de ser diretamente ligado a proteção de redes, o firewall não possui capacidade de analisar toda a extensão do protocolo, ficando geralmente restrito ao nível 4 da camada OSI (transporte).


 Na imagem acima, tem apresentado um esquema de Firewall.

Bookmark and Share

11 de novembro de 2009

Segurança da informação: cultivada dia-a-dia

Inicialmente deve-se ter conhecimento de que o enunciado “segurança da informação” pode exprimir dois sentidos, isto é, a segurança representada como um meio (instrumento) ou como um fim (conclusão). No primeiro ela propõe a garantia da proteção da informação, visando conformidades com as normas e dando continuidades aos processos de negócios na empresa. E no segundo representa quando a segurança é atingida por meio de práticas, políticas e processos que manipulam a informação. Com a facilidade e a rapidez em que os dados circulam numa organização as informações podem ser usadas de forma nociva e se propagarem perigosamente. Portanto o perigo existe e não há como ignorar a necessidade de uma medida de segurança. Hoje em dia é preciso ter muita cautela. Segurança da informação sempre é um assunto delicado dentro das corporações, tratado com reservas e até certo enigma. Muitas pessoas associam Segurança da Informação a uma mera aplicação de recursos tecnológicos, mas na verdade é um conjunto de procedimentos e controles no qual Tecnologia da Informação certamente tem seu papel importante, todavia não é tudo.
A segurança da informação é uma necessidade das empresas para travar uma batalha pelos riscos que a informação fica exposta. Riscos esses que são em tempo real e um pequeno descuido podem gerar transtornos com graves conseqüências para a empresa e para os negócios, pois a todo minuto se criam novas formas de ataque, invasão, vírus, entre outros.Dessa forma, quando se fala em Segurança de Informação todo o esforço para proteger os dados, estabelecer processos de controle e prevenir riscos é sempre pouco.

Bookmark and Share

10 de novembro de 2009

Crie uma pasta Invisível, não Oculta


Neste tutorial como já diz o título vamos aprender a criar uma pasta INVÍSIVEL, não oculta, a pasta será criada na Área de trabalho, então siga os passos:

Já na sua Área de trabalho com o botão direito do mouse clique no menu novo > pasta, deixe-a em branco pressionando a tecla <-- retrocesso, a seguir pressione a tecla Alt + 255 note que a pasta ficou sem nome, a seguir clique com o direito do mouse nesta pasta e clique no menu propriedades, na janela que se abre clique na guia personalizar, a seguir clique no botão alterar ícone, feito arraste a barra de rolagem e encontre um campo vazio entre os ícones disponíveis e clique ali, nisso ira surgir um quadrado azul, ou seja, sem nada que represente um ícone, ao clicar de ok em seguida clique aplicar e ok novamente para sair da janela. Pronto a pasta invisível foi criada!!!!

Bookmark and Share

9 de novembro de 2009

Profissão: Engenheiro da Computação

O engenheiro da computação é o profissional com graduação de nível superior em engenharia da computação, responsável por desenvolver, implementar, manter, corrigir e aperfeiçoar sistemas e ambientes computacionais, tanto em termos de softwares (programas), quanto de hardwares (máquinas). Além disso o profissional é apto a administrar e criar sistemas de tratamento e processamento de informação. É ele quem elabora e executa projetos de rede, comunicação, integração, automação, etc.

Qual a formação necessária para ser um engenheiro da computação?

Para ser um engenheiro da computação é necessário diploma de nível superior em Engenharia da Computação, que tem duração média de cinco anos. O curso oferece ao aluno uma formação completa para trabalhar em todos os ambientes computacionais e a lidar com as máquinas e equipamentos, desde a elaboração, até a execução. Algumas das matérias que fazem parte da grade curricular do curso são: eletrônica, linguagens de programação, circuitos elétricos, circuitos lógicos, criação de softwares, redes de computadores, matemática computacional, matemática aplicada, sistemas digitais, cálculo, física, microeletrônica e banco de dados, entre outras. Por se tratar de uma área ligada às tecnologias, é interessante também que o profissional esteja sempre se atualizando através de cursos, treinamentos, especializações, palestras, etc.

Áreas de atuação e especialidades

A engenharia da computação é um campo muito amplo, e há diversas áreas onde o profisisonal pode se especializar, como por exemplo:

  • Automação industrial: projetar sistemas digitais, máquinas e equipamentos de automação para a indústria
  • Desenvolvimento de softwares e aplicativos: desenvolver programas, sistemas operacionais, linguagens específicas e aplicativos de computadores em diversas áreas, como tratamento de informação
  • Pesquisa tecnológia: estudar, elaborar e criar novas tecnologias
  • Construção e conserto de hardware: projetar e construir computadores e periféricos
  • Venda de equipamentos e máquinas: comercializar equipamentos de informática.
  • Suporte: dar suporte e assistência em redes de computadores e sistemas de grandes empresas.

Bookmark and Share

8 de novembro de 2009

O idioma dos objetos

Vai trabalhar com Java ou C#? Ligue-se nestes termos de OOP.
Um programa que funciona de forma autônoma e é usado como bloco básico para a montagem de softwares mais complexos. Um objeto contém tanto os dados quanto o código de programa para manipular esses dados.

Abstração: a abilidade de um programa ignorar os aspectos não essenciais da informação que está manipulando. A abstração possibilita usar um objeto fornecendo apenas os dados necessários para a tarefa a ser realizada.
Encapsulamento: o termo refere-se ao fato de que o objeto é visto como uma caixa-preta. Sabe-se o que ele faz, mas não como isso é feito. O encapsulamento evita que a estrutura interna do objeto seja alterada por código externo. Também facilita o reaproveitamento do código, já que não é preciso saber como funciona o objeto para usá-lo, basta conhecer os métodos e propriedades.
Hereditariedade: o fato de uma classe herdar características da superclasse que deu origem a ela. Isso traz ganhos na produtividade na programação, pois não é preciso especificar novamente características que já foram definidas.
Hierarquia: a maneira como as classes se relacionam, superclasses englobando subclasses.
Instância: uma ocorrência de um objeto de determinada classe.
Modularidade: característica de programas que são divididos em blocos autônomos.
Método: é uma ação que a classe ou o objeto é capaz de realizar.
Polimorfismo: a habilidade de um método comportar-se de modo diferente, dependendo do objeto a que é aplicado.
Propriedade: característica de um objeto que pode ser alterada por uma instrução de programa.
Classe: protótipo que define características comuns a todos os objetos de um determinado tipo.
Subclasse: classe derivada de outra classe.
Superclasse: classe que dá origem a outra classe.

Bookmark and Share

7 de novembro de 2009

Distribuição Linux

Por se tratar de um sistema operacional livre e de código aberto não demorou para que milhares de pessoas começassem a fazer modificações no Linux de forma a customizar ou adequá-lo às suas necessidades pessoais. Cada vez que alguém altera o Linux com personalizações e particularidades, esta alteração é chamada de Distribuição Linux, e como tal cada pessoa que o fizer pode dar um nome para sua distribuição e publicá-la na rede para que outras pessoas possam utilizar a sua distribuição.
Cada distribuição tem sua característica própria, atendendo as necessidades de seus usuários, tais como o sistema de instalação, o objetivo, a localização de programas, nomes de arquivos de configuração, etc. A escolha de uma distribuição é pessoal e depende das necessidades e finalidades de cada um.
Atualmente existem centenas de distribuições Linux, porém, como tudo na vida, algumas se destacaram. Algumas distribuições bastante conhecidas e destacadas nos dias de hoje são: Slackware, Debian, Red Hat, Fedora, Mandriva, Suse, Ubuntu e Kurumin, todas usando o SO Linux como kernel principal.

Bookmark and Share

5 de novembro de 2009

Hackers X Crackers

Muita gente, até mesmo por falta de conhecimento, termina confundindo esses dois termos, abaixo vou mostrar a diferença de ambos:

Hacker: na verdade, os hackers são os bons mocinhos. Para os fãs de Guerra nas Estrelas, pensem no hacker como o cavaleiro jedi bonzinho. Ele possui os mesmos poderes que o jedi do lado negro da força (cracker) mas os utiliza para proteção. É um curioso por natureza, uma pessoa que têm em aprender e se desenvolver um hobby, assim como ajudar os “menos prevalecidos”. Um bom exemplo real foi quando o cracker Kevin Mitnick invadiu o computador do analista de sistemas Shimomura. Mitnick destruiu dados e roubou informações vitais. Shimomura é chamado de hacker pois usa sua inteligência para o bem, e possui muitos mais conhecimentos que seu inimigo digital. Assim facilmente montou um honeypot (armadilha que consiste em criar uma falsa rede para pegar o invasor) e pegou Kevin. Infelizmente a imprensa confundiu os termos e toda notícia referente a baderneiros digitais se refere à hacker.

Crackers: esses sim são os maldosos. Com um alto grau de conhecimento e nenhum respeito, invadem sistemas e podem apenas deixar a sua “marca” ou destruí-los completamente. Geralmente são hackers que querem se vingar de algum operador, adolescentes que querem ser aceitos por grupos de crackers (ou script kiddies) e saem apagando tudo que vêem ou mestres da programação que são pagos por empresas para fazerem espionagem industrial. Hackers e crackers costumam entrar muito em conflito. Guerras entre grupos é comum, e isso pode ser visto em muitos fóruns de discussão e em grandes empresas, as quais contratam hackers para proteger seus sistemas.

Bookmark and Share

4 de novembro de 2009

Com que freqüência deve-se mudar senha?

A regra básica é trocá-la pelo menos a cada dois ou três meses. Existem páginas nos provedores que facilitam a troca da senha, e estão lá para serem utilizadas. Trocando-a regularmente você garante a integridade da mesma. Caso não encontre o serviço de troca de senha no site de seu provedor, entre em contato com o serviço de suporte, mas não aceite que a mudança da senha seja feita por funcionários. A alteração da senha, sempre deve ser feita pelo próprio dono!
A senha é importantíssima e mantê-la em segrede é a sua segurança!

Bookmark and Share

3 de novembro de 2009

Como escolher uma boa senha?

Uma boa senha deve ter pelo menos oito caracteres (letras, números e símbolos), deve ser simples de digitar e, o mais importante, deve ser fácil de lembrar. Normalmente os sistemas diferenciam letras maiúsculas das minúsculas o que já ajuda na composição da senha.
Claro que o seu sobrenome, números de documentos, placas de carros, números de telefones e datas em geral, deverão estar fora de sua lista de possíveis senhas. Pois esses dados são muito fáceis de obter e qualquer criminoso tentaria utilizar este tipo de informações para se autenticar como você. Existem várias regras de criação de senhas que você pode utilizar uma regra de ouro para escolha de uma boa senha é: jamais utilize como senha palavras que façam parte de dicionários. O que fazer então? Fácil perceber, quanto mais “bagunçada” a senha melhor, pois mais difícil será descobri - lá. Assim tente misturar letras maiúsculas, minúsculas, números e sinais de pontuação. Uma regra realmente prática e que gera boas senhas difíceis de serem descobertas é utilizar uma frase qualquer e pegar a primeira, segunda ou a última letra de cada palavra.
Por exemplo, usando a frase: “batatinha quando nasce se esparrama pelo chão”, podemos gerar a seguinte senha “BqnsepC”, mas essa senha só tem 7 caracteres, precisamos de pelo menos mais um caractere para completar o mínimo de 8 caracteres. Assim a senha gerada fica “!BqnsepC”.

Bookmark and Share

2 de novembro de 2009

A íris é a senha

A utilização do reconhecimento de íris em controles de segurança saiu do laboratório, abrir portas simplesmente olhando para um sensor óptico não é mais cena de filmes de ficção. A biometria através do reconhecimento da íris deixou os laboratórios e as telas do cinema e já começa a ocupar o mundo real para garantir a segurança de locais que tem acesso restrito.
O reconhecimento da íris não é o único sistema biométrico disponível hoje, mas então, porque essa é a mais segura? Ela é praticamente infalível e mais preciso que os outros existentes. Quando um cadastramento de íris é feito, a imagem da íris é totalmente mapeada e transformada num código, o Íris Code. Essa codificação chega a ter 400 pontos de reconhecimento, bem mais que um sistema digital dos dedos, que tem apenas 60 pontos. Tamanha precisão, garante a esse sistema de segurança, um posto de anti-fraudes. Um indivíduo que faz o cadastro do olho esquerdo deve fazer a leitura somente do olho esquerdo, caso seja lido o direito, os dados não são válidos. Pontos a serem considerados, que torna o reconhecimento de íris, um método, completamente seguro:

  • A íris é a única parte do ser humano que se forma aos seis meses de idade e nunca muda; 
  • Possui 400 pontos de identificação; 
  • A íris não pode ser modificada com cirurgia plástica; 
  • Criar uma íris falsa ou tentar utilizar um cadáver é impossível. 

Bookmark and Share

1 de novembro de 2009

Bridge: a rede invisível

Uma bridge ou ponte é um dispositivo que serve para conectar duas redes distintas, permitindo a comunicação entre elas. A bridge pode ser um dispositivo dedicado ou então um PC com dias placas de rede, configurado para executar esta função.
A primeira vista, pode parecer que a bridge tem a mesma função de um hub comum, mas as aplicações são bem diferentes. Um hub permite conectar vários PCs, que passam a fazer parte de um único segmento de rede, em que todos os dados transmitidos por um PC são retransmitidos a todos os demais. A utilização indiscriminada de hubs diminui o desempenho da rede, conforme aumenta o tráfego de dados e a quantidade de PCs. Uma bridge permite unir dois ou mais hubs, transformando-os em uma única rede, na qual os PCs conectados a cada hub tornam-se um segmento de rede distinto. Isso faz toda uma diferença: uma bridge de examinar os pacotes e retransmiti-los apenas ao destinatário correto. Isso previne a saturação da rede, mesmo que existam muitos PCs conectados a ela. Mas existem algumas limitações: uma bridge pode conectar apenas redes que utilizem a mesma arquitetura e que utilizem o mesmo protocolo de rede.
A maioria das bridges que funcionam em aparelhos dedicados, costuma fazer também a função de firewall da rede, ou seja, também são responsáveis pela aplicação de regras de segurança dentro da rede e de seu tráfego.

Bookmark and Share

31 de outubro de 2009

A internet e o relacionamento digital

A internet faz parte da vida das pessoas e das empresas cada vez mais e afeta o consumo e os relacionamentos. Praticamente todos os veículos de comunicação tratam desse assunto, tornando impossível qualquer alienação. Para as empresas e também para os políticos, fica evidente que não é uma opção; afinal, a decisão já foi tomada! O empresário ou político – falando em eleições - que ignorar esse público de mais de 60 milhões de brasileiros conectados corre o risco de deixar de existir em breve. Lembro que essa massa on-line é maior do que a população de muitos países, como França e Espanha, e é o dobro da população do Canadá!
Essa “massa” está constantemente navegando, se informando, se comunicando, comparando preços e comprando. E falando em compras, apenas em 2009 a previsão de faturamento do e-commerce é de R$ 10,8 bilhões!
Hoje o relacionamento empresa-cliente passa obrigatoriamente pela web, seja para busca de informações de produtos e serviços, seja simplesmente para manifestar sua opinião sobre uma empresa. Hoje, internautas frequentam comunidades como Twitter, Orkut, YouTube e Facebook, nas quais têm o domínio da situação, produzindo e disseminando vídeos e e-mails com consequências, pois um simples post em sua página pode influenciar automaticamente milhares de pessoas.

Bookmark and Share

30 de outubro de 2009

Trojan ou Cavalos de Tróia

Trojans ou Cavalos de Tróia são programas executáveis que transformam seu micro em um terminal de Internet aberto. Estes programas eliminam as proteções que impedem a transferência de informações, ou seja, abrem uma porta de comunicação (backdoor) não monitorada. Um programa de cavalo de tróia funciona como um servidor de rede (Server) e tem um outro programa comparsa, que funciona como cliente (CLIENT). O server fica no seu computador e o client fica no computador do cracker (é o termo usado para designar quem quebra um sistema de segurança, de forma ilegal ou sem ética). Se ambos estiverem na internet, o cracker pode estabelecer uma conexão direta (cliente-servidor), não monitorada e imperceptível com o Server (você) por meio de uma backdoor. Uma backdoor (cuja tradução literal é porta de trás) é apenas um canal de  comunicação identificado por um número. As formas mais comuns de receber trojans são por meio de e-mails (com executáveis ou arquivos camuflados) e por meio de outros programas, geralmente jogos.

Bookmark and Share

29 de outubro de 2009

Mais banda larga para os brasileiros

O número de conexões à internet banda larga cresceu 16% entre janeiro e junho, em comparação ao semestre anterior. De acordo com a 12ª edição do Barômetro Cisco da Banda Larga, feita a cada seis meses com o IDC, o País encerrou o mês de junho com 13,6 milhões de pontos de acesso rápido à web.
No período, houve o acréscimo de 1,13 milhão de conexões fixas e em 680 mil de acessos móveis. Dessa forma, faltam apenas 1,3 milhão de conexões para o Brasil alcançar a meta de 15 milhões de pontos estimada pela Cisco para 2010. O levantamento aponta que os fatores principais que motivaram o crescimento foram popularização dos computadores domésticos, a desoneração de tributos sobre esse item e a percepção de que a banda larga se trata de um serviço essencial.
“Mercados emergentes, como o Brasil, tendem a se tornar mais competitivos e expandir seu PIB se investirem em infraestrutura tecnológica, não como uma alternativa, mas como o alicerce para programas de desenvolvimento econômico e social”, observa Rodrigo Abreu, presidente da Cisco do Brasil.
“O aumento na penetração de banda larga para regiões hoje sem cobertura fomentará uma nova economia, estimulando assim a geração de empregos e a inclusão social”, ressalta.
A penetração por cada 100 habitantes passou de 5,16% para 5,8%, sendo que o estado de São Paulo é onde há mais pessoas com banda larga (11%). São Paulo também lidera no quesito “acessos residenciais”, com 33% de penetração, índice comparável ao de países como Polônia, Hungria e Portugal. A média nacional é de 17,85%.
O acesso em residências cresceu 5% em relação a dezembro, chegando a 76,6% das conexões, contra 23,4% do setor corporativo, destacando o apelo desta modalidade para o uso pessoal.

Bookmark and Share

28 de outubro de 2009

O Valor do Comércio Eletrônico

Para compreender o valor do comércio eletrônico, é preciso compará-lo com as formas de transações comerciais tradicionais e verificar como ele pode transformálas. A compreensão das possibilidades e limitações do comércio eletrônico ajuda a encontrar meios de melhorar a qualidade de um serviço ou de se desenvolverem mercados de outra forma inacessíveis. O comércio eletrônico também abre novas possibilidades de negócios que seriam impensáveis anteriormente.
Imaginar que o comércio eletrônico se restringe unicamente à venda direta de informações, serviços e  produtos estreita a visão do impacto potencial sobre os negócios que a utilização comercial da Web pode oferecer a uma organização. Apesar da venda direta ser certamente a primeira forma de se pensar a obtenção de lucros numa relação entre consumidor-vendedor, a utilização da Web como veículo para o comércio eletrônico permite visualizar uma série de outras formas de adicionar valor a um negócio. A visão do comércio eletrônico, como qualquer tipo de apoio de transações comerciais por meio do uso de infra-estrutura digital, tem a vantagem de englobar uma gama variada de utilizações da Web para favorecer ou incentivar transações comerciais.
Assim, o comércio eletrônico pode funcionar como instrumento de promoção (pré-venda), como novo canal de vendas de fato ou de atendimento ao cliente (pós-venda). Pode gerar economia na realização de transações e redução do ciclo de desenvolvimento dos produtos; a sua implementação deve promover um aprendizado organizacional e tecnológico indispensável para a sua aplicação efetiva. Além disso, se acredita que o comércio eletrônico ainda propicia o desenvolvimento de novos produtos e mesmo de novos modelos de negócio.

Bookmark and Share

27 de outubro de 2009

Comércio Eletrônico ou E-Commerce


O comércio eletrônico identifica o uso intensivo de Tecnologia da Informação na mediação das relações entre consumidores e fornecedores. Para a melhor compreensão das vantagens e riscos do comércio eletrônico, no entanto, é útil a sua divisão em dois blocos principais. O primeiro bloco indica as atividades relativas a transações entre empresas que compram e vendem produtos entre si. Este grupo se caracteriza por um número relativamente baixo de transações de alto valor financeiro. O segundo bloco, das transações entre empresas e consumidores finais, se caracteriza por alto volume relativo de transações com baixo valor financeiro envolvido em cada uma delas.
Nas transações empresa-empresa, o Electronic Data Interchange (EDI) é o exemplo mais conhecido (Sokol, 1989). Apesar de já existir há algumas décadas, o EDI também está sendo afetado pela expansão da Internet. Algumas experiências de utilização de EDI baseado na Internet têm sido estudadas com o objetivo de expandir as possibilidades desse tipo de tecnologia.Na comparação da Internet com as outras alternativas de EDI, as questões custo e segurança são as mais ponderadas. O custo de implantação de EDI pela Internet é baixo, enquanto o das redes privadas é alto. Para se ter uma comparação, num estudo feito no Bank of America pôde ser observado que uma transação feita pela Internet chega a ser entre duas e três ordens de grandeza menor do que a mesma transação feita por uma VAN.  Em compensação, em termos de segurança, o uso de EDI pela Internet não tem ainda os mesmos níveis de confiança dos usuários que têm as redes privadas.
Se numa rede privada existe alto grau de controle das informações que nela trafegam, na Internet a situação é um tanto diferente. Apesar disso, o crescente interesse comercial na Internet começa a influenciar o desenvolvimento de recursos para aumentar a confiabilidade e o grau de controle sobre as informações em trânsito, tais como tempo para entrega e priorização de mensagens. Além de encriptação, outros dispositivos de segurança, como firewalls para controlar o acesso físico à rede, podem ser acrescentados ao sistema de EDI pela Internet. Para garantir todo o processo quanto a falhas humanas e naturais, os pontos de maior possibilidade de falhas podem adotar sistemas de redundânci.

Bookmark and Share

26 de outubro de 2009

Quem faz o software livre?

A resposta para essa pergunta é bem simples: Você! Contribuindo com código fonte, engajando em projetos de softwares existente, reportando bugs de programas, repassando o conhecimento adquirido, ajudando outras pessoas por meios diversos, chat, eventos ou mesmo um bate-papo na rua difundindo a cultura do software livre, você também pode engajar em uma comunidade ou diretamente em um PSL (Projeto Software Livre) que tem como fundamento principal integrar as comunidades de software livre, usuários, empresas que apóiam a iniciativa, e pessoas interessadas, unindo essas pessoas para fazer ações coletivas.
Busque informações através da rede e comece a participar de comunidades, grupos de usuários, coletivos, listas de discussão etc. e passe a interagir  com quem você tem mais afinidade.

Bookmark and Share

25 de outubro de 2009

O que é o sistema GNU / Linux?

Em 1989 um estudante finlandês chamado Linus Torvalds inicia um processo pessoal de aprimoramento do Kernel do Minix, um sistema operacional do tipo Unix escrito por Andrew Tannenbaum, chamando esta vertente de Linux como abreviação de Linus´s Minix. O que parecia um projeto acadêmico foi tomando novos ares e Linus passou a perceber as possibilidades que aquilo poderia trazer assim como suas possíveis proporções, então depois de um certo tempo de trabalho, Linus lança a seguinte mensagem na internet:

"Você sente saudade dos bons dias do minix-1.1, quando homens eram homens e escreviam seus próprios device drivers? Você está sem um bom projeto e morrendo de vontade de colocar as mãos em um sistema operacional o qual possa modificar de acordo com suas necessidades? Você acha frustrante quando tudo funciona bem no Minix? Sem mais noites em claro para fazer com que um programa funcione? Então esta mensagem pode ser exatamente para você. :-)

Esta mensagem chama a atenção de muitas pessoas, entre elas programadores, analistas ou até mesmo entusiastas do movimento de Software Livre ou GNU. Logo essas pessoas passaram a entrar em contato com Linus e então um grande time de desenvolvimento formou-se em cima do que hoje chamamos de GNU / Linux. Com pessoas espalhadas pelo mundo inteiro trabalhando em cima do mesmo objetivo, não fica difícil imaginar porque o GNU / Linux passou a ser tão estável, seguro e maduro como sistema operacional. Finalmente em 1991 Linus lança a primeira versão oficial do Linux, juntando-se mais tarde, em 1992, ao projeto GNU de Richard Stallman com o objetivo de produzir o sistema operacional completo como o conhecemos hoje.

Bookmark and Share

24 de outubro de 2009

De onde vem o conceito de Software Livre?

Diante de nossa atual situação tecnológica seria impossível falarmos de GNU / Linux sem antes entendermos o que é Software Livre ou de onde surgiu essa filosofia.Durante muito tempo a tecnologia vem se desenvolvendo e tornando-se cada vez maisnecessária para os dias atuais. Para tal evolução, pessoas do mundo inteiro, chamadasprogramadores, contribuíram de forma significativa criando programas ou softwares paracustomizar o funcionamento dos computadores. Em boa parte desta evolução, ao precisar de algo que outro já criou, o programador receberia prontamente deste outro para assim poder fazer suas devidas mudanças ou mesmo aperfeiçoamentos poupando-lhe esforço e tempo. O autor original como agradecimento recebia seu programa melhorado. Porque refazer o que já foi feito antes? Desta forma se dava a troca de informações e conhecimento entre a comunidade comoum todo até que uma outra idéia surgiu: Fechar o código fonte e ganhar dinheiro em cima disso.
Foi nesta época que o conhecimento passou a deixar de ser livre passando a ter um dono e uma patente em cima do mesmo. Sendo vendido em caixas com a permissão para instalação em apenas uma máquina limitando-se ao uso técnico sem poder estudar aquela tecnologia a fundo ou repassar para outros interessados. Aí mostrava-se o limite da tecnologia como uma linha que não se podia ultrapassar, já que você não mais poderia aperfeiçoar um software adaptando-o às suas necessidades por não mais ter acesso ao código fonte do mesmo. O conhecimento passou a ser então manipulado e controlado criando uma enorme
dependência tecnológica. Em meados de 1983-1984 o programador americano Richard Stallman percebeu que o senso de união e integração estava perdendo espaço para um senso de egoísmo e monopólio passando assim a iniciar um movimento ativista criando assim o Projeto GNU em 1985 defendendo a idéia do Software Livre. Por que refazer todo um programa quando você tinha programas parecidos com o que você queria desenvolver? Por que não ajudar em um programa que você achava que estava rodando lento e que possivelmente saberia como deixalo mais rápido contribuindo assim para o seu código fonte? Essas perguntas não faziam sentido para o Richard, e por essas e outras ele começou este projeto, que de tão óbvio que era, rapidamente caiu na simpatia de toda a comunidade. A partir daí milhares de pessoas espalhadas pelo mundo inteiro uniram-se a ele nessa luta de forma a mostrar à todos que o compartilhamento da informação é fundamental para o desenvolvimento assim como a união e a solidariedade. Para tal filosofia foram criadas algumas regras que na verdade são liberdades.

Bookmark and Share

21 de outubro de 2009

Público Recorde na InfoIlhéus 2009

Nesta quarta edição da InfoIlhéus, o público presente na abertura do evento foi recorde, podendo ser contabilizada, mais de 2.500 pessoas, com sede de inovações tecnológicas, mostrando o bom aceitamento desse evento, pela população Ilheense e também de alguns outros lugares, mas esse recorde de público, deve-se ao fato também, da primeira palestra dessa edição ser com o ex-jogador de basquete Oscar Schmidt.A abertura oficial também contou com a presença do secretário municipal DCE Indústria e Comércio, Alfredo Dantas Landim (representando o prefeito Newton Lima); o presidente da Câmara de Ilhéus, Jailson Nascimento; representando o Ministério da Ciência e Tecnologia, Roberto Belisário; representando o Ministério de Desenvolvimento, Indústria e Comércio Exterior, Ajalmar Gusmão; Paulo Roberto Guimarães e Adhivan Furtado, respectivamente, superintendentes de Indústria e de Comércio do Estado da Bahia, Max Muniz, representando a Federação das Indústrias da Bahia (Fieb), além de outras autoridades.
O Presidente do Sindicato das Indústrias de Informática de Ilhéus (Sinec), Gentil Pires, comemorou o sucesso do evento e destacou que o polo de informática ilheense não apenas criou empregos no sul da Bahia. Gentil observou que o polo foi o responsável pela criação de cursos de nível médio e superior na região voltados à área da computação, como na Uesc. E graças ao polo, Ilhéus é responsável hoje por 12% da produção nacional de computadores, segundo Gentil.

Bookmark and Share

20 de outubro de 2009

InfoIlhéus 4.0 - 2009



Começa amanhã no Hall de Exposições do Centro de Convenções de Ilhéus, na sua 4ª edição, a InfoIlhéus - A Feira de Tecnologia e Informática de Ilhéus, que acontecerá dos dias 21 a 23 de outubro de 2009. A abertura do evento desse ano, contará com a presença do ex-jogador de basquete Oscar Schmidt, realizando uma palestra sobre: "Obstinação". É um evento de exposição de produtos e serviços das principais indústrias do Pólo de Informática, além de algumas empresas que atuam direta ou indiretamente com o segmento. O principal objetivo desta Feira é propiciar a realização de negócios e acordos comerciais entre as empresas, favorecendo a consolidação do Pólo Industrial e a geração de empregos. A InfoIlhéus, já é um dos um dos maiores eventos na área de Informática da região Nordeste do País. Nos próximos dias, estaremos trazendo algumas fotos do evento!

Bookmark and Share

19 de outubro de 2009

A segurança da informação ao longo da história

Anos atrás, os operadores de um computador ENIAC se depararam com uma coisa curiosa. Um inseto havia ficado preso dentro da máquina e estava atrapalhando o funcionamento da mesma. Daí surgiu o termo bug (inseto) que virou sinônimo de falha. Hoje quando se descobre um erro em algum programa, se diz: “novo bug descoberto”. De lá pra cá, as coisas evoluíram muito, mas os bugs continuam a existir. Muitos deles são frutos da história do próprio programa ou sistema. O Windows por exemplo. O Windows NT foi construído a partir do zero, mas o Windows ME não. Desde o início da criação de sua primeira interface gráfica, a Microsoft vêm tendo problemas com erros graves em seu sistema operacional. Já o sistema Unix, foi criado pelos desenvolvedores da linguagem C, para ser um sistema versátil e poderoso. Para conhecer melhor sobre a história de cada sistema, leia a seção sistemas operacionais .
A Internet também têm seus problemas ligadas à história de sua origem. Desde que se chamava Arpanet e foi criada pelo exército americano para resistir à guerra fria, a rede evoluiu muito e foram criados novos serviços como E-mail, World Wide Web, Gopher, Wais e outros. Milhões de computadores se juntaram a ela e seus recursos são cada vez mais sofisticados. Mas alguns problemas bem antigos ainda prejudicam hoje. Uma falha na implementação do TCP/IP( conjunto de protocolos em que a Internet se baseia) por exemplo, possibilita que o ataque de Spoof aconteça.

Bookmark and Share

10 de outubro de 2009

A Tecnologia ADSL

ADSL é a abreviatura de Asymmetric Digital Subscriber Line.
O termo ADSL foi criado em 1989 e não se refere a nenhum tipo de linha telefônica, ADSL refere-se ao tipo de tecnologia do modem que converte o sinal padrão do fio de telefone analógico ou digital em um canal digital de alta velocidade. Os modems ADSL são chamados assimétricos porque eles transmitem dados em velocidades bem menores do que recebem. Os sistemas de transmissão de dados em modo ADSL atingem velocidades altíssimas se comparados aos sistemas de transmissão de dados que existiam há algum tempo. O modem com tecnologia ADSL permite transmissões de mais de 6 Mbps, já existem transmissões com 9 Mbps de download para qualquer assinante, e chegando à 640 kbps para upload, essas taxas ampliam a capacidade de acesso existente para um fator de 50 ou mais sem a utilização de um novo cabeamento público.
Com a aplicação da tecnologia ADSL foi possível transformar a cadeia de informação pública que já existia e que era limitada a voz, texto e gráficos de baixa resolução para um sistema de transmissão e recepção de dados muito poderoso, pois é capaz de transmitir e receber multimídia, videoconferência, enfim, qualquer tipo dados digitais para ambientes residenciais e corporativos.
O surgimento da tecnologia ADSL representa um papel muito importante na revolução da entrada em novos mercados por parte das companhias telefônicas, onde a transmissão de informação em vídeo e formatos multimídia se tornu um meio de prestação de serviços de comunicação de dados para usuários comuns. Um novo sistema de cabeamento levaria décadas para atingir todos os interessados, e o sucesso dos serviços do ADSL iria depender do alcance de todos os assinantes durante os primeiros anos de sua implementação. Atualmente disponibilizando filmes, televisão, catálogos vídeos, CD-ROMs remotos, LANs incorporadas, e a Internet nas casas e nos negócios grandes e pequenos, o ADSL torna o mercado de comunicação de dados viável e lucrativo para companhias de telefone e provedores de aplicações parecidas, é claro que os consumidores que tem necessidade de transmissão e recepção de dados, mesmo que em pequenas quantidades também ficam satisfeitos.

Bookmark and Share

Contador

free counter
PageRank

Campanha


Diga não ao bloqueio de blogs

  ©Template by Dicas Blogger.

TOPO