30 de novembro de 2009

Protocolos

Protocolos são programas e devem ser instalados em componentes de rede que precisam deles. Computadores só podem comunicar-se entre si se utilizarem o mesmo protocolo. Se o protocolo usado por um computador não for compatível pelo usado em outro, eles não podem trocar informações. Uma variedade de protocolos está disponível para uso em sistemas de rede fechados (como Novell Netware).

TIPOS DE PROTOCOLOS

Dois tipos de protocolos existem hoje: abertos e específicos.

Protocolos Abertos
Protocolos abertos são protocolos feitos para o padrão da indústria. Eles se comunicam com outros protocolos que utilizam o mesmo padrão. Um protocolo aberto não possui dono e todos os sistemas podem fazer implementações livremente. Um ótimo exemplo do que é um protocolo aberto é o TCP/IP (Transfer Control Protocol / Internet Protocol). Ele é composto por muitos outros protocolos e está implementado em muitos sistemas (como Macintosh, Windows, Linux, Unix, etc...). O TCP/IP é o protocolo padrão da Internet.

Protocolos Específicos
Protocolos específicos são feitos para ambientes de redes fechados e possuem donos. Como é o caso do IPX / SPX que foi desenvolvido especificamente para a estrutura Novell Netware.

TIPOS DE TRANSMISSÃO DE DADOS

Protocolos roteáveis permitem a transmissão de dados entre diversos segmentos de uma rede. O problema é que o grande volume de certo tipo de tráfego (como executar uma aplicação multimídia pesada) deixa a velocidade de conexão muito lenta. A quantidade de tráfego gerada em uma rede, pode ser de três tipos: Unicast, Broadcast e Multicast.

Unicast
Em uma transmissão unicast, uma cópia separada dos dados são enviados de sua origem para cada computador cliente que os requeste. Nenhum outro computador na rede precisa processar o tráfego gerado. No entanto, em uma rede com muitos computadores o unicast não é muito eficiente pois o computador de origem terá que transmitir múltiplas cópias dos dados (resultado, ficará lento). O unicast é bom de ser usado apenas em pequenas redes.

Broadcast
Esse é o tipo de transmissão preferido da turma que gosta de um Denial of Service. Nesse tipo de transmissão, os dados são enviados apenas uma vez mas para toda a rede. Esse processo não é muito eficiente pois faz a velocidade cair bastante já que todos os computadores irão receber os dados. Mesmo os hosts que não fizeram o pedido receberão os dados. Somente não irão processá-los. Esse método é utilizado no ataque de smurf, em que é enviado um broadcast para diversos endereços IP e o endereço de origem (que deveria ser o IP de quem enviou) é modificado para o da vítima. Resultado: centenas de máquinas mandarão milhares de unicasts para um pobre coitado.

Multicast
É uma mistura dos dois. É enviada apenas uma cópia dos dados e somente os computadores que fizeram o pedido os recebem, assim evitando de se causar um tráfego muito intenso e consequentemente um congestionamento na rede. Muitos serviços de Internet usam multicast para se comunicar com computadores clientes (quando se diz cliente , é o computador que faz o pedido, que espera uma resposta). Inclusive é nesse tipo de comunicação que se baseia o protocolo IGMP.

Bookmark and Share

29 de novembro de 2009

USP inaugura centro de aproveitamento de lixo eletrônico

Em dezembro, o Centro de Computação Eletrônica (CCE) da USP irá inaugurar o Centro de Descarte e Reúso de Resíduos de Informática (Cedir), organizado para receber e enviar para reciclagem o lixo eletrônico produzido pela USP. Desde 2007, o CCE possui um Programa de Sustentabilidade que visa o reaproveitamento de materiais de informática como computadores, teclados, monitores, cabos, entre outros. Em junho de 2008, o Programa recolheu mais de 5 toneladas de lixo eletrônico oriundo apenas do CCE. "Verificamos então que o lixo eletrônico valia muito pouco. Alguma coisa devia estar errada", explica a professora Tereza Cristina Melo de Brito Carvalho, diretora do CCE.

Aproveitamento financeiro do lixo eletrônico
No início de 2009 iniciou-se uma pesquisa extensa sobre o assunto onde se constatou que as empresas de reciclagens trabalham com materiais especializados, plásticos, metais, placas, entre outros. Portanto cada empresa tem processos industriais estabelecidos para tratar apenas alguns poucos tipos de material e acabam descartando o resto. Um exemplo seria o teclado de um computador que se vendido a uma empresa de reciclagem de plástico, todo o restante, como placas e fios, seria descartado. O Cedir surge nesse contexto visando um melhor aproveitamento financeiro e tecnológico do lixo eletrônico.

Triagem do lixo
A professora Tereza explica que a entrega do lixo eletrônico pelas unidades da USP será feita num processo de agendamento. No caso das unidades do interior, os campi de Piracicaba, Ribeirão Preto e São Carlos já estão aptos a receber a sucata eletrônica por intermédio dos seus Centros de Informática. Assim que o Cedir, no caso de São Paulo, ou os Centros de Informática, recebem o material entregue pelas unidades, a primeira verificação feita é se eles operam ou não. No caso positivo, verifica-se a funcionalidade do equipamento, ou seja, se o resíduo eletrônico não está obsoleto. "Se o computador não tem utilidade nenhuma, mesmo que ele esteja operando, é considerado lixo eletrônico." Os computadores que operarem e forem funcionais serão emprestados por um período de dois anos para projetos sociais, tempo em que o material provavelmente completará seu ciclo de vida útil.

Destruição das informações digitais
Tudo aquilo que já não puder ser aproveitado no momento da entrega ao Cedir passará por um minucioso processo de classificação. Os equipamentos serão pesados, desmontados e os componentes serão separados de acordo com o tipo de material. Após a separação tudo será descaracterizado, ou seja, CDs e discos rígidos, por exemplo, serão destruídos para que as informações não sejam aproveitadas. Feito isso, o lixo eletrônico será compactado e acondicionado e enviado para as empresas de reciclagem que transformarão esses resíduos em matéria-prima para a indústria.

Ações futuras e pioneirismo
Num primeiro momento o Cedir atenderá as doações de lixo eletrônico apenas da USP, mas no futuro, comenta a professora Tereza, o projeto deve estender-se a toda a sociedade. Tereza ainda destaca que este é o primeiro projeto dessa natureza numa entidade pública no Brasil e que sua contribuição social compreende o suporte a projetos sociais e à conscientização sobre a importância do destino final correto aos eletroeletrônicos. "É um projeto que atende um vínculo social, mas também possui um viés fomentador de novas indústrias".

Bookmark and Share

28 de novembro de 2009

Características de um sistema inseguro

A segurança de sistemas existe por um conjunto de fatores. Engana-se quem pensa que somente por utilizar uma plataforma Unix ao invés de Windows está seguro. Ou que é só colocar um anti-vírus e um firewall na sua empresa que está tudo bem. A proporção do problema é bem maior. Geralmente os sistemas mais vulneráveis da rede possuem dois pontos em comum:

Administrador
O ponto chave e essencial para qualquer sistema de computador é o administrador. Ele é responsável por fazer com que tudo corra perfeitamente. Checa os dados, administra usuários, controla servidores, checa logs, tudo todos os dias. Acontece que a grande maioria dos administradores hoje não se preocupa com a segurança como deve. Logo terá problemas com o seu sistema, não importa qual seja. É como se fosse mãe e filho. Se uma mãe alimenta seu filho, cuida dos seus deveres de casa, compra roupas novas, dá brinquedos mas não é capaz de comprar um seguro de vida, ou pior, zela tão pouco pela segurança dele que ao sair de casa deixa as portas ou janelas abertas. Essa não pode ser uma boa mãe. Mesmo que uma rede utilize um sistema operacional que contenha muitas falhas, os bons administradores todo dia estarão checando por falhas descobertas e corrigindo-as. Já os outros provavelmente vão ficar em algum chat comendo sanduíches.

Sistemas operacionais
Como eu disse anteriormente, não há realmente um sistema que seja melhor que o outro. Existem vantagens e desvantagens de cada um. Tudo bem que alguns possuem erros muitos grandes, mas podem facilmente ser corrigidos. A intenção do sistema também importa. Não adianta ter uma rede e utilizar Windows 98 ou ME. Os recursos de segurança deles são muito escassos, pois foram feitos para o usuário comum e não para o ambiente empresarial. Não adianta também instalar o Digital Unix, FreeBSD ou AIX se o seu administrador só possui experiência em Lantastic. O sistema também vai depender do tipo de rede que você terá. Se você terá um servidor Web ou algum tipo de acesso externo, seria melhor utilizar o Linux ou o Windows NT. Se for uma rede interna somente, utilize Novell Netware, que ainda não fez a sua história quanto à Internet, mas ainda é insuperável nas redes locais.

Bookmark and Share

27 de novembro de 2009

O que é a ABNT NBR ISO 9001?

A ABNT NBR ISO 9001 é a versão brasileira da norma internacional ISO 9001 que estabelece requisitos para o Sistema de Gestão da Qualidade (SGQ) de uma organização, não significando, necessariamente, conformidade de produto às suas respectivas especificações. O objetivo da ABNT NBR ISO 9001 é lhe prover confiança de que o seu fornecedor poderá fornecer, de forma consistente e repetitiva, bens e serviços de acordo com o que você especificou.
A ABNT NBR ISO 9001 não especifica requisitos para bens ou serviços os quais você está comprando. Isto cabe a você definir, tornando claras as suas próprias necessidades e expectativas para o produto. Sua especificação pode se dar através da referência a uma norma ou regulamento, ou mesmo a um catálogo, bem como a anexação de um projeto, folha de dados,
etc.

Bookmark and Share

26 de novembro de 2009

Lixo eletrônico: o outro lado da Era da Tecnologia

O avanço tecnológico vem de forma crescente agregando agilidade nos processos cotidianos, melhorando a qualidade de vida do ser humano, porém as novidades tecnológicas motivam as pessoas a classificarem seus aparelhos como desatualizados. No entanto, a aquisição e a forma incorreta e/ou inconsciente de descartes destes aparelhos eletroeletrônicos causam danos ao meio ambiente e aos seres humanos, pois parte destes possui materiais tóxicos.



Algumas iniciativas estão sendo tomadas, porém a omissão da legislação brasileira em relação à regulamentação para o correto descarte da produção dessa nova modalidade de lixo vem contribuindo para a degradação do meio ambiente, mas no Brasil, não há legislação nacional que define critérios para a reciclagem e o tratamento de resídios eletrônicos. Para o Estado de São Paulo foi publicado em julho de 2009 a Lei 13.576 que institui normas e procedimentos para a reciclagem, gerenciamento e destinação final de lixo tecnológico.


Bookmark and Share

25 de novembro de 2009

O Que fazem os Antivírus?

Os sistemas de antivírus realizam basicamente 3 funções: detectar, identificar e remover vírus. A detecção é feita de forma pró-ativa, ativa e reativa. Isto é, um vírus é detectado antes de ser executado, durante a execução e após a execução. Existem 3 categorias de detecção:
  • Detecção estática – examina executáveis sem executá-los. Podem ser usados para detectar código infectado antes deste ser introduzido no sistema;
  • Detecção por interceptação – para se propagar, um vírus deve infectar outros programas que servirão de hospedeiros. Alguns sistemas de detecção servem para interceptar a execução destes tipos de atividades. As ferramentas que fazem este tipo de detecção interrompem a execução de programas infectados assim que o vírus tenta se replicar ou se tornar residente;
  • Detecção de modificação – todos os vírus causam modificação de executáveis em seu processo de replicação. Como conseqüência, a presença de vírus pode ser detectada através de busca de modificações não esperadas em arquivos executáveis. Este processo também é chamado de teste de integridade. Cabe ressaltar que este tipo de detecção só funciona após o executável infectado ter sido introduzido no sistema e o vírus já tiver sido replicado.
Ferramentas de identificação são usadas para identificar quais vírus infectaram um executável específico. Isto permite ao usuário obter informação adicional sobre o vírus. Esta é uma prática útil, uma vez que ela pode fornecer indícios sobre outros tipos de danos. Ferramentas de remoção tentam restaurar de modo eficiente o sistema para o seu estado não infectado através da remoção do código que contém o vírus que está anexado ao arquivo executado. Em muitos casos, uma vez que o vírus foi detectado, ele é encontrado em vários executáveis em um mesmo sistema. Existem no mercado vários produtos antivírus usando as técnicas descritas acima. Estes produtos podem fazer atualizações automáticas à medida que a base de vírus é incrementada com novas descobertas (novos vírus ou novas variantes). A aquisição do antivírus correto é extremamente crítica para uma organização.

Bookmark and Share

24 de novembro de 2009

O Que são Vírus?

O que comumente chamamos de vírus são pequenos programas que, por definição, não funcionam por si só sendo criados para infectar um arquivo executável ou arquivos que utilizam macros, ou seja, ficam geralmente escondidos dentro da série de comandos de um programa maior, e possuem instruções para parasitar e criar cópias de si mesmo de forma autônoma e sem autorização específica (e, em geral, sem o conhecimento) do usuário para isso, através do acesso ao seu catálogo de endereços, sendo, portanto, autoreplicantes.
Além da característa auto-replicante, podem causar muitos problemas ao computador, podendo, por exemplo, diminuir o desempenho do sistema, alterar ou deletar determinados arquivos, mostrar mensagens, formatar drives, tornar o computador acessível à distância. Além disso, determinados tipos podem começar a agir a partir de eventos ou condições que seu criador pré-estipulou tais como quando atingir uma determinada data do calendário, ou depois que um determinado programa rodou um número específico de vezes, ou através de um comando específico, entre outros. Existem muitos tipos diferentes de vírus auto-replicantes e todos os dias são lançados pelo menos 25 novos vírus de macro, cada vez mais sofisticados e prejudiciais. Para infectar uma máquina, um vírus pode ser repassado através de documentos, programas, disquetes, arquivos de sistemas, entre outros, previamente infectados. Arquivos executáveis, tais como os de extensão: .exe, .bat e .com, geralmente são os alvos preferidos para transmissão, por isso, deve-se evitar envia-los ou recebê-los. Alguns tipos de vírus:
  • Vírus de Programa;
  • Vírus de Macro;
  • Vírus Multipartite;
  • Vírus Stealth;
  • Vírus Polimórficos;
  • Vírus de Boot;

Bookmark and Share

23 de novembro de 2009

Internet via rede elétrica

          A Internet via rede elétrica poderá favorecer a inclusão digital, reduzir as contas de energia e ampliar competitividade das empresas que prestam serviços de Internet. Mas a regulamentação do Power Line Comunications (PLC), nome dado à transmissão de dados digitais pela malha de distribuição, pode não estar formulada de modo a garantir que todos os resultados previstos sejam alcançados. Dentre as discussões, a principal questão levantada pelos agentes do setor é que justamente às regras de acesso a este mercado podem limitar o interesse das distribuidoras de energia em disponibilizar sua rede para oferecer o serviço. A Resolução Normativa nº 375/2009 da Agência Nacional de Energia Elétrica (Aneel), de 25 de agosto deste ano, estabelece as diretrizes para o uso compartilhado da rede elétrica com a transmissão de dados. A regulamentação organiza a forma como as 64 distribuidoras de energia do país podem disponibilizar sua rede para o serviço de Internet. Contribuir para a modicidade tarifária e a democratização do acesso ao mundo digital são as bases motivadoras do novo modelo regulatório, explica o assessor da Superintendência de Regulação dos Serviços de Distribuição da Aneel, Carlos Alberto Mattar. O serviço público com maior cobertura no país é a rede elétrica e sua capilaridade permitiria acesso à Internet superior às demais tecnologias. Atualmente, 95% do território nacional é provido de rede de distribuição, devendo passar para 100% até o fim de 2010, com o programa de eletrificação rural Luz para Todos.
          Discussões - A medida pode ser vista por dois prismas, na consideração do presidente da Associação de Empresas Proprietárias de Infraestrutura e de Sistemas Privados de Telecomunicações (APTEL), Pedro Jatobá: Pela Agência Nacional de Telecomunicações (Anatel), do ponto de vista de reconhecer a tecnologia como forma viável de transmissão de dados e pela Aneel, como metodologia para permitir o uso da infraestrutura. Mas reconhece que o fato de a empresa de energia não poder usar a própria rede, está gerando muitos questionamentos. Enquanto a Anatel regulamentou o uso do serviço de Telecomunicação, a Aneel tratou de regularizar a forma como a distribuidora de energia irá compartilhar a sua rede. Conforme regras do setor elétrico, a empresa de distribuição não está autorizada a efetuar o serviço, devendo para isso, criar uma subsidiária para atuar na área de telecomunicações. Pelo setor elétrico, a iniciativa somaria pontos ao contribuir com a modicidade tarifária, ou seja, descontando nas contas de energia do consumidor comum o abatimento de parte do lucro. Segundo Mattar, dos recursos que a distribuidora de energia obtiver, com o aluguel de sua rede, 90% devem ser usados para reduzir as tarifas de energia. Mattar explica que até o momento não é possível projetar uma redução nas tarifas de energia que o uso do PLC deverá proporcionar, tampouco projetar a expansão real deste mercado. Esses dados serão colhidos e mensurados no 3º ciclo de revisão tarifária, que começa em abril de 2011, onde as empresas que disponibilizarem o serviço apresentarão os percentuais abatidos.
          A projeção de queda nas tarifas de energia é menos otimista para o coordenador do programa de PLC da Companhia Paranaense de Energia Elétrica (Copel), Orlando César de Oliveira. Ele exemplifica com demais empresas de telefonia e TV a cabo, que passaram a oferecer o serviço de Internet banda larga, mas não resultou em redução das tarifas do serviço nas contas do serviço base. Ele ainda sinaliza para o fato de a distribuidora de energia não poder usar o seu serviço, devendo concorrer com demais players interessados no aluguel da rede, que ocorrerá na forma de leilão onde a empresa que oferecer o maior lance, ganha. “Se a própria Copel Telecom quiser oferecer o serviço, deverá pagar a sua distribuidora pelo uso da rede da Copel?”, indaga. A distribuidora de energia só pode fazer uso do PLC no próprio serviço de distribuição – como telemedição corte e ligamento à distância, entre outros -, projetos experimentais, científicos ou de cunho social. O presidente da APTEL considera que o percentual de retorno financeiro e o fato da empresa distribuidora não ter acesso ao uso de sua própria rede, pode gerar um desestímulo às distribuidoras de energia, que poderão resguardar sua rede para uso próprio. Ele argumenta que a regulamentação em si é um avanço em relação ao país não ter nenhuma ação relativa ao PLC, mas para a expansão da tecnologia, ela não será favorável. Oliveira ressalta que à época da expansão da fibra ótica, que criou oportunidades para empresas de todo mundo, ainda nos anos 90, foi pouco aproveitado pelo mercado brasileiro, mesmo não havendo nenhuma regra de impedimento. Se o PLC possui regras que dificultam a ação das distribuidoras, certamente a aderência será menor.
          De acordo com a diretora-geral das empresas de telecom do Grupo AES no Brasil, Teresa Vernaglia, o método realmente traz vantagens, como a facilidade de instalação, banda simétrica – mesma velocidade para upload e dowload -, e mobilidade, já que o usuário pode usar em qualquer tomada da residência. Ela acredita que mercado de banda larga é sabiamente crescente no Brasil e o PLC deverá ser mais uma alternativa tecnológica para esse crescimento. Concorrência - A Aneel informa em seu hotsite sobre o PLC que a tecnologia também deverá resultar em uma queda no preço do serviço de Internet, pois será mais uma opção de se obter o serviço, ampliando a competitividade do setor. A agência não terá nenhuma responsabilidade em relação a formação de preços nesse mercado, assegurou Mattar, o que deverá ser definido entre a empresa e o cliente. Como na concorrência pelo aluguel da rede, ganha quem der o maior lance, Oliveira alerta para a possibilidade de as empresas que já dominam o mercado de Internet no Brasil oferecerem os maiores prêmios, somente para não perder espaço para outros concorrentes. Outra possibilidade é do lance elevado ser repassado para o consumidor final, onerando a tarifa e inviabilizando a expansão do PLC. Sobre esse aspecto, Jatobá considera que deverá prevalecer a estrutura de concorrência do mercado. Se a empresa oferecer um serviço de Internet caro, certamente perderá espaço para os concorrentes e seu serviço ficará inviável. “Se as empresas não podem usar a própria infra-estrutura, deverão resguardar para uso próprio”. Modelo – De acordo com Oliveira, a metodologia aplicada para o PLC no Brasil, difere dos moldes feitos no resto do mundo, onde é mais comum encontrar sistemas públicos, tanto na distribuição de energia quanto da telefonia, o que realmente gera uma maior competitividade e queda de preços.

Bookmark and Share

22 de novembro de 2009

Engenharia Social

É o ato de forjar, enganar pessoas e sociedades a respeito de algum assunto a fim de se aproveitar, lucrar ou apropriar de direitos alheios. Serve para a obtenção de informações importantes de uma empresa, através de seus usuários e colaboradores por meio da ingenuidade ou confiança. Estes ataques geralmente são realizados através de telefonemas, correio eletrônico, salas de bate-papo e até mesmo pessoalmente. Ou segundo um dos maiores hackers já vistos até hoje, que ficou conhecido por diversas invasões, sendo a primeira conhecida a computadores da NSA, que é a Agência de Segurança Nacional dos Estados Unidos, Kevin Mitnick:

“É um termo diferente para definir o uso de persuasão para influenciar as pessoas a concordar com um pedido”

Geralmente o engenheiro social é um tipo de pessoa agradável. Ou seja, uma pessoa educada, simpática, carismática. Mas, sobretudo criativa, flexível e dinâmica. Possuindo uma conversa bastante envolvente. Embora existam inúmeros “engenheiros sociais” espalhados pelo mundo, exercendo propositalmente esta arte para o bem ou para o mal, assim como pessoas que mesmo sem o conhecimento prévio desta designação, já cometeram o ato de engenharia social, de alguma forma ocasionalmente em suas rotinas diárias. Este tipo de ataque se apega a fatores emocionais e amorosos, confundindo assuntos profissionais e pessoais e se aproveitando da atração afetiva.

Bookmark and Share

21 de novembro de 2009

Assinatura Digital

Um recurso conhecido por Assinatura Digital é muito usado com chaves públicas. Trata-se de um meio que permite provar que um determinado documento eletrônico é de procedência verdadeira. O receptor da informação usará a chave pública fornecida pelo emissor para se certificar da origem. Além disso, a chave fica integrada ao documento de forma que qualquer alteração por terceiros imediatamente a invalide. É importante frisar que assinatura digital não é o mesmo que assinatura digitalizada. Esta última consiste em uma assinatura feita à mão por um indivíduo que depois é capturada por scanner e incluída em documentos.

Bookmark and Share

20 de novembro de 2009

Segurança da Informação: O Que é?

O ativo mais valioso para uma organização ou pessoa é a informação. Este grande diferencial competitivo então deve estar disponível apenas para as pessoas de direito. Elaborar e garantir critérios que protejam estas informações contra fraudes, roubos ou vazamentos nas empresas são responsabilidades e habilidades dos gestores e analistas de segurança da informação. As atividades de segurança da informação englobam o desenho, implementação, controle e monitoração de métodos e processos que visam assegurar os ativos de informação de uma organização ou pessoa.
Sua atuação numa empresa está diretamente envolvida com as áreas de negócio, principalmente com a área de tecnologia, uma vez que esta sustenta a maioria dos processos de negócio da empresa. A sinergia da área com os projetos e departamentos da organização é caráter fundamental para a boa prática da segurança da informação no ambiente corporativo. Para desenvolver uma política e uma cultura de segurança da informação, a TI precisa antes garantir a entrega dos recursos e da informação para os usuários, além de mantê-los íntegros e confidenciais.
As informações de negócio de uma organização estão dispostas em um complexo ecossistema formado por processos de negócio, pessoas e tecnologia. Para garantir a continuidade do negócio de uma organização, é preciso assegurar que cada membro deste ecossistema esteja em conformidade com normas internas criadas pela própria organização e normatizações externas, nacionais e internacionais. Vamos apresentar aqui um conjunto de boas práticas de mercado que ajuda a manter todos os recursos disponíveis e seguros para as tomadas de decisão da organização. Cada organização tem seu core businness e para cada um podemos olhar e encontrar particularidades que devemos trabalhar para garanti-las também. Mas o principal objetivo nunca muda e em todos os programas de desenvolvimento de uma política e cultura de segurança da informação vamos encontrar estes três itens:
  • Garantir disponibilidade dos recursos/informação;
  • Garantir integridade da informação;
  • Garantir confidencialidade da informação.

Bookmark and Share

19 de novembro de 2009

Projeto de Lei nº. 607/2007

No último dia 19 de agosto, o projeto de lei 607 recebeu mais um parecer favorável, agora da Comissão de Constituição, Justiça e Cidadania e caminha mais um passo em direção à votação no Plenário. Este projeto de lei visa regulamentar a profissão de analista de sistemas, cria o Conselho Nacional e Conselhos Regionais de Informática, sendo que os profissionais deverão obrigatoriamente ser associados aos conselhos com pagamento de anuidade. As atividades profissionais que serão regulamentadas por este projeto de lei são:
  • planejamento, coordenação e execução de projetos de sistemas de informação, como tais entendidos os que envolvam o processamento de dados ou utilização de recursos de informática e automação;
  • elaboração de orçamentos e definições operacionais e funcionais de projetos e sistemas para processamento de dados, informática e automação;
  • definição, estruturação, teste e simulação de programas e sistemas de informação;
  • elaboração e codificação de programas;
  • estudos de viabilidade técnica e financeira para implantação de projetos e sistemas de informação, assim como máquinas e aparelhos de informática e automação;
  • fiscalização, controle e operação de sistemas de processamento de dados que demandem acompanhamento especializado;
  • suporte técnico e consultoria especializada em informática e automação;
  • estudos, análises, avaliações, vistorias, pareceres, perícias e auditorias de projetos e sistemas de informação;
  • ensino, pesquisa, experimentação e divulgação tecnológica;
  • qualquer outra atividade que, por sua natureza, esteja incluída no âmbito de suas profissões.

Para exercer a profissão de analista de sistemas no país, os interessados devem ter diploma de nível superior em Análise de Sistemas, Ciência da Computação ou Processamento de Dados ou ter no mínimo 5 anos de experiência na função de analista de sistemas comprovadas até a data de entrada em vigor desta Lei. Grandes profissionais do mercado que são engenheiros, físicos, administradores de empresa, entre outras formações, deverão ter que comprovar experiência. Empresas de informática deverão certificar que seus funcionários são associados ao conselho, caso contrário sofrerão penalidades, assim como profissionais que prestarem os serviços listados e não foram registrados no Conselho.

Bookmark and Share

18 de novembro de 2009

O que fazer para se proteger contra a primeira falha do Windows 7

Um novo exploit descoberto na sexta-feira (13/11) pela Microsoft tem capacidade para travar o sistema Windows 7. Classificada como uma falha de Zero Day (vulnerabilidade explorada antes que seja encontrada uma solução), este bug encontra-se no Server Message Block (SMB), um protocolo criado pela empresa que forma o backbone de compartilhamento de arquivos do Windows.

Mas como o erro só pode ser explorado para incapacitar um computador, e a vulnerabilidade não permite a instalação de códigos maliciosos no Windows 7, é muito provável que hackers não utilizem esta falha para atacar.

De qualquer forma, você pode minimizar os riscos ao bloquear o tráfego SMB em seu roteador ou firewall, evitando que ameaças externas possam atacar seu sistema e sua rede.

Por Tony Bradley, PC World/EUA

Bookmark and Share

17 de novembro de 2009

Código de Ética na Computação

Um dos códigos de ética da área de computação mais bem elaborado é o da Sociedade Americana Association for Computing Machinery (ACM), que congrega profissionais e acadêmicos da área de computação em todo o mundo. O código da ACM foi elaborado no início da década de 1990 (Anderson, 1992). Trata-se de um código pioneiro em definir e apresentar de forma objetiva os principais pontos da ética nesta área.

O código da ACM (Association for Computing Machinery) é também bastante genérico. Ele estabelece para os membros, entre outras coisas, "esforçar-se para conseguirem alta qualidade, efetividade e dignidade nos processos e produtos do trabalho profissional", "adquirir e manter competência profissional" e "fornecer avaliações sobre sistemas computacionais e seus impactos, de forma compreensiva e minuciosa, incluindo análise de possíveis riscos".

Avaliar o poder de códigos endossados por organizações profissionais leva a uma interessante questão: uma empresa deve adotar um código de ética desenvolvido por determinada organização ou deveria criar o seu próprio código? Afinal, empresas podem desempenhar um importante papel na disseminação de um senso de responsabilidade e integridade profissional entre seus funcionários.

Bookmark and Share

16 de novembro de 2009

Profissão: Analista de Sistemas

O analista de sistemas ou atualmente mais conhecido como sistematizador de informações, é aquele que tem como finalidade realizar estudos de processos computacionais para encontrar o melhor e mais racional caminho para que a informação virtual possa ser processada. Este profissional estuda os diversos sistemas existentes entre hardwares (equipamento) e softwares (programas) e o usuário final, incluindo seus comportamentos e aplicações. A partir dessa conexão, desenvolve soluções que serão padronizadas e transcritas da forma que o computador possa executar. Os profissionais da área criam programas, que são executados em hardwares operados por usuários, preparados e treinados em procedimentos operacionais padronizados. Assim, cabe ao analista de sistemas, parte da organização, implantação e manutenção de aplicativos e redes de computadores.

Qual a formação necessária para ser analista de sistemas?

Até alguns anos atrás, o estudante que desejasse trabalhar com análise de sistemas, deveria prestar vestibular selecionando a opção Análise de Sistemas - Bacharelado, com duração média de 4 anos. Porém, com surgimento de novos cursos mais específicos que melhor preparam o profissional a estar apto na área em que deseja trabalhar, o curso de análise de sistemas foi ficando escasso em diversas universidades, sendo substituído por Sistemas de Informação (o mais comum), Ciências da Computação, Ciências da Informação, entre outros. Estes cursos que têm duração média de 4 anos e se relacionam entre si contemplam durante a graduação os seguintes assuntos: teoria de sistemas ou subsistemas interconectados que utilizam equipamentos na aquisição, armazenamento, manipulação, gestão, controle, troca, no intercâmbio, na transmissão, ou na recepção da voz e/ou dos dados, além de disciplinas mais gerais, porém que proporcionam a compreensão das atividades como a matemática, por exemplo.

Áreas de atuação e especialidades

Com o maior desenvolvimento tecnológico, abriu-se um leque de atividades em que um analista de sistemas pode atuar. Entre eles, as principais áreas de atuação deste profissional são como:
  • Projetista e Engenheiro de Software
  • Administrador de Banco de Dados
  • Analista de Sistemas
  • Consultor de tecnologias, tanto de hardware, de software ou de processos informatizados
  • Gerente da área/empresa tecnológica
  • Gerente/Administrador de Redes de pequeno e médio porte
  • Apoio ao desenvolvimento de Projetos Pedagógicos e atuação como docente no ensino da informática
  • CIO - Chief Information Officer - Responsável por gerenciar a informação na empresa
  • CTO - Chief Technology Officer - Responsável por gerenciar a tecnologia da informação na empresa

Bookmark and Share

15 de novembro de 2009

Entenda o que é a Web 2.0

O termo Web 2.0 é utilizado para descrever a segunda geração da World Wide Web --tendência que reforça o conceito de troca de informações e colaboração dos internautas com sites e serviços virtuais. A idéia é que o ambiente on-line se torne mais dinâmico e que os usuários colaborem para a organização de conteúdo. Dentro deste contexto se encaixa a enciclopédia Wikipedia, cujas informações são disponibilizadas e editadas pelos próprios internautas. Também entra nesta definição a oferta de diversos serviços on-line, todos interligados, como oferecido pelo Windows Live. Esta página da Microsoft, ainda em versão de testes, integra ferramenta de busca, de e-mail, comunicador instantâneo e programas de segurança, entre outros. Muitos consideram toda a divulgação em torno da Web 2.0 um golpe de marketing. Como o universo digital sempre apresentou interatividade, o reforço desta característica seria um movimento natural e, por isso, não daria à tendência o título de "a segunda geração". Polêmicas à parte, o número de sites e serviços que exploram esta tendência vem crescendo e ganhando cada vez mais adeptos.

Bookmark and Share

14 de novembro de 2009

Crackers conseguem ativar o Windows 7

Um grupo de crackers descobriu uma nova forma de ativar versões ilegais do Windows 7 e do Windows Server 2008 R2. A técnica permite que usuários acessem todas as funções do sistema sem a necessidade de utilizar a chave de ativação que acompanha as cópias originais do produto.
Segundo o My Digital Life, o crack é similar ao utilizado para burlar o recurso de ativação do Windows Vista, que já foi corrigido pela Microsoft na versão. O problema é que o Win 7 apresenta o mesmo problema que, segundo a MS, deve receber atenção em breve. “Nós já estamos sabemos do problema e estamos trabalhando e sua solução”, afirmou um representante da empresa de Redmond ao site The Register.

O crack funciona anulando o arquivo conhecido como sppcompai.dll, que invalida a ação do Windows Activation Technologies, Software Protection Platform e do Software Licensing Client. Todos desenvolvidos para validar as cópias do SO. Usuários com cópias ilegais e não registradas recebem constantes mensagens de segurança do sistema, informando que a máquina pode estar infectada com ameaças digitais, como malware e vírus.

Bookmark and Share

13 de novembro de 2009

Por que investir em Segurança?

O mundo globalizado de hoje, complexo e competitivo, exige vários cuidados, e o principal deles é a segurança e é por isso que independente do tipo e do tamanho da empresa, o investimento em segurança da informação é obviamente necessário, e também, não apenas em empresas, como usuários domésticos, devem ter muito cuidado com a segurança das suas informações em seus computadores pessoais ou notebooks.
O termo segurança está longe de ser uma palavra vaga e distante, ela não representa somente uma necessidade e sim uma obrigação, ou seja, é o ingrediente prioritário que impulsionará a empresa em busca do seu desenvolvimento. Mas antes de começar a investir, é preciso que a empresa considere quais são os seus objetivos, iniciando-se com um diagnóstico da atual situação financeira, realizando um planejamento cuidadoso, pois no mercado atual as empresas estão com seus orçamentos cada vez mais curtos e cada gasto deve ser justificado. Além disso, é necessário investir de acordo com a criticidade das ameaças e das vulnerabilidades que podem causar impactos nos negócios da empresa. O processo de segurança é um processo de realimentação, que envolve pessoas, equipamentos, sistemas e entre outros processos, a grande importância em investir ainda é uma questão que traz diversas dúvidas.
Proteger informações não é sinônimo de luxo e muito menos de uma ação de baixa prioridade, e muitos executivos desconhecem as ameaças e as vulnerabilidades que a empresa está sujeita constantemente. Eles ainda não sabem ao certo, quanto, como e onde investir em segurança. Nesse sentido, a questão é refletir em quanto à empresa pode perder se não investir e não em quanto ela vai lucrar, ou seja, o ROI (Return of Investiment) da segurança não tem uma dimensão definida, a questão de investimento está intimamente ligada ao diferencial competitivo que é algo estável, e uma vez que a empresa apresentar uma gestão de processo de segurança bem estabelecida, certamente ela atrairá novos clientes e originará mais lucros.

Bookmark and Share

12 de novembro de 2009

Firewall


Firewall consiste em combinar hardware e software para limitar a exposição de uma máquina ou uma rede de um ataque feito por um ‘hacker’, ou melhor, é o nome dado ao dispositivo de rede que tem por função regular o tráfego de rede entre redes distintas e impedir a transmissão de dados nocivos ou não autorizados de uma rede a outra.Existe na forma de software e hardware, ou na combinação de ambos. A instalação depende do tamanho da rede, da complexidade das regras que autorizam o fluxo de entrada e saída de informações e do grau de segurança desejado.É utilizado para evitar que o tráfego não autorizado possa fluir de um domínio de rede para o outro, apesar de ser diretamente ligado a proteção de redes, o firewall não possui capacidade de analisar toda a extensão do protocolo, ficando geralmente restrito ao nível 4 da camada OSI (transporte).


 Na imagem acima, tem apresentado um esquema de Firewall.

Bookmark and Share

11 de novembro de 2009

Segurança da informação: cultivada dia-a-dia

Inicialmente deve-se ter conhecimento de que o enunciado “segurança da informação” pode exprimir dois sentidos, isto é, a segurança representada como um meio (instrumento) ou como um fim (conclusão). No primeiro ela propõe a garantia da proteção da informação, visando conformidades com as normas e dando continuidades aos processos de negócios na empresa. E no segundo representa quando a segurança é atingida por meio de práticas, políticas e processos que manipulam a informação. Com a facilidade e a rapidez em que os dados circulam numa organização as informações podem ser usadas de forma nociva e se propagarem perigosamente. Portanto o perigo existe e não há como ignorar a necessidade de uma medida de segurança. Hoje em dia é preciso ter muita cautela. Segurança da informação sempre é um assunto delicado dentro das corporações, tratado com reservas e até certo enigma. Muitas pessoas associam Segurança da Informação a uma mera aplicação de recursos tecnológicos, mas na verdade é um conjunto de procedimentos e controles no qual Tecnologia da Informação certamente tem seu papel importante, todavia não é tudo.
A segurança da informação é uma necessidade das empresas para travar uma batalha pelos riscos que a informação fica exposta. Riscos esses que são em tempo real e um pequeno descuido podem gerar transtornos com graves conseqüências para a empresa e para os negócios, pois a todo minuto se criam novas formas de ataque, invasão, vírus, entre outros.Dessa forma, quando se fala em Segurança de Informação todo o esforço para proteger os dados, estabelecer processos de controle e prevenir riscos é sempre pouco.

Bookmark and Share

10 de novembro de 2009

Crie uma pasta Invisível, não Oculta


Neste tutorial como já diz o título vamos aprender a criar uma pasta INVÍSIVEL, não oculta, a pasta será criada na Área de trabalho, então siga os passos:

Já na sua Área de trabalho com o botão direito do mouse clique no menu novo > pasta, deixe-a em branco pressionando a tecla <-- retrocesso, a seguir pressione a tecla Alt + 255 note que a pasta ficou sem nome, a seguir clique com o direito do mouse nesta pasta e clique no menu propriedades, na janela que se abre clique na guia personalizar, a seguir clique no botão alterar ícone, feito arraste a barra de rolagem e encontre um campo vazio entre os ícones disponíveis e clique ali, nisso ira surgir um quadrado azul, ou seja, sem nada que represente um ícone, ao clicar de ok em seguida clique aplicar e ok novamente para sair da janela. Pronto a pasta invisível foi criada!!!!

Bookmark and Share

9 de novembro de 2009

Profissão: Engenheiro da Computação

O engenheiro da computação é o profissional com graduação de nível superior em engenharia da computação, responsável por desenvolver, implementar, manter, corrigir e aperfeiçoar sistemas e ambientes computacionais, tanto em termos de softwares (programas), quanto de hardwares (máquinas). Além disso o profissional é apto a administrar e criar sistemas de tratamento e processamento de informação. É ele quem elabora e executa projetos de rede, comunicação, integração, automação, etc.

Qual a formação necessária para ser um engenheiro da computação?

Para ser um engenheiro da computação é necessário diploma de nível superior em Engenharia da Computação, que tem duração média de cinco anos. O curso oferece ao aluno uma formação completa para trabalhar em todos os ambientes computacionais e a lidar com as máquinas e equipamentos, desde a elaboração, até a execução. Algumas das matérias que fazem parte da grade curricular do curso são: eletrônica, linguagens de programação, circuitos elétricos, circuitos lógicos, criação de softwares, redes de computadores, matemática computacional, matemática aplicada, sistemas digitais, cálculo, física, microeletrônica e banco de dados, entre outras. Por se tratar de uma área ligada às tecnologias, é interessante também que o profissional esteja sempre se atualizando através de cursos, treinamentos, especializações, palestras, etc.

Áreas de atuação e especialidades

A engenharia da computação é um campo muito amplo, e há diversas áreas onde o profisisonal pode se especializar, como por exemplo:

  • Automação industrial: projetar sistemas digitais, máquinas e equipamentos de automação para a indústria
  • Desenvolvimento de softwares e aplicativos: desenvolver programas, sistemas operacionais, linguagens específicas e aplicativos de computadores em diversas áreas, como tratamento de informação
  • Pesquisa tecnológia: estudar, elaborar e criar novas tecnologias
  • Construção e conserto de hardware: projetar e construir computadores e periféricos
  • Venda de equipamentos e máquinas: comercializar equipamentos de informática.
  • Suporte: dar suporte e assistência em redes de computadores e sistemas de grandes empresas.

Bookmark and Share

8 de novembro de 2009

O idioma dos objetos

Vai trabalhar com Java ou C#? Ligue-se nestes termos de OOP.
Um programa que funciona de forma autônoma e é usado como bloco básico para a montagem de softwares mais complexos. Um objeto contém tanto os dados quanto o código de programa para manipular esses dados.

Abstração: a abilidade de um programa ignorar os aspectos não essenciais da informação que está manipulando. A abstração possibilita usar um objeto fornecendo apenas os dados necessários para a tarefa a ser realizada.
Encapsulamento: o termo refere-se ao fato de que o objeto é visto como uma caixa-preta. Sabe-se o que ele faz, mas não como isso é feito. O encapsulamento evita que a estrutura interna do objeto seja alterada por código externo. Também facilita o reaproveitamento do código, já que não é preciso saber como funciona o objeto para usá-lo, basta conhecer os métodos e propriedades.
Hereditariedade: o fato de uma classe herdar características da superclasse que deu origem a ela. Isso traz ganhos na produtividade na programação, pois não é preciso especificar novamente características que já foram definidas.
Hierarquia: a maneira como as classes se relacionam, superclasses englobando subclasses.
Instância: uma ocorrência de um objeto de determinada classe.
Modularidade: característica de programas que são divididos em blocos autônomos.
Método: é uma ação que a classe ou o objeto é capaz de realizar.
Polimorfismo: a habilidade de um método comportar-se de modo diferente, dependendo do objeto a que é aplicado.
Propriedade: característica de um objeto que pode ser alterada por uma instrução de programa.
Classe: protótipo que define características comuns a todos os objetos de um determinado tipo.
Subclasse: classe derivada de outra classe.
Superclasse: classe que dá origem a outra classe.

Bookmark and Share

7 de novembro de 2009

Distribuição Linux

Por se tratar de um sistema operacional livre e de código aberto não demorou para que milhares de pessoas começassem a fazer modificações no Linux de forma a customizar ou adequá-lo às suas necessidades pessoais. Cada vez que alguém altera o Linux com personalizações e particularidades, esta alteração é chamada de Distribuição Linux, e como tal cada pessoa que o fizer pode dar um nome para sua distribuição e publicá-la na rede para que outras pessoas possam utilizar a sua distribuição.
Cada distribuição tem sua característica própria, atendendo as necessidades de seus usuários, tais como o sistema de instalação, o objetivo, a localização de programas, nomes de arquivos de configuração, etc. A escolha de uma distribuição é pessoal e depende das necessidades e finalidades de cada um.
Atualmente existem centenas de distribuições Linux, porém, como tudo na vida, algumas se destacaram. Algumas distribuições bastante conhecidas e destacadas nos dias de hoje são: Slackware, Debian, Red Hat, Fedora, Mandriva, Suse, Ubuntu e Kurumin, todas usando o SO Linux como kernel principal.

Bookmark and Share

5 de novembro de 2009

Hackers X Crackers

Muita gente, até mesmo por falta de conhecimento, termina confundindo esses dois termos, abaixo vou mostrar a diferença de ambos:

Hacker: na verdade, os hackers são os bons mocinhos. Para os fãs de Guerra nas Estrelas, pensem no hacker como o cavaleiro jedi bonzinho. Ele possui os mesmos poderes que o jedi do lado negro da força (cracker) mas os utiliza para proteção. É um curioso por natureza, uma pessoa que têm em aprender e se desenvolver um hobby, assim como ajudar os “menos prevalecidos”. Um bom exemplo real foi quando o cracker Kevin Mitnick invadiu o computador do analista de sistemas Shimomura. Mitnick destruiu dados e roubou informações vitais. Shimomura é chamado de hacker pois usa sua inteligência para o bem, e possui muitos mais conhecimentos que seu inimigo digital. Assim facilmente montou um honeypot (armadilha que consiste em criar uma falsa rede para pegar o invasor) e pegou Kevin. Infelizmente a imprensa confundiu os termos e toda notícia referente a baderneiros digitais se refere à hacker.

Crackers: esses sim são os maldosos. Com um alto grau de conhecimento e nenhum respeito, invadem sistemas e podem apenas deixar a sua “marca” ou destruí-los completamente. Geralmente são hackers que querem se vingar de algum operador, adolescentes que querem ser aceitos por grupos de crackers (ou script kiddies) e saem apagando tudo que vêem ou mestres da programação que são pagos por empresas para fazerem espionagem industrial. Hackers e crackers costumam entrar muito em conflito. Guerras entre grupos é comum, e isso pode ser visto em muitos fóruns de discussão e em grandes empresas, as quais contratam hackers para proteger seus sistemas.

Bookmark and Share

4 de novembro de 2009

Com que freqüência deve-se mudar senha?

A regra básica é trocá-la pelo menos a cada dois ou três meses. Existem páginas nos provedores que facilitam a troca da senha, e estão lá para serem utilizadas. Trocando-a regularmente você garante a integridade da mesma. Caso não encontre o serviço de troca de senha no site de seu provedor, entre em contato com o serviço de suporte, mas não aceite que a mudança da senha seja feita por funcionários. A alteração da senha, sempre deve ser feita pelo próprio dono!
A senha é importantíssima e mantê-la em segrede é a sua segurança!

Bookmark and Share

3 de novembro de 2009

Como escolher uma boa senha?

Uma boa senha deve ter pelo menos oito caracteres (letras, números e símbolos), deve ser simples de digitar e, o mais importante, deve ser fácil de lembrar. Normalmente os sistemas diferenciam letras maiúsculas das minúsculas o que já ajuda na composição da senha.
Claro que o seu sobrenome, números de documentos, placas de carros, números de telefones e datas em geral, deverão estar fora de sua lista de possíveis senhas. Pois esses dados são muito fáceis de obter e qualquer criminoso tentaria utilizar este tipo de informações para se autenticar como você. Existem várias regras de criação de senhas que você pode utilizar uma regra de ouro para escolha de uma boa senha é: jamais utilize como senha palavras que façam parte de dicionários. O que fazer então? Fácil perceber, quanto mais “bagunçada” a senha melhor, pois mais difícil será descobri - lá. Assim tente misturar letras maiúsculas, minúsculas, números e sinais de pontuação. Uma regra realmente prática e que gera boas senhas difíceis de serem descobertas é utilizar uma frase qualquer e pegar a primeira, segunda ou a última letra de cada palavra.
Por exemplo, usando a frase: “batatinha quando nasce se esparrama pelo chão”, podemos gerar a seguinte senha “BqnsepC”, mas essa senha só tem 7 caracteres, precisamos de pelo menos mais um caractere para completar o mínimo de 8 caracteres. Assim a senha gerada fica “!BqnsepC”.

Bookmark and Share

2 de novembro de 2009

A íris é a senha

A utilização do reconhecimento de íris em controles de segurança saiu do laboratório, abrir portas simplesmente olhando para um sensor óptico não é mais cena de filmes de ficção. A biometria através do reconhecimento da íris deixou os laboratórios e as telas do cinema e já começa a ocupar o mundo real para garantir a segurança de locais que tem acesso restrito.
O reconhecimento da íris não é o único sistema biométrico disponível hoje, mas então, porque essa é a mais segura? Ela é praticamente infalível e mais preciso que os outros existentes. Quando um cadastramento de íris é feito, a imagem da íris é totalmente mapeada e transformada num código, o Íris Code. Essa codificação chega a ter 400 pontos de reconhecimento, bem mais que um sistema digital dos dedos, que tem apenas 60 pontos. Tamanha precisão, garante a esse sistema de segurança, um posto de anti-fraudes. Um indivíduo que faz o cadastro do olho esquerdo deve fazer a leitura somente do olho esquerdo, caso seja lido o direito, os dados não são válidos. Pontos a serem considerados, que torna o reconhecimento de íris, um método, completamente seguro:

  • A íris é a única parte do ser humano que se forma aos seis meses de idade e nunca muda; 
  • Possui 400 pontos de identificação; 
  • A íris não pode ser modificada com cirurgia plástica; 
  • Criar uma íris falsa ou tentar utilizar um cadáver é impossível. 

Bookmark and Share

1 de novembro de 2009

Bridge: a rede invisível

Uma bridge ou ponte é um dispositivo que serve para conectar duas redes distintas, permitindo a comunicação entre elas. A bridge pode ser um dispositivo dedicado ou então um PC com dias placas de rede, configurado para executar esta função.
A primeira vista, pode parecer que a bridge tem a mesma função de um hub comum, mas as aplicações são bem diferentes. Um hub permite conectar vários PCs, que passam a fazer parte de um único segmento de rede, em que todos os dados transmitidos por um PC são retransmitidos a todos os demais. A utilização indiscriminada de hubs diminui o desempenho da rede, conforme aumenta o tráfego de dados e a quantidade de PCs. Uma bridge permite unir dois ou mais hubs, transformando-os em uma única rede, na qual os PCs conectados a cada hub tornam-se um segmento de rede distinto. Isso faz toda uma diferença: uma bridge de examinar os pacotes e retransmiti-los apenas ao destinatário correto. Isso previne a saturação da rede, mesmo que existam muitos PCs conectados a ela. Mas existem algumas limitações: uma bridge pode conectar apenas redes que utilizem a mesma arquitetura e que utilizem o mesmo protocolo de rede.
A maioria das bridges que funcionam em aparelhos dedicados, costuma fazer também a função de firewall da rede, ou seja, também são responsáveis pela aplicação de regras de segurança dentro da rede e de seu tráfego.

Bookmark and Share

Contador

free counter
PageRank

Campanha


Diga não ao bloqueio de blogs

  ©Template by Dicas Blogger.

TOPO