ANEXO M
Folder da Programação do Fórum 30 anos de TI no TCU
ANEXO O
Como o BRASIL está conectado ao mundo
1. CONEXÕES POR CABOS SUBMARINOS
Cabo submarino é um cabo telefônico especial, que recebe uma proteção mecânica adicional, própria para instalação sob a água, por exemplo, em rios, baías e oceanos. Normalmente dispõe de alma de aço e de um isolamento e proteção mecânica especiais. Este tipo de cabo telefônico é utilizado principalmente em redes internacionais de telecomunicações, que interligam países e continentes. No Brasil, pelo seu tamanho continental, o cabo submarino é utilizado para interconectar toda a sua costa. Seu tipo pode ser metálico, coaxial ou óptico, sendo este último o mais utilizado atualmente.
A Fibra Óptica vem a ser um meio físico de transmissão, cada vez mais utilizado em Redes de Telecomunicações que, quando conectada a equipamentos adequados, permite trafegar voz, dados e imagens, a altas taxas, com velocidades muito próximas a velocidade da luz.O primeiro sistema óptico, precursor dos sistemas de cabos submarinos atuais, foi implantado nas Ilhas Canárias em 1980 para interconectar toda a sua costa. A era do cabo óptico submarino de longa distância teve início efetivamente em 1988 com o lançamento de um cabo óptico submarino transatlântico entre os oceanos Pacífico e Atlântico (interligando USA, França e Inglaterra) com capacidade de transmissão em massa.
No Brasil, o primeiro cabo submarino fez parte da primeira linha telegráfica brasileira. Foi inaugurado em 1857 e interligava a Praia da Saúde no Rio de Janeiro com a cidade de Petrópolis. A linha tinha extensão total de 50km, sendo 15km em cabo submarino.
A ligação com a Europa foi resultado do espírito empreendedor de Irineu Evangelista de Souza, Barão e depois Visconde de Mauá, que participou da organização e financiamento da instalação do cabo submarino.
Em 1893 a companhia inglesa South American Cables Ltd instalou um cabo submarino em Fernando de Noronha. Um segundo cabo submarino em Fernando de Noronha foi lançado pelos italianos da Italcable em 1925.
a. Esquema do funcionamento do sistema de cabos submarinos:
A principal característica dos sistemas de comunicações de cabos ópticos submarinos, além da sua alta capacidade de transmissão é a distância que se pode atingir, chegando a até 9.000 km sem necessidade de regeneração do sinal.
Nos sistemas que utilizam fibras ópticas de terceira geração consegue-se atingir espaçamentos de até 60km entre repetidores. Já nos sistemas que utilizam cabos com fibras óticas de quarta geração, estes espaçamentos podem atingir até 100 Km.
Além disso, o cabo óptico, amplificadores e regeneradores utilizados em sistemas submarinos são projetados para resistirem a pressão de água de até 8.000m de profundidade (pressão igual a 800 atmosferas). A estrutura dos componentes, incluindo os componentes ópticos, é de altíssima confiabilidade, normalmente assegurando 25 anos de vida útil.
b. AMERICAS II
O cabo submarino Américas II entrou em operação em setembro de 2000, interligando o Brasil (Fortaleza) aos Estados Unidos. Resultado de um consórcio formado por diversas operadoras internacionais (Embratel, WorldCom, Sprint, CANTV, entre outras), opera com a tecnologia SDH (hierarquia digital síncrona), que permite que o sinal seja transmitido e recebido com sincronização.
Com 9.000km de extensão, quatro pares de fibras óticas e capacidade de transmissão de 80 Gbps, o Américas II interliga o Brasil, a Guiana Francesa, Trinidad e Tobago, Venezuela, Curaçao, Martinica, Porto Rico e Estados Unidos. O Américas II tem a capacidade de transmitir 151.200 ligações simultâneas e possui 8 lambdas em cada par de fibra, com uma velocidade de 2,5 Gbps por lambda.
O Americas I segue o mesmo caminho do Americas II (Brasil, Trinidad & Tobago, Porto Rico e Estados Unidos). Foi inaugurado em setembro de 1994 e sai de Fortaleza rumo à Flórida.
c. ATLANTIS-2
Este cabo submarino pertence a um consórcio internacional formado por 25 grandes empresas de telecomunicações e que representam as maiores operadoras de telecomunicações do mundo. Exigiu recursos da ordem de US$ 370 milhões. Setenta por cento do empreendimento foi feito pelas operadoras Embratel, Deutsche Telecom, Telecom Itália, STET-France Telecom, e Telefônica de Espanha.
Com cerca de 12 mil quilômetros de extensão e em operação desde o inicio de 2000, liga o Brasil (de Natal até o Rio de Janeiro) à Europa, África e América do Sul. O cabo possui dois pares de fibras óticas sendo um utilizado para serviço e o outro para restauração.
É o único cabo submarino transatlântico que interliga diretamente a América do Sul à Europa. A capacidade atual deste cabo é de 20 Gbps, sendo a sua capacidade final prevista de 40 Gbps. Possui 8 lambdas no par de serviço, com uma velocidade de 2,5 Gbps por lambda.
Utilizando a infraestrutura do Atlantis 2, a Embratel implantou ainda, para seu uso exclusivo, dois pares adicionais de fibras óticas com capacidade de 40 Gbps, entre Fortaleza e Rio de Janeiro.
Através do cabo submarino Atlantis 2, o Brasil participa da rede digital que conecta os cinco continentes e que será composta pela interligação de 73 sistemas de cabos de fibras óticas, totalizando uma extensão de 385 mil quilômetros. Esta rede irá formar a infraestrutura global da sociedade da informação.
d. EMERGIA – SAM 1
O cabo submarino SAM 1 da Emergia é um sistema construído pela Telefónica S.A., que investiu US$ 1,6 bilhão na sua realização. Ele interliga as três Américas por meio de cabos que somam 25 mil quilômetros de extensão. Possui quatro pares de fibras óticas, 48 lambdas em cada par de fibras, com uma velocidade de 10 Gbps por lambda o que lhe garante uma capacidade de transmissão final igual a 1,92 Tbps.
Diferente dos outros cabos submarinos que tocam o Brasil, o SAM 1 é um anel óptico que circunda as Américas através dos oceanos Atlântico e Pacífico. Ele é auto restaurável o que permite garantir maior qualidade, velocidade e segurança ao tráfego de voz e dados entre as principais cidades do continente.
Devido ao emprego da tecnologia DWDM (Dense Wavelength Division Multiplexer), o circuito pode ser restabelecido caso haja interrupção em algum trecho do cabo submarino. Assim, a informação percorre o caminho inverso, já que o anel possui capacidade de auto restauração para reagir a possíveis falhas em menos de 300 milissegundos, sem queda de transmissão.
A capacidade inicial do cabo da Emergia que entrou em operação em fevereiro de 2001 é de 40 Gbps, expansível até 1.92 Tbps. Os serviços de comunicações de banda larga permitem a conexão porta a porta, na América Latina, América Central e os Estados Unidos, atendendo ao Brasil, Argentina, Chile, Peru, Guatemala, Porto Rico e Estados Unidos.
No Brasil, o cabo interliga as cidades de Santos, Rio de Janeiro, Fortaleza e Salvador. Além disso, um dos centros de operação em rede mundial da Emergia (eNOC) localiza-se na cidade de Santos, Brasil.
e. GLOBAL CROSSING – SAC
Em operação comercial desde o início de 2001 o SAC da Global Crossing teve um custo estimado da ordem de US$ 2 bilhões. O cabo submarino tem 15 mil quilômetros e interliga os principais países da América do Sul, Central e Norte (Brasil, Argentina, Chile, Peru, Panamá e USA).
O SAC é um anel óptico auto restaurável que circunda as Américas através dos oceanos Atlântico e Pacífico. Esta configuração garante ao sistema uma qualidade que permite o fornecimento de um serviço em alta velocidade com qualidade e segurança entre as principais cidades do continente.
Em sua configuração final, o SAC terá quatro pares de fibras ópticas, 32 lâmbdas em cada par de fibras, com uma velocidade de 10 Gbps por lambda o que lhe garantirá uma capacidade de transmissão final igual a 1,28 Tbps. A capacidade inicial do cabo SAC é de 40 Gbps.
f. GLOBENET/360 NETWORK
Recentemente adquirida pela Brasil Telecom, o cabo da Globenet entrou em operação comercial no início de 2001. Diferente dos cabos da Emergia e da Global Crossing o da Globenet não circunda as Américas. Seu anel se fecha pelo próprio Atlântico interligando os Estados Unidos, as Ilhas Bermudas, a Venezuela e o Brasil. No Brasil os pontos de entrada são as cidades do Rio de Janeiro e de Fortaleza.
Com 22,5 km e 303 repetidores, o cabo da Globenet terá em sua configuração final 4 pares de fibras ópticas, 34 lâmbdas em cada par de fibras, com uma velocidade de 10 Gbps por lambda o que lhe garantirá uma capacidade de transmissão final igual a 1,36 Tbps. A capacidade inicial do cabo SAC é de 40 Gbps.
g. UNISUR
Inaugurado oficialmente em 1 de novembro de 1994, o sistema de telecomunicações UNISUR interconecta os países do Mercosul, Argentina (La Plata), Brasil (Florianópolis) e Uruguai (Maldonado).
Resultado de um consórcio formado pelas operadoras internacionais Embratel, Antel (Uruguai) e Telintar (Argentina), compõe-se de um cabo submarino de fibra ótica com 1.741 quilômetros de extensão, 10 repetidores e 15.120 canais. Permite o tráfego de todos os tipos de meios de comunicação, como televisão, telex, telefonia, dados, etc.
2. CONEXÕES ENTRE AS CAPITAIS
a. NIC.br-Núcleo de Informação e Coordenação do Ponto br
É uma entidade civil, sem fins lucrativos que, desde dezembro de 2005, implementa as decisões e projetos do Comitê Gestor da Internet no Brasil, demonstrando nos gráficos das Figuras 3 e 4 um aumento considerável no uso da internet e que há largura de banda sobrando, apesar do incremento. (http://ptt.br/ cgi-bin/all).
Objetivos do NIC:
- o tratamento e resposta a incidentes de segurança em computadores envolvendo redes conectadas à Internet brasileira, através do CERT.br;
- a promoção da infraestrutura para a interconexão direta entre as redes que compõem a Internet brasileira, através do PTT.br;
- divulgação de indicadores e estatísticas e informações estratégicas sobre o desenvolvimento da Internet brasileira, através do CETIC.br;
- o suporte técnico e operacional ao LACNIC, Registro de Endereços da Internet para a América Latina e Caribe.
b. Rede Nacional de Ensino e Pesquisa (RNP)
c. Exemplo de utilização do Diagrama da Fig. 5
Fig. 6 – Tráfego da Global Crossing (GBLX) obtido no Diagrama da Fig. 5 Fonte: IX.br
Pode-se perceber pela Fig. 7 que o tráfego no Pix Global Crossing (GBLX) está 3.1 e 4.7 Mbps, respectivamente, bem abaixo do esperado pela Fig. 6 para o horário considerado (0110h).
c. Rede Ipê
d. Localização estratégica
e. IDC hospeda sistemas do Centro de Difusão de Tecnologia e Conhecimento - CDTC :
f. Buracos na Internet
Cientistas da Universidade de Washington, Estados Unidos, descobriram que existem verdadeiros buracos negros na Internet, interrupções nas comunicações que impedem que usuários de determinada região geográfica acessem servidores localizados em outra região, mesmo que os servidores estejam funcionando corretamente. As informações coletadas até agora mostram que mais de 7 por cento de todos os servidores da Internet caíram em "buracos negros" virtuais ao menos uma vez durante um período de três semanas.
Para localizar esses buracos negros, os cientistas criaram um sistema batizado de Hubble, em homenagem ao telescópio espacial que procura por corpos celestes no espaço profundo. Ao invés de vasculhar as galáxias, o Hubble virtual mapeia os mistérios dos roteadores e cabos de fibras-ópticas que formam a rede mundial de computadores.
A observação da rede mundial é feita por meio de 100 computadores da rede de pesquisas PlanetLab, distribuídos por cerca de 40 países. O sistema de monitoramento envia "sondas virtuais", pequenos programas de teste que checam se determinado computador está respondendo. Esses programas atualmente atingem 90% de toda a Internet.
Como se originam de diversos computadores do PlanetLab, o Hubble virtual consegue detectar computadores que estão acessíveis de um ponto mas não de outro, uma situação conhecida como acessibilidade parcial. Pequenas falhas de comunicação são ignoradas - para ser registrado, um problema deve ser constatado em duas tentativas consecutivas de 15 minutos cada uma.
O mapa do céu da Internet é atualizado a cada 15 minutos, cobrindo todo o planeta. São mostrados todos os locais que estão passando por problemas, e que possuem computadores que não estão acessíveis de outros pontos da rede mesmo estando operando corretamente.
Cada bandeira no mapa corresponde a centenas e até milhares de computadores. Além do mapa, é apresentada uma listagem com os endereços IP dos servidores, contendo a indicação do país em que se encontram.
O principal objetivo do mapa produzido pelo Hubble virtual é fornecer uma nova ferramenta para os administradores de rede, que poderão ser alertados de forma proativa de problemas em sua área ou em seus roteadores. (Redação do Site Inovação Tecnológica – 10/04/2008)
3. CONEXÕES POR SATÉLITES
Os satélites de comunicação são do tipo geoestacionários. O nome vem da característica de sua órbita que se ajusta à velocidade de rotação da Terra ficando como que posicionados sempre sobre um ponto fixo do planeta. Estes satélites são servem para retransmitir dados (Internet), sinais de televisão (canais abertos e fechados), rádio (broadcasting) e telefone.
A função do satélite é a de atuar como um repetidor de sinais gerados em terra. Os sinais são detectados, filtrados, repolarizados, amplificados e transmitidos de volta à Terra. A energia para seu funcionamento vem de baterias alimentadas por células solares que energizam os circuitos repetidores de sinal chamados de transponders.
Os satélites possuem vida útil limitada, normalmente, pela quantidade de combustível que permite corrigir seu ponto estação, daí o aluguel dos canais ser bastante oneroso. Os satélites em órbita devem ter seu uso otimizado por que têm prazo de utilização, e são posicionados para atendimento a contratos com agências governamentais ou privadas, em bandas distintas (Ku, C, X e L são as mais usuais) segundo o tipo de serviço prestado. Os bancos, projetos de governo, educação e varejo são os principais clientes.
Como todo projeto de sistema de comunicações, o satelital representa uma solução de compromisso entre o tempo de transmissão, a potência transmitida, a largura de faixa e a relação sinal-ruído.
São inúmeros os satélites que iluminam o território brasileiro e, se necessário, há uma dezena de outros que poderiam ter seus focos deslocados para atender anseios específicos dos provedores de serviços internacionais, com precisão e área de cobertura distintos, de modo a estabelecer enlaces confiáveis com quaisquer regiões do planeta. Selecionaram-se alguns deles como exemplo, sabendo-se que um mesmo satélite pode funcionar em mais de uma banda.
Soluções de “Banda Larga” baseadas em tecnologias como Frame Relay, Cable Modem, ADSL e ISDN necessitam de um estudo de viabilidade, uma vez que a sua localidade pode estar fora da área de cobertura nas cidades. Enquanto os outros sistemas exigem infraestrutura de rede terrestre, no caso da conexão via satélite, o usuário só precisa estar dentro da área de cobertura do satélite. Com isso o sistema é mais abrangente, e pode ser instalado rapidamente, mesmo em áreas rurais ou isoladas.
O Brasil é o maior mercado de banda larga via satélite de América latina e essa modalidade de acesso foi apresentada ao consumidor brasileiro pela frota de satélites Star One, da Embratel, de forma pioneira na região. Atualmente existem um total de seis companhias com plataformas próprias que, em conjunto, somaram no final do ano passado, mais de 30.000 pontos em serviço.
a. Globalstar
b. Intelsat
1) Identificação: IS-3R at 317º E, Formerly PAS-3R at 43°W (exemplo)
C-band Americas Beam
Ku-band Brazil Beam Fonte:NASA
2) Identificação de outros da Intelsat que cobrem a América do Sul:
G-11 at 91°W
G-28 at 89°W – SAM-C (Formerly IA-8)
G-28 at 89°W – SAM-Ku (Formerly IA-8)
IS-9 at 302°E – (Formerly PAS-9 ata 58°W)
IS-805 at 304.5°E
IS-1R at 315°E – (Formerly PAS-1R at 45°W)
d. Outros
BolivarSat
Eutelsat do Brasil
Telesat Brasil
Hispamar
NahuelSat do Brasil
Loral Skynet do Brasil
SES New Skies do Brasil
A Hughes do Brasil finalizou a migração do centro de operações de rede (NOC - Network Operation Center) de Cotia para Barueri em São Paulo. O NOC está hospedado na Terremark Brasil, maior ponto de troca de tráfego IP multilateral da América Latina.
A migração do NOC é estratégica para a Hughes, pois "permitirá o incremento da capacidade de nossas operações no País, com maior oferta de serviços satelitais", declara Delio Morais, presidente da Hughes do Brasil.
Para Hugo Zanon, diretor de vendas da Terremark Brasil, "estamos orgulhosos por podermos atender a Hughes. Esta parceria entre nossas empresas trará conectividade satelital para nossa NAP (Network Access Point) no Brasil, expandindo assim a oferta de soluções de banda larga com a mais avançada tecnologia em serviços. (http://www.malima.com.br/satelite/cat_list.asp?cat_id=1)
4. VOZ SOBRE IP
Voz sobre IP, também chamado VoIP, telefonia IP, telefonia Internet, telefonia em banda larga e voz sobre banda larga é o roteamento de conversação humana usando a Internet ou qualquer outra rede de computadores baseada no Protocolo de Internet, tornando a transmissão de voz mais um dos serviços suportados pela rede de dados.
Os principais desafios técnicos do VoIP são latência, perda de pacotes, eco, jitter e segurança. A principal causa de perda de pacotes é o congestionamento, que pode ser controlado por gerenciadores de congestionamento de rede. Causas comuns de eco incluem inconsistências de impedância em circuitos analógicos.
Do ponto de vista de gestão, se a estrutura de rede e os equipamentos forem antigos ou inexistentes, uma mudança para VoIP pode custar alto para a aquisição de novos equipamentos como o cabeamento, comutadores, roteadores, telefones IP (cujo preço é mais alto que um telefone analógico), e aumento da banda de conexão (para suportar essa nova tecnologia), além da mão de obra especializada. (Wiki).
Esta é uma das razões pelas quais os canais passaram a ser ocupados com mais frequência exigindo bandas de passagem mais largas e com QoS. Veja o crescimento na Figura 14.
Fig. 14 - O crescimento do tráfego de voz na Internet demonstra o sucesso da tecnologia Fonte:
A maioria das soluções VoIP ainda não suportam criptografia, o que resulta na possibilidade de se ouvir chamadas alheias ou alterar seu conteúdo.
Um método de segurança é disponível através de codificadores de áudio patenteados que não são disponíveis para o público externo, dificultando o entendimento do que está sendo trafegado e protegendo o consumidor. Entretanto, outras áreas de segurança através de obscuridade não têm tido sucesso a longo prazo devido a grupos de engenharia reversa.
Algumas empresas usam compressão de dados para tornar a escuta alheia mais difícil. Entretanto, segurança através de criptografia e autenticação ainda não está amplamente disponível ao público. (Wiki).
Pelos projetos atuais das empresas que hoje trabalham com VoIP, segundo analistas de mercado e alguns pontos de opinião, uma das próximas etapas na evolução do VoIP é a extinção por completo do modelo atual de ligações de longa distância (DDD/DDI) pela rede PSTN e, mais adiante, talvez a erradicação dos sistemas convencionais de telefonia.
Parte desta evolução estará disponível à medida que os telefones IP chegarem aos lares e os acessos em banda larga se popularizarem. Neste sentido, vários segmentos trabalham no intuito de criarem redes convergentes, seja utilizando os meios de transmissão telefônica atual, já compartilhado por serviços ADSL, seja compartilhando meios de transmissão de serviços de TV a Cabo, entre outros.
5. CONCLUSÃO
A tecnologia de satélites permite vencer as enormes distâncias, particularmente, da Amazônia, reduzindo o tempo e o custo dos investimentos de infraestrutura de telecomunicações necessários para a conexão à Internet por meio rádio ou cabo.
O Satélite é a solução mais eficaz para atender de maneira completa um país com dimensões continentais como o Brasil, integrando os municípios, as cidades e as pessoas, porém não é detentor de tecnologia, de satélite em órbita e nem de estações de controle, o que representa uma vulnerabilidade, na crise.
Através da rede mundial de computadores, seja via satélite, por cabo ótico, rádio ou cabo ADSL, as distâncias são superadas e o brasileiro se comunica com todo o mundo de forma rápida, direta e com baixo custo, destacando-se, nesse mister, o sistema de cabos submarinos.
Há que se planejar a preservação da infraestrutura de comunicações das cidades da lista (não exaustiva) a seguir, a fim de que os enlaces extraterritoriais do Brasil sejam mantidos, mesmo nas situações de crise ou conflito armado:
Santos, Rio de Janeiro, Fortaleza e Salvador; Presidente Prudente, Petrolina e Manaus; Florianópolis e São Paulo; Itaboraí e Curitiba; Brasília; e Baruerí.
ANEXO P
Melhores Práticas
1. CobiT®-
São componentes do CobiT®: (Fig. 1)
Quatro Domínios e 34 Processos de TI:
b) Aquisição e Implementação
c) Entrega e suporte
d) Monitoração e avaliação
(1) Fornecer informações necessárias para suportar os objetivos e requisitos de negócio.
(2) Tratar informações como sendo o resultado combinado de aplicações de TI e recursos que precisam ser gerenciados por processos de TI.
3. COMPONENTES PRINCIPAIS DA GESTÃO DA SEGURANÇA DA INFORMAÇÃO
De acordo com os principais padrões mundiais disponíveis atualmente, os componentes básicos do processo de gestão da segurança da informação são:
a) Planejamento estratégico (política e normas) – elaboração e execução do planejamento alinhado com os objetivos da organização
b) Estrutura (e definição de papéis e responsabilidades)
c) Monitoração e métricas
d) Auditoria / verificação de conformidade - limitar custos e assegurar efetividade
e) Cultura de segurança (sensibilização, conscientização, treinamento e educação)
f) Sistemáticas / processos de segurança definidos e adotados (por exemplo, gestão de riscos, classificação da informação, plano de continuidade dos negócios, cultura de segurança, aplicação de correções)
g) Ciclo da segurança – forma de integrar todos os componentes do processo de gestão da segurança de uma organização
Estes componentes devem ser estabelecidos de acordo com as necessidades específicas, processos e cultura da organização. Obrigatoriamente devem estar integradas às demais atividades e processos da organização.
4. GERENCIAMENTO DOS SERVIÇOS:
ITIL-Information Technology Infrastructure Library (organização de melhores práticas para gerenciamento de serviços de TI) é um dos modelos de gestão para serviços de TI mais adotados pelas organizações. Um modelo não-proprietário e público que define as melhores práticas para o gerenciamento dos serviços de TI. Cada módulo de gestão do ITIL define uma biblioteca de práticas para melhorar a eficiência de TI, reduzindo os riscos e aumentando a qualidade dos serviços e o gerenciamento de sua infraestrutura.
Na figura 6 observa-se a estrutura da ITIL versão 2 e na figura 7 o Modelo de referência da ITIL.
Figura 7 Modelo de referência Fonte: Livro Gerenciamento de Serviços de TI na Prática
5. CONTRA-INTELIGÊNCIA:
Em Contra Inteligência tudo o que é passivo e defensivo, provavelmente, irá falhar. Não se pode entrar em um modo defensivo, estático e esperar as coisas acontecerem. Não basta gastar dinheiro nas cercas, nas caixas fortes, nos alarmes e em outras medidas puramente defensivas para proteger nossos segredos. A forma de pensar deve ser implacavelmente preventiva e proativa. É preciso antecipar-se às ações dos nossos adversários. (Fique Atento nº 06).
6. SEGURANÇA DA INFORMAÇÃO
Visa proteger a informação de uma organização de diversos tipos de ameaças, de forma a garantir a continuidade dos negócios, minimizar os danos e maximizar o retorno dos investimentos e novas oportunidades de negócio (NBR ISO/IEC 17799:2005). Podemos afirmar que a informação é um bem que tem valor para a organização e que, portanto, deve ser protegida adequadamente, assim como os ambientes e os equipamentos utilizados para o seu processamento. Informações adulteradas, não disponíveis quando são necessárias, sob conhecimento de pessoas de má fé ou de concorrentes, podem expor a organização e seus profissionais a grandes perigos e prejuízos consideráveis. Figura 8.
Mapa Conceitual da disciplina
A segurança da informação é obtida a partir da implementação de uma série de controles de segurança, que podem ser políticas, práticas, procedimentos, estruturas organizacionais, hardwares e softwares. Estes controles visam, basicamente, garantir os objetivos de segurança: disponibilidade, integridade, confidencialidade, autenticidade (DICA); e irretratabilidade (ou não-repúdio) e conformidade (ou legalidade).
Para satisfazer os objetivos de negócio, as informações precisam estar em conformidade com os critérios chamados requisitos de negócio do Cobit. Figura 9.
Fig. 9 Requisitos de Negócios do Cobit Fonte: Cobit Foundation
7. PRÁTICAS DE GESTÃO DE SEGURANÇA DA INFORMAÇÃO
A norma ABNT NBR ISO/IEC 17799:2005 é o código de prática para a gestão de segurança da Informação. Inicialmente publicada em 1995 pela BSI (British Standards Institute) com o nome de BS 7799-1, essa norma se tornou um padrão internacional de fato a partir de sua publicação pela ISO (International Standards Organization), em 2000, com o nome de ISO/IEC 17799. No Brasil, a ABNT (Associação Brasileira de Normas Técnicas) lançou-a em português em 2005. Em 2007, tanto a ISO quanto a ABNT alteraram sua numeração para 27002, sem mudança do conteúdo.
A norma pode servir como um guia prático para desenvolver os procedimentos de segurança da informação da organização e as eficientes práticas de gestão da segurança e para ajudar a criar confiança nas atividades.
A norma contém 11 seções de controles de segurança da informação, totalizando 39 categorias principais de segurança, além de uma seção introdutória que aborda gestão de riscos. Os controles de segurança estão divididos nas seguintes seções:
a)- Política de segurança da informação
b)- Organização da segurança da informação
c)- Gestão de ativos
d)- Segurança dos recursos humanos
e)- Segurança física e do ambiente
f)- Gestão das operações e comunicações
g)- Controle de acesso
h)- Aquisição, desenvolvimento e manutenção de sistemas de informação
i)- Gestão de incidentes de segurança da informação
j)- Gestão da continuidade do negócio
k)- Conformidade
Ciclo do PDCA em SI
Fig 10 – Modelo PDCA conforme a Norma NBR 27.001 Fonte: Allemand
8. TABELA DOS PRINCIPAIS REQUISITOS DE SEGURANÇA REFERENCIADOS NA ABNT-NBR-27001
Requisitos gerais |
4.2 - Estabelecendo e Gerenciando o SGSI. |
|
|
|
|
4.3 – Requisitos de Documentação |
|
|
|
5 – Responsabilidade da direção. |
|
|
|
|
6 – Auditorias internas. |
|
7 – Analise crítica do SGSI. |
|
|
|
8 – Melhoria do SGSI. |
|
|
|
9. SOA
Service-oriented architecture - SOA ou ainda, em português, arquitetura orientada a serviços, é um estilo de arquitetura de software cujo princípio fundamental preconiza que as funcionalidades implementadas pelas aplicações devem ser disponibilizadas na forma de serviços A arquitetura orientada a serviços também se insere em um processo de reorganização dos departamentos de tecnologia da informação das organizações, permitindo um melhor relacionamento entre as áreas que dão suporte tecnológico à empresa e as áreas responsáveis pelo negócio propriamente dito, graças a maior agilidade na implementação de novos serviços e reutilização dos ativos existentes. (Wiki).
Ao solicitar um serviço, o consumidor enviaria as suas credenciais juntamente com a mensagem. Um servidor intermediário possuiria um componente que realizaria um acesso a um servidor de segurança que iria verificar estas credenciais e assinar estes dados reconhecendo-os como legítimos. O serviço seria então redirecionado à aplicação, com as credenciais assinadas, que então liberaria ou bloquearia o acesso ao serviço.
ANEXO Q
Programas de Código Aberto - Open Source Definition
O software chamado de código aberto, ou open source em inglês, é um tipo de software cujo código fonte é visível publicamente. O software de código aberto respeita as quatro liberdades definidas pela Free Software Foundation (FSF). Porém, não estabelece certas restrições como as contidas na GPL [GNU GPL ou simplesmente GPL, é a designação da licença para software livre idealizada por Richard Stallman no final da década de 1980, no âmbito do projeto GNU da Free Software Foundation (FSF). GNU = General Public License (Licença Pública Geral)]. É advogado pela Iniciativa do Código Aberto (Open Source Initiative).
Um software é considerado como livre quando atende aos quatro tipos de liberdade para os usuários do software definidas pela FSF:
• A liberdade para executar o programa, para qualquer propósito (liberdade nº 0);
• A liberdade de estudar como o programa funciona, e adaptá-lo para as suas necessidades (liberdade nº 1). Acesso ao código-fonte é um pré-requisito para esta liberdade;
• A liberdade de redistribuir cópias de modo que você possa ajudar ao seu próximo (liberdade nº 2);
• A liberdade de aperfeiçoar o programa, e liberar os seus aperfeiçoamentos, de modo que toda a comunidade se beneficie (liberdade nº 3). Acesso ao código-fonte é um pré-requisito para esta liberdade;
A definição do Open Source foi criada pela Open Source Iniciative (OSI) a partir do texto original da Debian Free Software Guidelines (DFSG, http://www.magnux.org/doc/GPL-pt_BR.txt) e determina que um programa de código aberto deve garantir:
1. DISTRIBUIÇÃO LIVRE
2. CÓDIGO FONTE
3. TRABALHOS DERIVADOS
4. INTEGRIDADE DO AUTOR DO CÓDIGO FONTE
5. NÃO DISCRIMINAÇÃO CONTRA PESSOAS OU GRUPOS
6. NÃO DISCRIMINAÇÃO CONTRA ÁREAS DE ATUAÇÃO
7. DISTRIBUIÇÃO DA LICENÇA
8. LICENÇA NÃO ESPECÍFICA À UM PRODUTO
9. LICENÇA NÃO RESTRINJA OUTROS PROGRAMAS
10. LICENÇA NEUTRA EM RELAÇÃO A TECNOLOGIA
Obs:
2. A diferença entre "outsourcing" e "terceirização" é que, inicialmente, outsourcing está ligado a procura de "fontes" fora da organização ou país e terceirização correlaciona dentro do país.
Um comentário:
Em 1997 levantaram-se os serviços de telecom disponibilizados pela EMBRATEL na monografia/ TCC da ECEME
Postar um comentário