sexta-feira, 10 de setembro de 2021

ANEXOS M, N, O, P e Q ao trabalho Gestão da Segurança da Informação, por AAC



ANEXO M


Folder da Programação do Fórum 30 anos de TI no TCU



xxx



ANEXO N



xxx



ANEXO O


Como o BRASIL está conectado ao mundo


1. CONEXÕES POR CABOS SUBMARINOS





Cabo submarino é um cabo telefônico especial, que recebe uma proteção mecânica adicional, própria para instalação sob a água, por exemplo, em rios, baías e oceanos. Normalmente dispõe de alma de aço e de um isolamento e proteção mecânica especiais. Este tipo de cabo telefônico é utilizado principalmente em redes internacionais de telecomunicações, que interligam países e continentes. No Brasil, pelo seu tamanho continental, o cabo submarino é utilizado para interconectar toda a sua costa. Seu tipo pode ser metálico, coaxial ou óptico, sendo este último o mais utilizado atualmente.

A Fibra Óptica vem a ser um meio físico de transmissão, cada vez mais utilizado em Redes de Telecomunicações que, quando conectada a equipamentos adequados, permite trafegar voz, dados e imagens, a altas taxas, com velocidades muito próximas a velocidade da luz.

O primeiro sistema óptico, precursor dos sistemas de cabos submarinos atuais, foi implantado nas Ilhas Canárias em 1980 para interconectar toda a sua costa. A era do cabo óptico submarino de longa distância teve início efetivamente em 1988 com o lançamento de um cabo óptico submarino transatlântico entre os oceanos Pacífico e Atlântico (interligando USA, França e Inglaterra) com capacidade de transmissão em massa.












No Brasil, o primeiro cabo submarino fez parte da primeira linha telegráfica brasileira. Foi inaugurado em 1857 e interligava a Praia da Saúde no Rio de Janeiro com a cidade de Petrópolis. A linha tinha extensão total de 50km, sendo 15km em cabo submarino.


A ligação com a Europa foi resultado do espírito empreendedor de Irineu Evangelista de Souza, Barão e depois Visconde de Mauá, que participou da organização e financiamento da instalação do cabo submarino.


Em 1893 a companhia inglesa South American Cables Ltd instalou um cabo submarino em Fernando de Noronha. Um segundo cabo submarino em Fernando de Noronha foi lançado pelos italianos da Italcable em 1925.

a. Esquema do funcionamento do sistema de cabos submarinos:


A principal característica dos sistemas de comunicações de cabos ópticos submarinos, além da sua alta capacidade de transmissão é a distância que se pode atingir, chegando a até 9.000 km sem necessidade de regeneração do sinal.

Nos sistemas que utilizam fibras ópticas de terceira geração consegue-se atingir espaçamentos de até 60km entre repetidores. Já nos sistemas que utilizam cabos com fibras óticas de quarta geração, estes espaçamentos podem atingir até 100 Km.

Além disso, o cabo óptico, amplificadores e regeneradores utilizados em sistemas submarinos são projetados para resistirem a pressão de água de até 8.000m de profundidade (pressão igual a 800 atmosferas). A estrutura dos componentes, incluindo os componentes ópticos, é de altíssima confiabilidade, normalmente assegurando 25 anos de vida útil.




Fig. 2 – Ilustração esquemática 
        Fonte: Teleco


b. AMERICAS II


O cabo submarino Américas II entrou em operação em setembro de 2000, interligando o Brasil (Fortaleza) aos Estados Unidos. Resultado de um consórcio formado por diversas operadoras internacionais (Embratel, WorldCom, Sprint, CANTV, entre outras), opera com a tecnologia SDH (hierarquia digital síncrona), que permite que o sinal seja transmitido e recebido com sincronização.




Com 9.000km de extensão, quatro pares de fibras óticas e capacidade de transmissão de 80 Gbps, o Américas II interliga o Brasil, a Guiana Francesa, Trinidad e Tobago, Venezuela, Curaçao, Martinica, Porto Rico e Estados Unidos. O Américas II tem a capacidade de transmitir 151.200 ligações simultâneas e possui 8 lambdas em cada par de fibra, com uma velocidade de 2,5 Gbps por lambda.

Lambda: nome dado ao comprimento de onda/lambda (nm) = 2,997925 x108 (m/s) /freq (Ghz); nas Fibras Ópticas são acima de 850 nm, ou seja, na Região de Radiação Infravermelha, que é invisível ao olho humano. (Wiki). 

O Americas I segue o mesmo caminho do Americas II (Brasil, Trinidad & Tobago, Porto Rico e Estados Unidos). Foi inaugurado em setembro de 1994 e sai de Fortaleza rumo à Flórida.

c. ATLANTIS-2


Este cabo submarino pertence a um consórcio internacional formado por 25 grandes empresas de telecomunicações e que representam as maiores operadoras de telecomunicações do mundo. Exigiu recursos da ordem de US$ 370 milhões. Setenta por cento do empreendimento foi feito pelas operadoras Embratel, Deutsche Telecom, Telecom Itália, STET-France Telecom, e Telefônica de Espanha.

Com cerca de 12 mil quilômetros de extensão e em operação desde o inicio de 2000, liga o Brasil (de Natal até o Rio de Janeiro) à Europa, África e América do Sul. O cabo possui dois pares de fibras óticas sendo um utilizado para serviço e o outro para restauração.

É o único cabo submarino transatlântico que interliga diretamente a América do Sul à Europa. A capacidade atual deste cabo é de 20 Gbps, sendo a sua capacidade final prevista de 40 Gbps. Possui 8 lambdas no par de serviço, com uma velocidade de 2,5 Gbps por lambda.

Utilizando a infraestrutura do Atlantis 2, a Embratel implantou ainda, para seu uso exclusivo, dois pares adicionais de fibras óticas com capacidade de 40 Gbps, entre Fortaleza e Rio de Janeiro.

Através do cabo submarino Atlantis 2, o Brasil participa da rede digital que conecta os cinco continentes e que será composta pela interligação de 73 sistemas de cabos de fibras óticas, totalizando uma extensão de 385 mil quilômetros. Esta rede irá formar a infraestrutura global da sociedade da informação.

d. EMERGIA – SAM 1


O cabo submarino SAM 1 da Emergia é um sistema construído pela Telefónica S.A., que investiu US$ 1,6 bilhão na sua realização. Ele interliga as três Américas por meio de cabos que somam 25 mil quilômetros de extensão. Possui quatro pares de fibras óticas, 48 lambdas em cada par de fibras, com uma velocidade de 10 Gbps por lambda o que lhe garante uma capacidade de transmissão final igual a 1,92 Tbps.

Diferente dos outros cabos submarinos que tocam o Brasil, o SAM 1 é um anel óptico que circunda as Américas através dos oceanos Atlântico e Pacífico. Ele é auto restaurável o que permite garantir maior qualidade, velocidade e segurança ao tráfego de voz e dados entre as principais cidades do continente.

Devido ao emprego da tecnologia DWDM (Dense Wavelength Division Multiplexer), o circuito pode ser restabelecido caso haja interrupção em algum trecho do cabo submarino. Assim, a informação percorre o caminho inverso, já que o anel possui capacidade de auto restauração para reagir a possíveis falhas em menos de 300 milissegundos, sem queda de transmissão.

A capacidade inicial do cabo da Emergia que entrou em operação em fevereiro de 2001 é de 40 Gbps, expansível até 1.92 Tbps. Os serviços de comunicações de banda larga permitem a conexão porta a porta, na América Latina, América Central e os Estados Unidos, atendendo ao Brasil, Argentina, Chile, Peru, Guatemala, Porto Rico e Estados Unidos.


No Brasil, o cabo interliga as cidades de Santos, Rio de Janeiro, Fortaleza e Salvador. Além disso, um dos centros de operação em rede mundial da Emergia (eNOC) localiza-se na cidade de Santos, Brasil.

e. GLOBAL CROSSING – SAC


Em operação comercial desde o início de 2001 o SAC da Global Crossing teve um custo estimado da ordem de US$ 2 bilhões. O cabo submarino tem 15 mil quilômetros e interliga os principais países da América do Sul, Central e Norte (Brasil, Argentina, Chile, Peru, Panamá e USA).

O SAC é um anel óptico auto restaurável que circunda as Américas através dos oceanos Atlântico e Pacífico. Esta configuração garante ao sistema uma qualidade que permite o fornecimento de um serviço em alta velocidade com qualidade e segurança entre as principais cidades do continente.

Em sua configuração final, o SAC terá quatro pares de fibras ópticas, 32 lâmbdas em cada par de fibras, com uma velocidade de 10 Gbps por lambda o que lhe garantirá uma capacidade de transmissão final igual a 1,28 Tbps. A capacidade inicial do cabo SAC é de 40 Gbps.

f. GLOBENET/360 NETWORK


Recentemente adquirida pela Brasil Telecom, o cabo da Globenet entrou em operação comercial no início de 2001. Diferente dos cabos da Emergia e da Global Crossing o da Globenet não circunda as Américas. Seu anel se fecha pelo próprio Atlântico interligando os Estados Unidos, as Ilhas Bermudas, a Venezuela e o Brasil. No Brasil os pontos de entrada são as cidades do Rio de Janeiro e de Fortaleza.

Com 22,5 km e 303 repetidores, o cabo da Globenet terá em sua configuração final 4 pares de fibras ópticas, 34 lâmbdas em cada par de fibras, com uma velocidade de 10 Gbps por lambda o que lhe garantirá uma capacidade de transmissão final igual a 1,36 Tbps. A capacidade inicial do cabo SAC é de 40 Gbps.

g. UNISUR


Inaugurado oficialmente em 1 de novembro de 1994, o sistema de telecomunicações UNISUR interconecta os países do Mercosul, Argentina (La Plata), Brasil (Florianópolis) e Uruguai (Maldonado).

Resultado de um consórcio formado pelas operadoras internacionais Embratel, Antel (Uruguai) e Telintar (Argentina), compõe-se de um cabo submarino de fibra ótica com 1.741 quilômetros de extensão, 10 repetidores e 15.120 canais. Permite o tráfego de todos os tipos de meios de comunicação, como televisão, telex, telefonia, dados, etc.

2. CONEXÕES ENTRE AS CAPITAIS





a. NIC.br-Núcleo de Informação e Coordenação do Ponto br


É uma entidade civil, sem fins lucrativos que, desde dezembro de 2005, implementa as decisões e projetos do Comitê Gestor da Internet no Brasil, demonstrando nos gráficos das Figuras 3 e 4 um aumento considerável no uso da internet e que há largura de banda sobrando, apesar do incremento. (http://ptt.br/ cgi-bin/all).

Objetivos do NIC: 
- o registro e manutenção dos nomes de domínios que usam o <.br>, e a distribuição de endereços IPs, através do Registro.br;

- o tratamento e resposta a incidentes de segurança em computadores envolvendo redes conectadas à Internet brasileira, através do CERT.br;

- a promoção da infraestrutura para a interconexão direta entre as redes que compõem a Internet brasileira, através do PTT.br;

- divulgação de indicadores e estatísticas e informações estratégicas sobre o desenvolvimento da Internet brasileira, através do CETIC.br;

- o suporte técnico e operacional ao LACNIC, Registro de Endereços da Internet para a América Latina e Caribe.






 Fig. 3 e 4 – Tráfego de utilização da internet (diária e anual acumulada) Fonte: IX.br










Fig. 5 - Panorama do tráfego no backbone RNP3 (interno e externo) Fonte: RNP









b. Rede Nacional de Ensino e Pesquisa (RNP)


Na próxima página obtém-se uma visão geral da taxa de utilização diária do backbone da RNP atualizada a cada cinco minutos. Note-se que há “nós” de capitais dos Estados que são ligados ao exterior e outros somente de tráfego interno do país, crescendo de importância a preservação dos links internacionais, baseados, principalmente, em cabos submarinos, uma vez que o minuto satélite é bem mais oneroso. A Rede Ipê apresenta sua topologia no próximo tópico.

c. Exemplo de utilização do Diagrama da Fig. 5


Taxa de ocupação do canal Global Crossing, 800 Mb/s Troca de tráfego internacional no Rio de Janeiro, nas 24 horas do dia 24/06/08, em bits/s, da Figura 6 foi usada como exemplo, pela proximidade de saturação de entrada do canal entre 0945h e 1400h indicando que, por esse cabo, dificilmente seria possível estabelecer comunicações militares de fora do Brasil, para o RJ, exceto à noite, entre 2200h e 0700h
/ D+1. Observando-se a conexão para São Paulo da mesma empresa (GBLX) no referido diagrama, conclui-se que a carga de tráfego já está saturada (vermelho), necessitando que se estude a transferência do tráfego internacional (entrada e saída da banda útil) para outras capitais, também servidas pela rede Ipê (Fortaleza, nesse caso – veja Fig. 1).






Fig. 6 – Tráfego da Global Crossing (GBLX) obtido no Diagrama da Fig. 5 Fonte: IX.br


Pode-se perceber pela Fig. 7 que o tráfego no Pix Global Crossing (GBLX) está 3.1 e 4.7 Mbps, respectivamente, bem abaixo do esperado pela Fig. 6 para o horário considerado (0110h).



Fig. 7 – Tráfego nos Links entre os PIXes das provedoras de serviços em 200110 Julho Fonte: PTT.br


c. Rede Ipê


O backbone da rede Ipê (figura abaixo) foi projetado para atender a certos requisitos técnicos, garantindo a largura de banda necessária ao tráfego Internet de produção (navegação Web, correio eletrônico, transferência de arquivos); ao uso de serviços e aplicações avançadas; e à experimentação.

Há 27 pontos de presença (PoPs) instalados em todas as capitais do país, interligando mais de 400 unidades de instituições de ensino e pesquisa e algumas iniciativas de redes regionais – principalmente redes estaduais e redes metropolitanas de ensino e pesquisa.

Em 2005, a capacidade de comunicação entre os PoPs começou a ser ampliada com o uso de tecnologia óptica (WDM) em alguns enlaces, o que elevou a capacidades destes a 10 Gbps.

A RNP possui conectividade internacional própria. Um canal de 650 Mbps e um de 1 Gbps são usados para tráfego Internet de produção. Uma outra conexão, de 155 Mbps, está ligada à Rede Clara, rede avançada da América Latina. Através da Clara, a RNP está conectada a outras redes avançadas no mundo, como a européia Géant e a norte-americana Internet2.

A Rede Nacional de Ensino e Pesquisa (RNP) atua na detecção, resolução e prevenção de incidentes de segurança na rede RNP2 através de seu Centro de Atendimento a Incidentes de Segurança (CAIS). Criado em 1997, o CAIS também divulga informações e alertas de segurança e participa de organismos internacionais na área.

O Centro de Engenharia e Operações da RNP (CEO), com apoio dos responsáveis técnicos dos PoPs, monitora o funcionamento de todos os enlaces da rede da RNP 24 horas por dia. Essa infraestrutura de telecomunicações dá suporte à rede acadêmica nacional (Ipê), garantindo a comunicação e o uso de aplicações avançadas entre mais de 400 instituições de ensino e pesquisa.



Fig. 8 – Topologia da Rede Ipê Fonte: RNP


O serviço de hospedagem de equipamentos e servidores4 da RNP é restrito aos Ministérios da Ciência e Tecnologia e da Educação, e a suas agências e institutos de pesquisa, além de projetos considerados estratégicos pela Diretoria-Geral da RNP.

A Rede Nacional de Ensino e Pesquisa (RNP) construiu, em Brasília, um espaço físico para hospedagem de equipamentos e servidores (colocation) de clientes especiais das áreas de educação, pesquisa e cultura. Este espaço é mais comumente conhecido como Internet Data Center (IDC). O serviço de colocation da RNP foi planejado para fornecer um alto nível de infraestrutura e gerenciamento de ambiente de tecnologia da informação e comunicação, visando a atender a demanda do cliente, com garantias de alta disponibilidade, segurança, e operação ininterrupta.
Colocation:: espaço físico para hospedagem de equipamentos e servidores; http://www.rnp.br/idc/


d. Localização estratégica

O IDC da RNP está localizado no Setor de Autarquias Sul, abrigando em suas instalações o Ponto de Presença da RNP no Distrito Federal (PoP-DF), estando diretamente conectado ao backbone de educação e pesquisa multigigabit da RNP (rede Ipê), além de abrigar e gerenciar o Ponto Federal de Interconexão de Redes (FIX) / PTTMetro de Brasília, trocando tráfego localmente com os principais backbones comerciais e federais do país, facilitando o acesso aos serviços disponibilizados pelos clientes hospedados no IDC para seus usuários.

e. IDC hospeda sistemas do Centro de Difusão de Tecnologia e Conhecimento - CDTC :

CDTC faz parte do Instituto Nacional de Tecnologia da Informação (ITI), autarquia federal vinculada à Presidência da República. A partir do dia 6 de agosto, o Internet Data Center (IDC) da Rede Nacional de Ensino e Pesquisa (RNP) passa a hospedar, em regime de colocation, os sistemas do Centro de Difusão de Tecnologia e Conhecimento (CDTC).

O ITI é a Autoridade Certificadora Raiz – AC Raiz da Infraestrutura de Chaves Públicas Brasileira – ICP-Brasil. O ITI integra o Comitê Executivo do Governo Eletrônico, no qual coordena o Comitê Técnico de Implementação do Software Livre no Governo Federal.

Compete ainda ao ITI estimular e articular projetos de pesquisa científica e de desenvolvimento tecnológico voltados à ampliação da cidadania digital. O ITI tem como principal linha de ação a popularização da certificação digital e a inclusão digital. Neste sentido, o CDTC disponibiliza cursos de sistemas e ferramentas em software livre para qualificação gratuita de funcionários públicos e cidadãos em geral.

f. Buracos na Internet



Fig. 9 – Mapeamento de buracos na Rede Mundial Fonte: Site Inovação Tecnológica


Cientistas da Universidade de Washington, Estados Unidos, descobriram que existem verdadeiros buracos negros na Internet, interrupções nas comunicações que impedem que usuários de determinada região geográfica acessem servidores localizados em outra região, mesmo que os servidores estejam funcionando corretamente. As informações coletadas até agora mostram que mais de 7 por cento de todos os servidores da Internet caíram em "buracos negros" virtuais ao menos uma vez durante um período de três semanas.
Para localizar esses buracos negros, os cientistas criaram um sistema batizado de Hubble, em homenagem ao telescópio espacial que procura por corpos celestes no espaço profundo. Ao invés de vasculhar as galáxias, o Hubble virtual mapeia os mistérios dos roteadores e cabos de fibras-ópticas que formam a rede mundial de computadores.


A observação da rede mundial é feita por meio de 100 computadores da rede de pesquisas PlanetLab, distribuídos por cerca de 40 países. O sistema de monitoramento envia "sondas virtuais", pequenos programas de teste que checam se determinado computador está respondendo. Esses programas atualmente atingem 90% de toda a Internet.


Como se originam de diversos computadores do PlanetLab, o Hubble virtual consegue detectar computadores que estão acessíveis de um ponto mas não de outro, uma 
situação conhecida como acessibilidade parcial. Pequenas falhas de comunicação são ignoradas - para ser registrado, um problema deve ser constatado em duas tentativas consecutivas de 15 minutos cada uma.

O mapa do céu da Internet é atualizado a cada 15 minutos, cobrindo todo o planeta. São mostrados todos os locais que estão passando por problemas, e que possuem computadores que não estão acessíveis de outros pontos da rede mesmo estando operando corretamente.

Cada bandeira no mapa corresponde a centenas e até milhares de computadores. Além do mapa, é apresentada uma listagem com os endereços IP dos servidores, contendo a indicação do país em que se encontram.

O principal objetivo do mapa produzido pelo Hubble virtual é fornecer uma nova ferramenta para os administradores de rede, que poderão ser alertados de forma proativa de problemas em sua área ou em seus roteadores. (Redação do Site Inovação Tecnológica – 10/04/2008)

3. CONEXÕES POR SATÉLITES

Os satélites de comunicação são do tipo geoestacionários. O nome vem da característica de sua órbita que se ajusta à velocidade de rotação da Terra ficando como que posicionados sempre sobre um ponto fixo do planeta. Estes satélites são servem para retransmitir dados (Internet), sinais de televisão (canais abertos e fechados), rádio (broadcasting) e telefone.

A função do satélite é a de atuar como um repetidor de sinais gerados em terra. Os sinais são detectados, filtrados, repolarizados, amplificados e transmitidos de volta à Terra. A energia para seu funcionamento vem de baterias alimentadas por células solares que energizam os circuitos repetidores de sinal chamados de transponders.

Os satélites possuem vida útil limitada, normalmente, pela quantidade de combustível que permite corrigir seu ponto estação, daí o aluguel dos canais ser bastante oneroso. Os satélites em órbita devem ter seu uso otimizado por que têm prazo de utilização, e são posicionados para atendimento a contratos com agências governamentais ou privadas, em bandas distintas (Ku, C, X e L são as mais usuais) segundo o tipo de serviço prestado. Os bancos, projetos de governo, educação e varejo são os principais clientes.

Como todo projeto de sistema de comunicações, o satelital representa uma solução de compromisso entre o tempo de transmissão, a potência transmitida, a largura de faixa e a relação sinal-ruído.

São inúmeros os satélites que iluminam o território brasileiro e, se necessário, há uma dezena de outros que poderiam ter seus focos deslocados para atender anseios específicos dos provedores de serviços internacionais, com precisão e área de cobertura distintos, de modo a estabelecer enlaces confiáveis com quaisquer regiões do planeta. Selecionaram-se alguns deles como exemplo, sabendo-se que um mesmo satélite pode funcionar em mais de uma banda.

Soluções de “Banda Larga” baseadas em tecnologias como Frame Relay, Cable Modem, ADSL e ISDN necessitam de um estudo de viabilidade, uma vez que a sua localidade pode estar fora da área de cobertura nas cidades. Enquanto os outros sistemas exigem infraestrutura de rede terrestre, no caso da conexão via satélite, o usuário só precisa estar dentro da área de cobertura do satélite. Com isso o sistema é mais abrangente, e pode ser instalado rapidamente, mesmo em áreas rurais ou isoladas.

O Brasil é o maior mercado de banda larga via satélite de América latina e essa modalidade de acesso foi apresentada ao consumidor brasileiro pela frota de satélites Star One, da Embratel, de forma pioneira na região. Atualmente existem um total de seis companhias com plataformas próprias que, em conjunto, somaram no final do ano passado, mais de 30.000 pontos em serviço.

a. Globalstar

As três estações terrestres (gateways) da Globalstar do Brasil garantem cobertura em todo o território nacional e mais 500 milhas náuticas. Cada uma é responsável por manter a conexão permanente com os satélites, em suas respectivas regiões de abrangência. Estão localizadas em Presidente Prudente, Petrolina e Manaus. O desvanecimento do sinal é dado em Decibéis watt (dBW) e a estabilidade do enlace em percentual de probabilidade de sucesso no seu estabelecimento.

obs: 1 watt = 0 dBW; 10 watts = 10 dBW; 100 watts = 20 dBW e 1.000.000 W = 60 dBW.





Fig. 10 – Área de cobertura Globalstar do Brasil         Fonte: Globalstar




b. Intelsat

1) Identificação: IS-3R at 317º E, Formerly PAS-3R at 43°W (exemplo)

C-band Americas Beam 





Fig. 11 – Área de cobertura Intelsat (IS-3R)-Banda C Fonte: NASA



 Ku-band Brazil Beam Fonte:NASA





Fig. 12 – Área de cobertura Intelsat (IS-3R)-Banda Ku Fonte: NASA




2) Identificação de outros da Intelsat que cobrem a América do Sul: 

G-11 at 91°W

G-28 at 89°W – SAM-C (Formerly IA-8) 

G-28 at 89°W – SAM-Ku (Formerly IA-8)


IS-9 at 302°E – (Formerly PAS-9 ata 58°W) 

IS-805 at 304.5°E

IS-1R at 315°E – (Formerly PAS-1R at 45°W)



Fig. 13 – Área de cobertura Intelsat (?)-Banda Ku         Fonte: NASA


c. Embratel / Star One


1) Identificação: Brasilsat B-1 (1994-049A) carregou 16 transponders da banda Ku e um canal militar na banda X. 
Obs - A Anatel publicou no Diário Oficial da União de 1/2/2007, ato em que concede à Star One licença para exploração de satélite brasileiro.

2) Identificação: Brasilsat B-2 (1995-016A) localizou-se a longitude 65°W (graus oestes), portando 24 transponders da banda C, para telefonia, televisão e dados, e “alguns” na banda X.
Obs- Informação confidencial, não disponível no site da NASA em http://nssdc.gsfc.nasa.gov/nmc/spacecraftDisplay.do?id=1998-006A

3) Identificação: Brasilsat B-3 (1998-006A) estacionário a longitude 70°W, com 28 transponders da banda C, para voz e vídeo, incluindo serviços a países vizinhos. A privatização da Embratel favoreceu que não se colocasse mais equipamentos da banda X, para uso militar, no programa espacial brasileiro.

4) Identificação: Brasilsat B-4 (2000-046A) para comunicações geo- sincronizadas, estacionado em 92°W com 28 transponders da banda C, para voz e vídeo, incluiu serviços a países da América do Sul.

5) Identificação: Star One C-1 (2007-056A) provê serviços “direct-to- home” (DTH) de voz, vídeo e internet; estacionário a 65°W de longitude, usando 28 transponders da banda C e 16 da Ku, carrega também um transponder da banda X. Ele substituiu o Brasilsat B2. O seu lançamento foi atrasado de 2005 para 2007, como também o está o programa do satélite C-2.


d. Outros

BolivarSat 
Eutelsat do Brasil 
Telesat Brasil 
Hispamar
NahuelSat do Brasil 
Loral Skynet do Brasil 
SES New Skies do Brasil


A Hughes do Brasil finalizou a migração do centro de operações de rede (NOC - Network Operation Center) de Cotia para Barueri em São Paulo. O NOC está hospedado na Terremark Brasil, maior ponto de troca de tráfego IP multilateral da América Latina. 

A migração do NOC é estratégica para a Hughes, pois "permitirá o incremento da capacidade de nossas operações no País, com maior oferta de serviços satelitais", declara Delio Morais, presidente da Hughes do Brasil.


Para Hugo Zanon, diretor de vendas da Terremark Brasil, "estamos orgulhosos por podermos atender a Hughes. Esta parceria entre nossas empresas trará conectividade satelital para nossa NAP (Network Access Point) no Brasil, expandindo assim a oferta de soluções de banda larga com a mais avançada tecnologia em serviços. (http://www.malima.com.br/satelite/cat_list.asp?cat_id=1)

4. VOZ SOBRE IP

Voz sobre IP, também chamado VoIP, telefonia IP, telefonia Internet, telefonia em banda larga e voz sobre banda larga é o roteamento de conversação humana usando a Internet ou qualquer outra rede de computadores baseada no Protocolo de Internet, tornando a transmissão de voz mais um dos serviços suportados pela rede de dados.


Os principais desafios técnicos do VoIP são latência, perda de pacotes, eco, jitter e segurança. A principal causa de perda de pacotes é o congestionamento, que pode ser controlado por gerenciadores de congestionamento de rede. Causas comuns de eco incluem inconsistências de impedância em circuitos analógicos.


Do ponto de vista de gestão, se a estrutura de rede e os equipamentos forem antigos ou inexistentes, uma mudança para VoIP pode custar alto para a aquisição de novos equipamentos como o cabeamento, comutadores, roteadores, telefones IP (cujo preço é mais alto que um telefone analógico), e aumento da banda de conexão (para suportar essa nova tecnologia), além da mão de obra especializada. (Wiki).


Esta é uma das razões pelas quais os canais passaram a ser ocupados com mais frequência exigindo bandas de passagem mais largas e com QoS. Veja o crescimento na Figura 14.




Fig. 14 - O crescimento do tráfego de voz na Internet demonstra o sucesso da tecnologia Fonte:

A maioria das soluções VoIP ainda não suportam criptografia, o que resulta na possibilidade de se ouvir chamadas alheias ou alterar seu conteúdo. 

Um método de segurança é disponível através de codificadores de áudio patenteados que não são disponíveis para o público externo, dificultando o entendimento do que está sendo trafegado e protegendo o consumidor. Entretanto, outras áreas de segurança através de obscuridade não têm tido sucesso a longo prazo devido a grupos de engenharia reversa. 

Algumas empresas usam compressão de dados para tornar a escuta alheia mais difícil. Entretanto, segurança através de criptografia e autenticação ainda não está amplamente disponível ao público. (Wiki).


Fig 14 - Esquema do VoIP: o Invasor pode estar em qualquer lugar na rede Fonte:


Pelos projetos atuais das empresas que hoje trabalham com VoIP, segundo analistas de mercado e alguns pontos de opinião, uma das próximas etapas na evolução do VoIP é a extinção por completo do modelo atual de ligações de longa distância (DDD/DDI) pela rede PSTN e, mais adiante, talvez a erradicação dos sistemas convencionais de telefonia.


Parte desta evolução estará disponível à medida que os telefones IP chegarem aos lares e os acessos em banda larga se popularizarem. Neste sentido, vários segmentos trabalham no intuito de criarem redes convergentes, seja utilizando os meios de transmissão telefônica atual, já compartilhado por serviços ADSL, seja compartilhando meios de transmissão de serviços de TV a Cabo, entre outros.

5. CONCLUSÃO

A tecnologia de satélites permite vencer as enormes distâncias, particularmente, da Amazônia, reduzindo o tempo e o custo dos investimentos de infraestrutura de telecomunicações necessários para a conexão à Internet por meio rádio ou cabo. 

O Satélite é a solução mais eficaz para atender de maneira completa um país com dimensões continentais como o Brasil, integrando os municípios, as cidades e as pessoas, porém não é detentor de tecnologia, de satélite em órbita e nem de estações de controle, o que representa uma vulnerabilidade, na crise.


Através da rede mundial de computadores, seja via satélite, por cabo ótico, rádio ou cabo ADSL, as distâncias são superadas e o brasileiro se comunica com todo o mundo de forma rápida, direta e com baixo custo, destacando-se, nesse mister, o sistema de cabos submarinos.


Há que se planejar a preservação da infraestrutura de comunicações das cidades da lista (não exaustiva) a seguir, a fim de que os enlaces extraterritoriais do Brasil sejam mantidos, mesmo nas situações de crise ou conflito armado: 

Santos, Rio de Janeiro, Fortaleza e Salvador; Presidente Prudente, Petrolina e Manaus; Florianópolis e São Paulo; Itaboraí e Curitiba; Brasília; e Baruerí.



xxx







ANEXO P


Melhores Práticas


1. CobiT®-

Control Objectives for Information and related Technology é uma importante ferramenta no processo de governança de uma empresa no que se relaciona a Tecnologia de Informação e visa à orientação e capacitação em habilidades de apoio aos gestores e aos profissionais, no controle e gerenciamento dos processos de TI de forma lógica e estruturada. Inclui recursos tais como um sumário executivo, um framework, controle de objetivos, mapas de auditoria, um conjunto de ferramentas de implementação e um guia com técnicas de gerenciamento.



São componentes do CobiT®: (Fig. 1)







Figura 1 – Componentes do CobiT®             Fonte: Cobit Foundation




Quatro Domínios e 34 Processos de TI:


a) Planejamento e Organização

b) Aquisição e Implementação

c) Entrega e suporte

d) Monitoração e avaliação
  

2. DOMÍNIOS DO COBIT®1


a) A Figura 2 mostra o inter-relacionamento dos objetivos de negócio com a Governança de TI e com cada um dos domínios do CobiT®.



Figura 2 – Domínios do CobiT®           Fonte: Adaptado de IT GOVERNANCE INSTITUTE (2004a, p. 12)





b) Na Figura 3 apresentam-se os processos do Cobit®. 

(1) Fornecer informações necessárias para suportar os objetivos e requisitos de negócio.



(2) Tratar informações como sendo o resultado combinado de aplicações de TI e recursos que precisam ser gerenciados por processos de TI.




Figura 3 – Modelo de Processo do CobiT®                         Fonte: TICursos


c) Na Figura 4 observa-se outra representação do framework de implementação do CobiT®



Figura 4 - Framework para implementação dos processos CobiT® Fonte: Adaptado de Monteiro (2005, p. 130)



3. COMPONENTES PRINCIPAIS DA GESTÃO DA SEGURANÇA DA INFORMAÇÃO



De acordo com os principais padrões mundiais disponíveis atualmente, os componentes básicos do processo de gestão da segurança da informação são:


a) Planejamento estratégico (política e normas) – elaboração e execução do planejamento alinhado com os objetivos da organização

 

b) Estrutura (e definição de papéis e responsabilidades)

 

c) Monitoração e métricas

 

d) Auditoria / verificação de conformidade - limitar custos e assegurar efetividade

 

e) Cultura de segurança (sensibilização, conscientização, treinamento e educação)

 

f) Sistemáticas / processos de segurança definidos e adotados (por exemplo, gestão de riscos, classificação da informação, plano de continuidade dos negócios, cultura de segurança, aplicação de correções)

 

g) Ciclo da segurança – forma de integrar todos os componentes do processo de gestão da segurança de uma organização




Estes componentes devem ser estabelecidos de acordo com as necessidades específicas, processos e cultura da organização. Obrigatoriamente devem estar integradas às demais atividades e processos da organização.



4. GERENCIAMENTO DOS SERVIÇOS:


ITIL-Information Technology Infrastructure Library (organização de melhores práticas para gerenciamento de serviços de TI) é um dos modelos de gestão para serviços de TI mais adotados pelas organizações. Um modelo não-proprietário e público que define as melhores práticas para o gerenciamento dos serviços de TI. Cada módulo de gestão do ITIL define uma biblioteca de práticas para melhorar a eficiência de TI, reduzindo os riscos e aumentando a qualidade dos serviços e o gerenciamento de sua infraestrutura. 

Na figura 6 observa-se a estrutura da ITIL versão 2 e na figura 7 o Modelo de referência da ITIL.



                Fig. 6 Estrutura da ITIL versão 2                                 Fonte: OGC




Figura 7 Modelo de referência             Fonte: Livro Gerenciamento de Serviços de TI na Prática



5. CONTRA-INTELIGÊNCIA:


Em Contra Inteligência tudo o que é passivo e defensivo, provavelmente, irá falhar. Não se pode entrar em um modo defensivo, estático e esperar as coisas acontecerem. Não basta gastar dinheiro nas cercas, nas caixas fortes, nos alarmes e em outras medidas puramente defensivas para proteger nossos segredos. A forma de pensar deve ser implacavelmente preventiva e proativa. É preciso antecipar-se às ações dos nossos adversários. (Fique Atento nº 06). 




6. SEGURANÇA DA INFORMAÇÃO



Visa proteger a informação de uma organização de diversos tipos de ameaças, de forma a garantir a continuidade dos negócios, minimizar os danos e maximizar o retorno dos investimentos e novas oportunidades de negócio (NBR ISO/IEC 17799:2005). Podemos afirmar que a informação é um bem que tem valor para a organização e que, portanto, deve ser protegida adequadamente, assim como os ambientes e os equipamentos utilizados para o seu processamento. Informações adulteradas, não disponíveis quando são necessárias, sob conhecimento de pessoas de má fé ou de concorrentes, podem expor a organização e seus profissionais a grandes perigos e prejuízos consideráveis. Figura 8.


Mapa Conceitual da disciplina



                Fig. 8 Mapa Conceitual                                 Fonte: Allemand



A segurança da informação é obtida a partir da implementação de uma série de controles de segurança, que podem ser políticas, práticas, procedimentos, estruturas organizacionais, hardwares e softwares. Estes controles visam, basicamente, garantir os objetivos de segurança: disponibilidade, integridade, confidencialidade, autenticidade (DICA); e irretratabilidade (ou não-repúdio) e conformidade (ou legalidade).

Para satisfazer os objetivos de negócio, as informações precisam estar em conformidade com os critérios chamados requisitos de negócio do Cobit. Figura 9.



         Fig. 9 Requisitos de Negócios do Cobit                 Fonte: Cobit Foundation




7. PRÁTICAS DE GESTÃO DE SEGURANÇA DA INFORMAÇÃO





A norma ABNT NBR ISO/IEC 17799:2005 é o código de prática para a gestão de segurança da Informação. Inicialmente publicada em 1995 pela BSI (British Standards Institute) com o nome de BS 7799-1, essa norma se tornou um padrão internacional de fato a partir de sua publicação pela ISO (International Standards Organization), em 2000, com o nome de ISO/IEC 17799. No Brasil, a ABNT (Associação Brasileira de Normas Técnicas) lançou-a em português em 2005. Em 2007, tanto a ISO quanto a ABNT alteraram sua numeração para 27002, sem mudança do conteúdo.


A norma pode servir como um guia prático para desenvolver os procedimentos de segurança da informação da organização e as eficientes práticas de gestão da segurança e para ajudar a criar confiança nas atividades.

A norma contém 11 seções de controles de segurança da informação, totalizando 39 categorias principais de segurança, além de uma seção introdutória que aborda gestão de riscos. Os controles de segurança estão divididos nas seguintes seções:

a)- Política de segurança da informação


b)- Organização da segurança da informação

 

c)- Gestão de ativos

 

d)- Segurança dos recursos humanos

 

e)- Segurança física e do ambiente

 

f)- Gestão das operações e comunicações

 

g)- Controle de acesso

 

h)- Aquisição, desenvolvimento e manutenção de sistemas de informação

 

i)- Gestão de incidentes de segurança da informação

 

j)- Gestão da continuidade do negócio

 

k)- Conformidade


Ciclo do PDCA em SI



        Fig 10 – Modelo PDCA conforme a Norma NBR 27.001             Fonte: Allemand




8. TABELA DOS PRINCIPAIS REQUISITOS DE SEGURANÇA REFERENCIADOS NA ABNT-NBR-27001

Requisitos gerais

4.2 - Estabelecendo e Gerenciando o SGSI.

4.2.1 - Estabelecer o SGSI.

4.2.2 - Implementar e operar o SGSI.

4.2.3 - Monitorar e analisar criticamente o SGSI.

4.2.4 - Manter e melhorar o SGSI.

4.3 – Requisitos de Documentação

4.3.1 – A documentação de SGSI deve incluir. (disponibilize, publique, torne público)

4.3.2 – Controle de documentos. (disponibilize, publique, torne público)

4.3.3 –Controle de registros

5 – Responsabilidade da direção.

5.1 – Comprometimento da direção

5.2 – Gestão de Risco

5.2.1 – Provisão de Recursos.

5.2.2 – Treinamento, conscientização e competência

6 – Auditorias internas.

6.1 – Questões a serem auditadas.

7 – Analise crítica do SGSI.

7.1 – Analisar com periodicidade, ao menos uma vez por ano.

7.2 - Entradas para análise crítica.

7.3 – Saídas da análise crítica.

8 – Melhoria do SGSI.

8.1 – Melhoria continuada.

8.2 – Ação corretiva.

8.3 – Ação preventiva.






9. SOA


Service-oriented architecture - SOA ou ainda, em português, arquitetura orientada a serviços, é um estilo de arquitetura de software cujo princípio fundamental preconiza que as funcionalidades implementadas pelas aplicações devem ser disponibilizadas na forma de serviços A arquitetura orientada a serviços também se insere em um processo de reorganização dos departamentos de tecnologia da informação das organizações, permitindo um melhor relacionamento entre as áreas que dão suporte tecnológico à empresa e as áreas responsáveis pelo negócio propriamente dito, graças a maior agilidade na implementação de novos serviços e reutilização dos ativos existentes. (Wiki).















Ao solicitar um serviço, o consumidor enviaria as suas credenciais juntamente com a mensagem. Um servidor intermediário possuiria um componente que realizaria um acesso a um servidor de segurança que iria verificar estas credenciais e assinar estes dados reconhecendo-os como legítimos. O serviço seria então redirecionado à aplicação, com as credenciais assinadas, que então liberaria ou bloquearia o acesso ao serviço.



xxx




ANEXO Q




Programas de Código Aberto - Open Source Definition





O software chamado de código aberto, ou open source em inglês, é um tipo de software cujo código fonte é visível publicamente. O software de código aberto respeita as quatro liberdades definidas pela Free Software Foundation (FSF). Porém, não estabelece certas restrições como as contidas na GPL [GNU GPL ou simplesmente GPL, é a designação da licença para software livre idealizada por Richard Stallman no final da década de 1980, no âmbito do projeto GNU da Free Software Foundation (FSF). GNU = General Public License (Licença Pública Geral)]. É advogado pela Iniciativa do Código Aberto (Open Source Initiative).

Um software é considerado como livre quando atende aos quatro tipos de liberdade para os usuários do software definidas pela FSF:

• A liberdade para executar o programa, para qualquer propósito (liberdade nº 0);

• A liberdade de estudar como o programa funciona, e adaptá-lo para as suas necessidades (liberdade nº 1). Acesso ao código-fonte é um pré-requisito para esta liberdade;

• A liberdade de redistribuir cópias de modo que você possa ajudar ao seu próximo (liberdade nº 2);

• A liberdade de aperfeiçoar o programa, e liberar os seus aperfeiçoamentos, de modo que toda a comunidade se beneficie (liberdade nº 3). Acesso ao código-fonte é um pré-requisito para esta liberdade;




A definição do Open Source foi criada pela Open Source Iniciative (OSI) a partir do texto original da Debian Free Software Guidelines (DFSG, http://www.magnux.org/doc/GPL-pt_BR.txt) e determina que um programa de código aberto deve garantir:

1. DISTRIBUIÇÃO LIVRE 

• A licença não deve restringir de nenhuma maneira a venda ou distribuição do programa gratuitamente, como componente de outro programa ou não.




2. CÓDIGO FONTE 

• O programa deve incluir seu código fonte e deve permitir a sua distribuição também na forma compilada. Se o programa não for distribuído com seu código fonte, deve haver algum meio de se obter o mesmo seja via rede ou com custo apenas de reprodução. O código deve ser legível e inteligível para qualquer programador.




3. TRABALHOS DERIVADOS 

• A licença deve permitir modificações e trabalhos derivados, e deve permitir que eles sejam distribuídos sobre os mesmos termos da licença original.




4. INTEGRIDADE DO AUTOR DO CÓDIGO FONTE 

• A licença pode restringir o código fonte de ser distribuído em uma forma modificada apenas se a licença permitir a distribuição de arquivos patch (de atualização) com o código fonte para o propósito de modificar o programa no momento de sua construção. A licença deve explicitamente permitir a distribuição do programa construído a partir do código fonte modificado. Contudo, a licença pode ainda requerer que programas derivados tenham um nome ou número de versões diferentes do programa original.




5. NÃO DISCRIMINAÇÃO CONTRA PESSOAS OU GRUPOS 

• A licença não pode ser discriminatória contra qualquer pessoa ou grupo de pessoas.




6. NÃO DISCRIMINAÇÃO CONTRA ÁREAS DE ATUAÇÃO 

• A licença não deve restringir qualquer pessoa de usar o programa em um ramo específico de atuação. Por exemplo, ela não deve proibir que o programa seja usado em um empresa, ou de ser usado para pesquisa genética.




7. DISTRIBUIÇÃO DA LICENÇA 

• Os direitos associados ao programa devem ser aplicáveis para todos aqueles cujo o programa é redistribuído, sem a necessidade da execução de uma licença adicional para estas partes.




8. LICENÇA NÃO ESPECÍFICA À UM PRODUTO 

• Os direitos associados ao programa não devem depender que o programa seja parte de uma distribuição específica de programas. Se o programa é extraído desta distribuição e usado ou distribuído dentro dos termos da licença do programa, todas as partes para quem o programa é redistribuído devem ter os mesmos direitos que aqueles que são garantidos em conjunção com a distribuição de programas original.




9. LICENÇA NÃO RESTRINJA OUTROS PROGRAMAS 

• A licença não pode colocar restrições em outros programas que são distribuídos juntos com o programa licenciado. Isto é, a licença não pode especificar que todos os programas distribuídos na mesma mídia de armazenamento sejam programas de código aberto.




10. LICENÇA NEUTRA EM RELAÇÃO A TECNOLOGIA 

• Nenhuma cláusula da licença pode estabelecer uma tecnologia individual, estilo ou interface a ser aplicada no programa.



Obs: 

1. Outsourcing (em inglês, "Out" significa "fora" e "source" ou "sourcing" significa fonte) designa a ação que existe por parte de uma organização em obter mão-de-obra de fora da empresa, ou seja, mão-de-obra terceirizada. Está fortemente ligado a ideia de subcontratação de serviços. Em outras palavras, "Outsourcing" é a transferência das atividades conhecidas como atividades meio, e nunca as atividades fins (produto final), para uma empresa terceirizada.




2. A diferença entre "outsourcing" e "terceirização" é que, inicialmente, outsourcing está ligado a procura de "fontes" fora da organização ou país e terceirização correlaciona dentro do país.



xxx









Um comentário:

ALMEIDA disse...

Em 1997 levantaram-se os serviços de telecom disponibilizados pela EMBRATEL na monografia/ TCC da ECEME