Anais 2014 - VII Congresso Tecnológico

Page 1

VII CONGRESSO TECNOLÓGICO

ANAIS 2014


SUMÁRIO

ÁREA: Automação e Sistemas Embarcados............................................................................3 Aplicação Android para Monitoramento de Veículos via Internet ...............................................................4 Código CLC: Implementação, porte em FPGA e Análise Comparativa de Desempenho.............................9 Código Reed-Muller para Aplicações Tolerantes a Radiação em FPGA Baseada em SRAM....................15 O Uso da Tecnologia VPN para Videoconferência.....................................................................................20 Plataforma Android para diagnóstico de automóveis..................................................................................24 Planejamento de Rede GPON Utilizando os Algoritmos Dijkstra e Genético............................................30 Plataforma Web de Projeto para Cálculo de Rádio enlace..........................................................................36 Robô Terrestre para Telemetria Comandado por Dispositivo Móvel Android...........................................40 Simulando Protocolos de SmartGrid sobre uma Rede de Sensores Sem Fio usando OMNet++................46

ÁREA: Engenharia-de-Software.............................................................................................51 Avaliação de Usabilidade em Aplicativos para Dispositivos Móveis com Sistema Android - Um Estudo de Caso.........................................................................................................................................................52 A Experiência da Parceria entre Universidade, Indústria e Órgão de Fomento para Definição e Implantação de um Processo de Software...................................................................................................60 Análise Comparativa de Ferramentas de Modelagem UML para Projeto Acadêmico................................65 INOVAÇÃO E TECNOLOGIA NA SAÚDE: promoção de ações educativas sobre métodos contraceptivos m ambiente virtual com os jovens nas escolas....................................................................70 Práticas de Engenharia de Requisitos Utilizadas por Profissionais nas Empresas de Desenvolvimento de Software do Ceará........................................................................................................................................74 Uma Solução Integrada para Suporte ao Aprendizado em Gestão de Fábricas de Software.......................79 Um Estudo sobre Fatores Culturais e de Infraestrutura que Influenciam no Desenvolvimento Distribuído de uma Empresa de Software.......................................................................................................................85

ÁREA: Gerenciamento de Dados..............................................................................................91 Abordagem Híbrida de Aprendizado Semi-Supervisionado para Rotulação de Dados...............................92 Análise da Qualidade de Vida dos Municípios Brasileiros Utilizando Integração de Dados......................96 Mineração de Dados Abertos.....................................................................................................................101 Performance in Search Data Methods and Components for Information Visualization............................107 Proposta de uma Ontologia de Aplicação para uma Rede Social de Grupos de Pesquisa.........................111 Processamento e Monitoramento de Consultas no Cassandra Em Ambiente de Nuvem Considerando um SLA............................................................................................................................................................117


ÁREA: Jogos e Mídias Digitais...............................................................................................122 Avaliação de Técnicas Voltadas para a Modelagem de Personagens Virtuais..........................................123 Cloud Gaming: Um comparativo entre OnLive e GameNow...................................................................127 Jogo de Plataforma: Em Busca da Conclusão............................................................................................140 Os Jogos Eletrônicos como Ferramenta de Apoio Educacional................................................................150

ÁREA: Projetos e Processos....................................................................................................156 Desenvolvimento de Solução utilizando Redes de PetriAplicado na Modelagem do Processo de Especificação de Equipamentos.................................................................................................................157 Desenvolvimento Ágil de sistemas alinhado com as boas práticas da Governança de TI.........................163 e-PID: Electronic Professional Identity Document....................................................................................169 O Uso De Ferramentas Tecnológicas No Sistema De Agendamento De Consultas Especializadas Do SUS............................................................................................................................................................174 Os Fatores relacionados à Implantação de Escritório de Projetos nas Organizações - Um estudo exploratório................................................................................................................................................179 Pesquisa e Inovação: Propondo Um Novo Sistema Para a Gestão de Projetos.........................................187 Um Estudo sobre Gerenciamento de Projetos com Equipes Multifuncionais...........................................191 Um Estudo sobre a Gestão de Pessoas no Gerenciamento de Projetos.....................................................197 Um Estudo sobre a Análise Qualitativa de Riscos em Projetos de TI através de uma Ferramenta de Software.....................................................................................................................................................105

ÁREA: Redes de Comunicação Digital..................................................................................112 Análise de uso de protocolos de roteamento em redes MANETS.............................................................113 O sucesso da Virtualização em uma Instituição Federal de Ensino gastando nada com Software............119 Proposta de otimização em de consumo de energia em redes de sensores sem fio em comunicação acústica subaquática...................................................................................................................................124 Proposta de Implantação de um Projeto de Rede Sem Fio de Acesso Público Utilizando Redes Mesh...130 Redes Definidas por Software Um visão sobre o novo paradigma de redes.............................................135

ÁREA: Segurança da Informação......................................................................................... 143 Aplicação de Esteganografia de Texto em Imagens com Demonstração de Diferenças Através de Histogramas...............................................................................................................................................144 Google Hacking para Ataques SQL Injection...........................................................................................150 Modelo de gestão de fundos públicos -Transferências no SICONV.........................................................156 O Potencial da Segurança da Informação na Gestão Organizacional........................................................162 Redes Neurais Artificiais de Softwares Livres na execução de Testes de Intrusão e Análise de Vulnerabilidades: uma proposta de arquitetura.........................................................................................165


ÁREA: Software Livre.............................................................................................................171 Robótica Educacional Utilizando Robocode como Ferramenta de Ensino de Conceitos de Programação Java............................................................................................................................................................172 Um estudo de caso realizado em uma escola pública na cidade de Limoeiro do Norte: Dificuldades e reflexões quanto ao uso de softwares livres na Educação.........................................................................177

ÁREA: Tecnologias Assistivas................................................................................................182 DeVoice: Um Tutor Inteligente para Interação Humano - Computador Multimodal Visando a Acessibilidade Computacional...................................................................................................................183 Inclusão Digital: Conceitos, Possibilidades e Desafios no Ensino Superior para o Portador de Necessidade Especial Auditiva.......................................................................................................................................189 O software Jogo das Letras: exercícios de memorização para auxiliar a alfabetização de crianças com deficiência motora......................................................................................................................................195 Protótipo de Sistema de Acessibilidade e Síntese de Voz Livre e Multiplataforma..................................201 SIACA - Sistema Inteligente para Acessibilidade de Cegos.....................................................................207 Simulação da Locomoção e Controle Automático de uma Cadeira de Rodas Motorizada com uso de Comandos de Voz.............................................................................................................................................................211

ÁREA: Tecnologia Educacional.............................................................................................217 Avaliação de Emuladores para o Ensino de Redes de Computadores.......................................................218 Análise da experiência do usuário no tablet educacional..........................................................................223 Análise do Uso de Amplificadores Ópticos em Sistemas WDM Através da Ferramenta de Simulação Optisystem.................................................................................................................................................229 Biblioteca Setorial Digital: Um Mapeamento Para a Ontologia ...............................................................234 Caipo - Jogo Para Aprendizagem Ambiental.............................................................................................240 Desenvolvimento de Aplicativos para Celulares pelos Alunos, como Proposta de Apoio ao Ensino de Engenharia Civil........................................................................................................................................244 Energydownow: aprendendo física através de um jogo para controle de consumo elétrico.....................248 Em Busca de uma Informática Saudável, Redução de Doenças Ocupacionais por Exposição a Riscos Químicos....................................................................................................................................................253 O Uso da Computação em Nuvem em Ambiente Acadêmico...................................................................259 Redes sociais digitais na educação a distância..........................................................................................265 Software educacional aplicativo para Composição Real e Virtual de Cores ............................................272 Uso do Ambiente Virtual de Aprendizagem SOCRATES como ferramenta pedagógica no ensino de Física.....................................................................................................................................277



1

Aplicação Android para Monitoramento de Veículos via Internet Ádria Barros de Oliveira, Estagiária, Laboratório de Engenharia de Sistemas de Computação (LESC), Universidade Federal do Ceará (UFC), Fortaleza-Ceará Brasil adria@lesc.ufc.br e Helano S. Castro, Laboratório de Engenharia de Sistemas de Computação (LESC), Universidade Federal do Ceará (UFC), Fortaleza-Ceará Brasil helano@lesc.ufc.br Resumo—Nos dias de hoje é crescente a utilização de smartphones e consequentemente existem incontáveis aplicações disponíveis que visam auxiliar o usuário a desenvolver deste simples tarefas diárias até complexas atividades. Este artigo apresenta uma aplicação Android que busca auxiliar os proprietários de automóveis a realizarem o monitoramento remoto de seus veículos. Os usuários podem receber e enviar informações de controle através da Internet. Este artigo descreve como a aplicação foi desenvolvida e quais as tecnologias utilizadas. Abstract—Nowadays there is a growing use of smartphones and as a result there are countless applications available with the purpose of helping users to develop from simple daily tasks to complex activities. This paper describes an Android application that helps car owners make a remote monitoring of their vehicles. The users are able to send and receive control information about their car using the Internet. This paper describes how the application was developed and what technologies were used. Index Terms—Android, monitoramento, veículos, controle, smartphone, Internet.

1

INTRODUÇÃO rastreamento de bens é uma necessidade cada vez maior nos dias de hoje, quer seja para controle de estoque, quer seja por questões de segurança. Embora essas duas aplicações mencionadas guardem certos pontos em comum, quando se trata de segurança existe uma premência maior, e portanto os requisitos de projeto apresentam diferenças. No caso de monitoramento de automóveis, é muito comum a presença de alarmes que sinalizam, em forma de alarme auditivo ou visual, a violação dos mesmos. No entanto, devido ao fato dos usuários nem sempre estarem próximos o suficiente de seus bens para perceberem o alarme, esta solução não é muito eficiente, visto que em muitas situações o usuário só percebe o problema após o evento. Embora existam algumas soluções de mercado que avisam aos usuários, no caso de violação de seus veículos, elas são caras e necessitam a contratação de empresas de monitoramento que impõem a aquisição de aparelho específico, e cobram mensalidade para a manutenção do serviço. Com o aumento da capacidade computacional dos smartphones, tablets, centrais multimídias automotivas, dentre outros sistemas embarcados, e consequente

O

inclusão de interfaces úteis para aplicações de monitoramento, tornar-se sedutora a ideia de se aproveitar esses recursos para prover uma solução de baixo custo para o problema. A aplicação descrita neste artigo foi desenvolvida visando a diminuição de custos, beneficiando-se da oportunidade da crescente utilização de smartphones e da comum existência de centrais multimídias acopladas aos veículos modernos. Deste modo o usuário não necessitaria adquirir tais dispositivos e facilmente realizaria o controle e monitoramento de seu veículo. A aplicação foi desenvolvida em ambiente Android, e tem como finalidade o controle e monitoramento remoto de veículos através da Internet. O objetivo é que o proprietário possa obter, em tempo real, as informações do seu veículo, como por exemplo: localização, acesso a câmera e áudio internos, monitoramento de sensores (abertura de porta, destravamento, disparo do alarme, dentre outros). Para tanto faz-se necessário que o veículo esteja equipado com um dispositivo com acesso a Internet (WIFI/3G), GPS e que tenha funcionalidades multimídia como gestão e reprodução de vídeo e áudio, com é o caso das modernas centrais multimídias que equipam um crescente número de veículos hoje em dia.


2

Um pequeno servidor Web deve ser implementado para gerenciar as informações de controle entre a aplicação e a central multimídia, este pode ser desenvolvido no próprio computador pessoal (desktop) do usuário fazendo uso, por exemplo, de um Servidor Apache1, o que não acarretaria custo adicional ao produto. Dentre as várias plataformas existentes para desenvolvimento de aplicações para dispositivos móveis, escolheu-se o Android, um sistema operacional baseado no kernel Linux que vem sendo utilizado por uma ampla gama de dispositivos e sistemas embarcados. O Android possui uma variedade de vantagens que justificam a escolha da tecnologia para o desenvolvimento desta aplicação, entre as quais se sobressaem a vasta documentação oferecida [1], suporte da comunidade de desenvolvedores, framework de aplicações, além de fornecer um ambiente de desenvolvimento completo, incluindo IDE, emulador e ferramentas de debugging. No estado da arte evidencia-se um grande número de sistemas de rastreamento que visam obter a localização do veículo em tempo real. A automatização destes sistemas, bem como o controle ser realizado pelo próprio usuário é uma premissa dos recentes trabalhos desenvolvidos na área [2][3][4]. Em [2] foi desenvolvido um sistema de rastreamento usando um dispositivo embarcado acoplado ao veículo com tecnologia GPS/GSM/GPRS. O controle das informações é realizado através de um smartphone, além de oferecer notificação por SMS. Sistemas inteligentes são desenvolvidos para coletarem dados do veículo e com base nestes realizarem tomadas de decisão. Tendo esta perspectiva foi desenvolvido uma arquitetura de Software [3] para gerenciamento de fluxo de dados (eDSMS) na plataforma Android. O sistema descrito neste artigo tem o diferencial de ir além do rastreamento de veículos, também se realiza o controle das funcionalidades multimídia, bem como o monitoramento dos sensores internos para verificar o estado atual do automóvel. 2

ARQUITETURA DO SISTEMA ARA o correto funcionamento deste projeto de Monitoramento de Veículos faz-se necessário a utilização de três módulos: aplicação Android; Servidor Web; e uma central multimídia acoplada ao veículo. A aplicação Android tem como finalidade fornecer a interação do usuário com o sistema, apresentação da interface gráfica, recepção e envio dos dados de monitoramento via Internet, além de exibi-los de forma intuitiva para o usuário.

P

1

Servidor Apache: servidor Web livre [14]

O Servidor Web é o responsável por prover os Web Services2 utilizados nos outros dois módulos, intermediando a comunicação entre a aplicação Android e o dispositivo acoplado ao veículo. Como exemplos de serviços fornecidos temos: localização do veículo; streaming de áudio e vídeo; monitoramento dos sensores; leitura do estado do veículo; dentre outros. Além do mais, o Servidor Web é responsável por armazenar as credenciais de usuário e implementar eventuais soluções de segurança. O dispositivo acoplado ao veículo (central multimídia), um sistema embarcado que faça uso de sistemas IVI (In-Vehicle Infotainment), deve contemplar navegação GPS, acesso a Internet (WIFI/3G), vídeo e áudio player, câmera digital (webcam), microfone, e interface CAN (Controller Area Network). Tal dispositivo deve acessar o hardware, realizar a leitura dos sensores (barramento CAN, sensores internos do veículo, dentre outros) e enviar os valores obtidos para o Servidor Web através da Internet, bem como realizar os devidos acionamentos das funcionalidades multimídias como gestão e reprodução de áudio e vídeo. Na figura 1 mostra-se a arquitetura proposta para o projeto, ressaltando os três módulos descritos anteriormente: aplicação Android; Servidor Web; e dispositivo acoplado ao veículo. No escopo deste artigo será abordado apenas o desenvolvimento da aplicação Android.

Figura 1. Arquitetura do Sistema 3

API DO GOOGLE PLAY SERVICES API do Google Play Services fornece recursos que auxiliam no desenvolvimento de aplicações. No site do Android [5] é disponibilizada a API, bem como toda a documentação necessária para instalar e configurar a biblioteca e como fazer uso da mesma. Através do Google Play Services [5] é possível acessar os serviços fornecidos pelo Google e utilizá-los na aplicação desenvolvida. A API é totalmente integrada com o sistema operacional Android, e a figura 2 demonstra como uma aplicação pode acessar os serviços disponíveis no Google Play Services. Como descrito em [6], para

A

2 Web Services: tecnologia utilizada para realizar comunicação entre sistemas por meio da Internet.


3

estabelecer uma conexão com Google Play Services, fazse necessário criar uma instancia da GoogleApiClient que fornece uma interface que gerencia a conexão entre a aplicação de usuário e cada serviço do Google. A GoogleApiClient é o ponto de entrada comum para todos os serviços fornecidos na API, e somente através desta é possível acessar os serviços.

e reprodução de áudio e exibição da webcam. Além destas, a aplicação possui a funcionalidade de monitoramento de sensores do veículo, caso em que o usuário seleciona quais sensores deseja monitorar (abertura de porta, destravamento, disparo do alarme, etc) e sempre que ocorrer um evento em um sensor uma notificação será enviada para a aplicação. Também existe a funcionalidade de controle dos periféricos do automóvel, o usuário pode solicitar o acionamento de dispositivos ON/OFF (por exemplo: abertura de portas) por meio da aplicação.

Figura 2: Acesso a API do Google Play Services Fonte: Accessing Google Play Services APIs [6]

Na aplicação descrita neste artigo foram utilizados os seguintes serviços da API: Google Maps Android API v2 e Google Cloud Messaging for Android. Para tanto, fezse necessário gerar o certificado da aplicação Android, criar um projeto no Google APIs Console e obter a chave de acesso ao serviço especifico (API key). Tais passos são descritos na documentação apresentada no site do Android [5]. 4

DESENVOLVIMENTO DA APLICAÇÃO ANDROID

aplicação foi desenvolvida de modo a prover uma Ainterface de usuário amigável, para que o proprietário do veículo possa realizar o monitoramento de forma simples e rápida. Como informado anteriormente, o sistema operacional é Android, cuja versão 4.3 foi utilizada para desenvolvimento e teste desta aplicação. Após fazer login na aplicação, é apresentada ao usuário a tela de controle, mostrada na figura 3, que permite a seleção de qual funcionalidade se deseja acessar. Para utilizar qualquer função de monitoramento da aplicação, além de está devidamente logado no sistema, o usuário deve cadastrar o dispositivo Android de acesso, cadastrar no mínimo um veículo para se realizar o monitoramento, e selecionar para qual veículo o monitoramento atual será efetuado (caso exista mais de um veículo cadastrado no sistema). Todas as informações de cadastro (de usuário, dispositivo Android, e veículo), bem como as de monitoramento, são armazenadas no Servidor Web. As funcionalidades principais da aplicação que serão descritas neste artigo são: localização do veículo; captura

Figura 3: Tela inicial 4.1

Comunicação com o Servidor Web O Servidor deve implementar uma camada de Web Services que estejam disponíveis para que a aplicação Android possa utilizá-los nas funcionalidades de monitoramento. Para utilizar tais serviços de maneira unificada em todas as activities3 da aplicação, implementou-se uma activity genérica que realiza tal comunicação com o Servidor Web. A comunicação é estabelecida utilizando métodos GET e POST de forma assíncrona. Para realizar a comunicação com o servidor utilizou a classe DefaultHttpClient do Android. Esta classe implementa um Cliente HTTP (Hipertext Transfer Protocol), estabelecendo uma conexão com o Servidor de acordo com os parâmetros (HttpParams) fornecidos. 3 Activity é um componente da camada de apresentação de uma aplicação Android. A classe Activity é responsável pelo gerenciamento da Interface de Usuário [10].


4

A resposta à requisição efetuada é do tipo HttpResponse, que contém uma mensagem HTTP. Abaixo segue o código de uma requisição do tipo GET. Para uma requisição do tipo POST basta incluir as informações da requisição no corpo da mensagem, diferentemente do tipo GET que as informações são incluídas na URL.

4.2

Localização do veículo A aplicação tem uma funcionalidade que permite localizar o veículo rastreado. Nesta função é exibido um mapa em que se destaca a localização atual do veículo, informando o endereço em que este se encontra. O usuário tem a opção de traçar uma rota da sua posição atual até a posição do automóvel, como mostrado na figura 4. O marcador vermelho representa a localização do veículo e o azul representa a posição atual do usuário, a rota é descrita pelo caminho vermelho. Para implementar estas funcionalidades utilizou-se o serviço Google Maps Android API v2 através da API do Google Play Services descrita anteriormente. Para criar um mapa é necessário adicionar um componente do tipo fragment ao arquivo XML de layout da sua activity, o mapa será criado a partir deste fragment.

Figura 4: Tela localizar veículo Na activity correspondente deve-se configurar o mapa, informando qual o fragment a ser utilizado, habilitando a detecção da localização do usuário e definindo o mapa como sendo básico e com estradas (MAP_TYPE_NORMAL), como mostrado no código a seguir.

A localização do automóvel é obtida por meio de um Web Service, o Servidor Web solicita as informações de localização (latitude/longitude) ao dispositivo acoplado ao veículo e as repassa para a aplicação. Na aplicação,


5

quando se recebe as coordenadas, estas são inseridas no mapa, mostrando um marcador.

A classe Geocoder do Android consegue, através das coordenadas (latitude, longitude), gerar um endereço detalhado de uma localização, assim é possível mostrar para o usuário a posição exata do veículo.

Para a gravação do áudio utilizou-se a classe MediaRecorder do Android, através desta é possível habilitar o microfone do dispositivo, capturar o áudio e gerar um arquivo de saída. Sua configuração é mostrada abaixo.

Todas estas configurações de mapa são explanadas na página da API do Google Maps para Android [7]. 4.3

Captura e reprodução de áudio A aplicação possui dois requisitos relacionados com áudio: reproduzir áudio interno do veículo, e gravar e enviar um áudio para o veículo. No primeiro requisito a aplicação deve ser capaz de reproduzir o áudio captado pelo microfone interno do veículo, permitindo ao usuário monitorar o áudio ambiente do automóvel. No segundo, o usuário poderá gravar um áudio, através da aplicação, e enviá-lo para que este seja reproduzido no veículo. A classe MediaPlayer é responsável pela reprodução de áudio, esta possui suporte para reproduzir uma grande variedade de tipos de mídias, além de dar suporte a streaming4 de áudio, o que facilita a implementação do requisito, visto que o propósito é receber um áudio enviado pelo veículo e reproduzi-lo instantaneamente. A aplicação irá solicitar ao Servidor Web a URL de acesso ao áudio. Após receber a resposta do Servidor, é configurado o MediaPlayer com a URL fornecida. No código abaixo exemplifica-se a configuração do MediaPlayer, porém se utiliza a URL de teste disponível em: http://78.28.48.14:8000/stream.ogg. Ao se executar o start o áudio é reproduzido. Em [8] é possível verificar como configurar e reproduzir um áudio usando o MediaPlayer.

4 Forma de distribuição de dados em fluxo contínuo, sem a necessidade de esperar o carregamento completo do conteúdo.

4.4

Exibir webcam do veículo Outra funcionalidade requerida da aplicação é exibir a webcam interna do veículo, o usuário ainda tem a possibilidade de salvar imagens do vídeo apresentado. Para tanto a aplicação envia uma solicitação deste serviço ao Servidor Web e este retorna o endereço (IP e porta) em que o dispositivo acoplado ao veículo irá fornecer o vídeo, de modo que a comunicação será feita diretamente entre a aplicação Android e o dispositivo, assim não se sobrecarrega o servidor com fluxo excessivo de dados. Para realizar a gestão do fluxo de dados de mídia implementou-se o protocolo RTSP (Real Time Streaming Protocol), que tem como objetivo realizar o controle das funções básicas de execução. Para o envio da mídia implementou-se o protocolo de transporte RTP (Real-time Transport Protocol). Não detalharemos as implementações destes protocolos pois foge do objetivo deste artigo, para um estudo mais aprofundado utilizouse o livro do Perkins [9]. Como sabemos um vídeo é constituído de um conjunto de imagens e a apresentação das sucessivas imagens gera a ideia de movimento. Sendo assim, no transporte de um vídeo são transmitidas imagens codificadas a uma determinada taxa. No receptor ocorre


6

a decodificação das imagens e a apresentação destas de modo a constituir o vídeo novamente. Ou seja, na aplicação, durante o ciclo de recepção e reprodução do vídeo, para cada imagem recebida é realizada a decodificação desta para um mapa de bits (bitmap) e em seguida mostra-se a imagem na tela, a implementação desta etapa é apresentada no código a seguir.

5

CONCLUSÃO STE artigo descreveu o desenvolvimento de uma aplicação que visa auxiliar os proprietários no monitoramento de seus veículos, aumentando a segurança e controle sobre seu patrimônio. No desenvolvimento do primeiro protótipo da aplicação utilizou-se dados estáticos e um pequeno servidor para validar as funcionalidades apresentadas, visto que o Servidor Web não estava funcional e não se possuía uma central multimídia para realizar os testes e autenticação com dados reais. O objetivo do trabalho é validar a ideia da criação de uma aplicação que realize o rastreamento e o monitoramento do estado dos veículos. Como trabalhos futuros tem-se a implementação dos módulos restantes da arquitetura proposta e realizar a integração dos mesmos para prover o real funcionamento do projeto, além de integrar novas funcionalidades ao sistema, como por exemplo, o envio de notificações por SMS.

E

REFERÊNCIAS [1] Introduction to Android, Disponível em: http://developer.android.com/guide/index.html. Acessado em junho 2014. [2] Lee, SeokJu; Tewolde, Girma; Kwon Jaerock. "Design and Implementation of Vehicle Tracking System Using

GPS/GSM/GPRS Tecnology and Smartphone Aplication", IEEE World Forum on Internet of Things (WF-IoT), 2014. [3] Nakamoto, Y.; Okamoto, M.; Bhuiya, M.; Yamaguchi, A.; Sato, K.; Honda, S.; Takada, H. "Android Platform based on Vehicle Embedded Data Stream Processing". IEEE 10th International Conference on Ubiquitous Intelligence & Computing and IEEE 10th International Conference on Autonomic & Trusted Computing, 2013. [4] Wang, Zhangwei; Lu, Jianfeng. "The Design and Implementation of Client about Vehicle Context-aware System Based on Ubiquitous Network". IEEE, 2013. [5] Google Play Services, Disponível em: http://developer.android.com/google/playservices/index.html. Acessado em junho 2014. [6] Accessing Google Play Services APIs, Disponível em: http://developer.android.com/google/auth/api-client.html. Acessado em junho 2014. [7] API de Google Maps para Android, Disponível em: https://developers.google.com/maps/documentation/andro id/start#get_an_android_certificate_and_the_google_map s_api_key. Acessado em junho 2014. [8] Media Playback, Disponível em: http://developer.android.com/guide/topics/media/mediapl ayer.html. Acessado em junho 2014. [9] Perkins, Colin. RTP - Audio and Video for the Internet. Addison Wesley, 2003. [10] Meier, Reto. Professional Android 4 Application Development. John Wiley e Sons, 2012. [11] Android: um novo paradigma de desenvolvimento móvel. Disponível em: http://www.cesar.org.br/site/files/file/WM18_Android.pdf Acessado em junho 2014. [12] Utilizando ImageView no Android. Disponível em: http://www.devmedia.com.br/utilizando-imageview-noandroid/27783 Acessado em junho 2014. [13] Consuming JSON Services in Android Apps. Disponível em: http://mobiforge.com/designdevelopment/consuming-json-services-android-apps Acessado em junho 2014. [14] The Apache Software Foundation. Disponível em: http://www.apache.org/ Acessado em junho 2014.


Código CLC: Implementação, porte em FPGA e Análise Comparativa de Desempenho Felipe Gaspar Alan e Silva1, Helano de Souza Castro2 e Alexandre Augusto da Penha Coelho3, Maria Luciene Lira Monteiro4, Victor Dall Mass Fernandes5 gaspar@lesc.ufc.br1, helano@lesc.ufc.br2, alexhabbit@gmail.com3, marialucy.lira@gmail.com4, vdmfernandes@gmail.com5 Laboratório de Engenharia de Sistemas de Computação Departamento de Engenharia de Teleinformática Universidade Federal do Ceará

Resumo-Esse artigo apresentará o código corretor de erros Column-Line-Code (CLC). Utilizando conhecimentos do código de Hamming estendido e Paridade o código CLC codifica uma palavra transmitida de 16 bits para 40 bits a partir de simples operações lógicas. As taxas de correção e detecção do CLC foram comparadas com os códigos Reed-Muller (2,5) e Matrix utilizando a ferramenta VCS da empresa Synopsis. Os resultados obtidos mostraram que o CLC tem maior cobertura de correção que o código Matrix e menor que o Reed-Muller (2,5) a partir de quatro erros, e maior cobertura de detecção que o Matrix e o Reed-Muller (2,5). Utilizando a ferramenta de desenvolvimento de HDL Xilinx ISE 14.5, sintetizamos os decodificadores do CLC, do Matrix e do Reed-Muller (2,5), escritos em Verilog, para uma Xilinx Spartan 3E FPGA e comparamos os dados das sínteses dos decodificadores. Os resultados mostraram que o código CLC tem maior consumo de área e tempo de execução que o código Matrix, mas valores menores que o código ReedMuller (2,5), apesar de tanto ele quanto o CLC serem códigos Triple Error Correction (TEC).

I.

Introdução

Por conta dos recentes avanços em Microeletrônica, circuitos integrados de alto desempenho que são caracterizados por altas frequências de operação e baixos níveis de voltagem, o que torna pequenos ruídos uma questão crítica no que tange falhas [15]. Grande parte dos dispositivos eletrônicos comerciais é inapropriada para operar em ambientes hostis e muitas dessas falhas podem decorrer dos mesmos operarem em ambientes expostos a radiação oriunda de partículas alpha e nêutrons [3]. Grande parte das memórias é sensível a falhas transitórias em hardware tornando-se uma grande preocupação para aplicações espaciais, podendo ocasionar falhas na transmissão de informação e perda de desempenho do sistema. Dois tipos de erro gerados por radiação que afetam memórias são: Single Event Upset (SEU) [2] e Multiple Event Upset (MEU) [6]. Para auxiliar na manutenção do funcionamento das memórias, de modo que elas estejam protegidas dessas eventuais falhas, são utilizados códigos corretores de erros [3], [5]. O código de Hamming pode ser utilizado com a finalidade de recuperar falhas proeminentes de SEUs devido a sua eficiência e simplicidade [13]. No entanto, por conta da evolução e da crescente utilização da microeletrônica e dos sistemas embarcados em aplicações

espaciais, a ocorrência de múltiplos erros está se tornando cada vez mais frequente. Nas memórias atuais, devido à proximidade entre as células da memória, a incidência de radiação na mesma afetará mais de uma célula, causando MEU’s. Isso faz com que a utilização do código de Hamming seja ineficaz para a recuperação da informação contida nas células da memoria. Torna-se necessário a utilização de códigos mais eficientes para a proteção da memória. Pensando nisso, foi desenvolvido um código que utiliza os conhecimentos sobre o código de Hamming e Paridade chamado Matrix. Esse código corretor de erro consegue corrigir duas falhas em uma palavra de 32 bits e possui uma lógica mais elaborada que o código de Hamming, e relativamente de fácil entendimento. Embora o código Matrix seja uma alternativa interessante para a solução de MEU’s [9],[1],[14], ele ainda deixa a desejar na eficiência de correção comparado a códigos mais robustos. Reed-Solomon e Reed-Muller são códigos de complexidade bem maior que o código Matrix, e que possuem grande eficiência na solução de MEU’s podendo resolver três ou mais falhas dependendo do formato do código, no entanto esses códigos tem maior custo de área, potência e tempo de execução que o código Matrix em sistemas embarcados. Propondo aliar eficiência e menor custo, os autores desenvolveram o código Column-Line-Code (CLC) [18] para a correção de múltiplas falhas em memórias. Sua utilização é baseada em Hamming estendido e paridade, formando assim uma matriz. Para validar a eficiência do nosso código, foram realizados testes de detecção e de correção de erros sendo atingidos 100% nas taxas de detecção até cinco erros e de correção até três erros. Esses testes mostram que o CLC tem maior taxa de correção e detecção que o código Matrix e mesma porcentagem de correção que o código Reed-Muller (2,5) até três erros. Para analisar o custo de área e tempo do código CLC, sintetizamos os decodificadores do algoritmo proposto, do código Reed-Muller e do código Matrix para uma FieldProgrammable Gate Array (FPGA) BASYS Xilinx Spartan 3E da empresa Digilent inc. Coletamos alguns dados da sintetização e comparamos os resultados. O código Matrix


teve os menores índices de consumo na FPGA, seguido pelo código CLC e pelo código Reed-Muller.

reprogramável e configurável que contribui decisivamente para os avanços do desenvolvimento de hardwares [16].

O artigo também apresentará a metodologia da aplicação do código, seu algoritmo, explicando o codificador, o decodificador e as estratégias utilizadas para detecção e correção das palavras. Além disso, serão apresentados os padrões de erro que foram utilizados para verificar a eficácia do CLC em detecção e correção, além de gráficos comparativos com os códigos Matrix e Reed-Muller em correção e detecção, e a análise das informações coletadas das sínteses dos decodificadores.

Um sistema desenvolvido com o uso de uma linguagem de descrição de hardware (do inglês, Hardware Design Language - HDL) pode ser convertido automaticamente para uma descrição em hardware do circuito equivalente, por intermédio de uma ferramenta de posicionamento e roteamento (do inglês, placement and routing) [16]. A ferramenta ISE 14.5 da empresa Xilinx possui um modulo utilizado para realizar operações de síntese logica e síntese física, sendo utilizada em projetos de hardware complexos.

II.

Trabalhos Relacionados

O código de Hamming(7,4) é o código base das séries de corretores e detectores de erro. Hamming estendido é um código derivado do Hamming e tem como foco a aplicação em sistemas mais sujeitos a Single Error Correction-Double Error Detection (SEC-DED). As codificações de Hamming e do Hamming estendido são similares, diferindo no acréscimo de um bit nas palavras codificadas em Hamming estendido (8,4). A utilização do Hamming estendido também é abordada na criação de algoritmos Single Error Correction-Double Error Detection-Triple Adjacent Error Detection SEC-DED-TAED[11], em que as palavras são codificadas e ordenadas em uma matriz que permite detectar até três erros adjacentes na palavra código, pois a partir do bit de paridade gerado no Hamming estendido, é feita uma síndrome que detecta um erro. A incidência de radiação [3],[8] em memorias S-RAM pode ocasionar em erros adjacentes. Isso torna necessária a utilização de algoritmos de correção com cobertura maior que um, portanto o código de Hamming (8,4) não é recomendado, já que apesar de ser possível detectarmos dois erros não poderemos corrigir a informação completamente. O código Matrix tem os bits da palavra codificada organizadas no formato similar ao de uma matriz[17]. Essa estrutura é composta por quatro linhas com palavras de Hamming codificadas e uma linha adicional com os bits de paridade das colunas que auxiliam na detecção dos erros nos bits adjacentes. Esse rearranjo permite uma maior eficiência na detecção e na correção de erros adjacentes, sem comprometer o rendimento. Esse código tem foco na aplicação em sistemas sujeitos a DEC-DED (Double Error Correction – Double Error Detection)[6]. Sua decodificação consiste na verificação das síndromes dos check bits e dos bits de paridade, de modo que, se as síndromes geradas retornarem valor nulo, ocorrerá reorganização dos bits que compunham a palavra original. O código Reed-Muller é um código corretor de erro que é utilizado para corrigir MEU’s em memórias SRAM[17]. Reed-Muller é mais eficiente que o código Matrix em termos de correção e detecção, em contrapartida ReedMuller é um código bem mais complexo tanto na codificação quanto na decodificação e, portanto, precisa de mais recursos do sistema em que ele está embarcado. Nos últimos anos tem havido uma crescente demanda por sistemas de transmissão digital e armazenamento devido aos avanços da tecnologia VLSI e do processamento digital. Field-Programmeble Gate Array (FPGA) é uma placa

III.

Técnica Proposta para Detecção e Correção de Erros

CLC tem sua palavra codificada composta por 40 bits, sendo uma palavra de 16 (C), oito de paridade(P), quatro de paridade de palavra (Pa) e 12 check bits (CB). C1

C2

C3

C4

CB1

CB2

CB3

Pa1

C5

C6

C7

C8

CB4

CB5

CB6

Pa2

C9

C10

C11

C12

CB7

CB8

CB9

Pa3

C13

C14

C15

C16

CB10

CB11

CB12

Pa4

P1

P2

P3

P4

P5

P6

P7

P8

Figura 1. Modelo da palavra codificada CLC.

Para o código CLC dividimos uma palavra de 16 bits em quatro palavras menores de quatro bits. Essas palavras de quatro bits serão codificadas em Hamming estendido e os bits serão realocados de acordo com a tabela acima. Os CB’s são calculados da seguinte forma: CB1= C2 CB2= C1 CB3= C1

C3 C3 C2

C4 C4 C4

(1) (2) (3)

Como utilizamos Hamming estendido, as Pa’s são calculadas fazendo operação XOR com todos os elementos da linha. Pa1=C1 Pa2=C5 Pa3=C9 Pa4=C13

C2 C3 C4 CB1 CB2 CB3 C6 C7 C8 CB4 CB5 CB6 C10 C11 C12 CB7 CB8 CB9 C14 C15 C16 CB10 CB11 CB12

(3) (4) (5) (6)

Fazendo operações XOR com os elementos das colunas encontramos o valor das paridades das colunas. P 1 = C1 P 2 = C2 P 3 = C3 P 4 = C4 P5 = CB1 P6 = CB2 P7 = CB3

C5 C9 C13 C6 C10 C14 C7 C11 C15 C8 C12 C16 CB4 CB7 CB10 CB5 CB8 CB11 CB6 CB9 CB12

(7) (8) (9) (10) (11) (12) (13)

O sistema de verificação do CLC consiste em verificar cada linha e cada coluna a partir da geração de síndromes de paridade (SP) e síndrome dos check bits (SCB). Para isso,


devemos recalcular os CB’s da palavra codificada formando novos CB’s que chamamos de ‘CB’s. Em seguida, realizamos uma operação XOR com os CB’s que foram calculados no inicio do processo, dessa forma a relação da SCB é: SCB = CB ’CB

(14)

De forma similar, calculamos as SP’s: ’P

SP = P

(15)

A detecção de erros na palavra codificada dá-se quando as síndromes geradas em linhas e colunas têm valores diferentes de zero. Além dessas, uma síndrome é gerada para casos onde temos três erros na palavra codificada, essa é a síndrome da paridade da palavra (SPa), onde o cálculo dela segue-se com o mesmo principio das ultimas mostradas. SPa = Pa

’Pa

(16)

Supondo o caso em que a palavra “1000100001111111” é transmitida, ao codifica-la temos que seus check bits CB1CB12 serão iguais a “011011100111”, os bits de paridade P1P8 serão “10000111” e os bits de paridade da palavra Pa1Pa4 serão ”1101”. Tabela I com a palavra codificada e salva na memória.

1

0

0

0

0

1

1

1

1

0

0

0

0

1

1

1

0

1

1

1

1

0

0

0

1

1

1

1

1

1

1

1

1

0

0

0

0

1

1

1

É realizado o cálculo das síndromes de check bits e de paridade, de modo que o algoritmo verifique a linha e a coluna que possuem os erros. Calculando a SCB temos: (011011100111) (011011100111) = (000000000000) I Fazendo a SP temos: (01100111) = (11100000)

(1101)

(0101) = (1000)

III

A partir disso e em conjunto com os resultados do calculo das síndromes (I, II e III), o algoritmo do CLC conclui que na primeira linha, houve três erros nos três primeiros bits da primeira linha da palavra codificada. Em seguida algoritmo inverte os bits filtrados pelas síndromes e a palavra codificada é decodificada. A decodificação consiste em pegar os quatro primeiros bits das quatro linhas que foram codificadas e reagrupa-las para o formato original da palavra que foi transmitida inicialmente.

IV.

Experimentos com Injeção de Falhas

Para a realização dos testes e validação da técnica proposta neste artigo, utilizamos a ferramenta VCS da empresa Synopsis. Foi escrito um código em linguagem system verilog para a inserção das falhas numa matriz codificada fornecida pseudo-aleatóriamente pelo codificador. Essa matriz será repassada para duas matrizes auxiliares chamadas X e Y, por exemplo. A matriz X será decodificada sem a inserção de falhas, já a matriz Y irá sofrer modificações nos bits que a compõem, sendo enviada para o código escrito em system verilog. Escolhemos padrões de erros que simulam condições onde o erro pode saltar com fator de distância um. Na matriz Y um erro é inserido pseudo-aleatóriamente na palavra codificada, e em seguida são também selecionados pseudoaleatóriamente o padrão de erro e os bits adjacentes que sofrerão a inversão de valor.

Supondo que durante a leitura da palavra codificada salva na memória (Tabela I) os bits C1, C2 e C3 apresentam falhas, agora C1 é igual a 0, C2 a 1 e C3 a 1. Calculando ‘CB1-‘CB12 tem-se “011011100111”, calculando ‘P1-‘P8 tem-se ”01100110”. Usando o algoritmo de verificação do CLC podemos detectar as três falhas no processo e corrigilas.

(10000111)

houve modificação nas linhas. Para isso, calcula-se ‘Pa1‘Pa4 e temos “0101”. Fazendo a SPa temos:

II

O algoritmo conclui que há três erros em alguma linha. No entanto, a SCB nos mostra um resultado inconclusivo, pois aparentemente todas as linhas estão corretas. Dessa forma, o algoritmo recorre a SPa, para saber se realmente

Depois da injeção de falhas na matriz Y, ela será decodificada utilizando o código CLC proposto. Para o cálculo da taxa de correção, o VCS irá comparar os resultados da decodificação da matriz X e da decodificação da matriz Y. Esse procedimento foi repetido diversas vezes com palavras codificadas diferentes. Para o cálculo da taxa de detecção o decodificador do CLC calcula as síndromes e verifica a partir do resultado delas se o erro pode ser detectado. A detecção de falhas na matriz não quer dizer necessariamente que ela será corrigível 100%, mas em algumas situações sim, como em alguns casos com quatro e cinco erros que são detectáveis e não corrigíveis. A seguir, temos tabelas com os padrões de erro que foram utilizados nos testes envolvendo o CLC. Cada tabela tem os padrões de erro para dois, três, quatro e cinco erros, cada padrão é representado com uma cor diferente. Os padrões de dois e três erros tiveram eficácia máxima de correção. Os padrões utilizados foram:


Tabela II com os padrões de dois erros.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

Tabela III com os padrões de três erros.

0

1

2

3

4

5

6

7

V.

Análise da Capacidade de Detecção e Correção

Os códigos utilizados para a comparação das taxas de correção e detecção foram o Reed-Muller (2,5) e o Matrix. Ambos os códigos possuem uma palavra codificada de 32 bits. Após a inserção dos erros, de acordo com os padrões mostrados anteriormente, coletamos os resultados obtidos e formulamos gráficos de correção e de detecção que serão mostrados a seguir. Tabela VI Tabela da taxa de correção.

N° de erros 1

Eficácia ReedMuller (2,5) 100%

Eficácia Matrix 100%

Eficácia CLC 100%

2

100%

100%

100%

3

100%

79,31%

100%

4

88,30%

57,86%

61,32%

5

65,40%

35,02%

62,52%

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

Observamos na tabela VI que o código corrige 100% das falhas se ocorrerem até três erros, como dito anteriormente.

32

33

34

35

36

37

38

39

Tabela VII Tabela da taxa de detecção.

Tabela IV com os padrões de quatro erros.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

N° de Erros

Eficácia ReedMuller (2,5)

Eficácia Matrix

Eficácia CLC

1 2 3 4 5

100% 100% 100% 100% 93,74%

100% 100% 94,01% 80,71% 62,20%

100% 100% 100% 100% 100%

Observamos na tabela VII que o CLC dos três códigos comparados, é o que apresenta a maior taxa de detecção.

Tabela V com os padrões de cinco erros.

0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

No tópico a seguir mostraremos as taxas de correção e detecção do CLC em comparação com os códigos Matrix e Reed-Muller.

Figura 2. Gráfico relacionando a correção e a detecção do algoritmo com os códigos analisados.


A Figura 2 combina os resultados mostrados nas tabelas VI e VII. Podemos observar que o código CLC possui em todas as situações analisadas maiores taxa de correção e de detecção que o código Matrix. O CLC, assim como o código Reed-Muller (2,5), é um código corretor para três falhas, para quatro falhas o CLC corrige 26,98% menos que o código Reed-Muller (2,5), mas em compensação para cinco erros, a diferença é de apenas 2,88%. Nota-se também que as taxas de detecção do CLC e do Reed-Muller (2,5) são iguais até quatro erros, a partir do quinto a taxa do CLC continua 100% enquanto que o Reed-Muller decresce para 93.74%.

VI.

Comparação de desempenho entre Reed-Muller, Matrix e CLC

Após compararmos as taxas de correção e de detecção do CLC com o código Reed-Muller (2,5) e com o código Matrix, sintetizamos os decodificadores para uma Xilinx Spartan 3E FPGA. O software utilizado para a realização da síntese de cada código foi o Xilinx ISE 14.5. A Tabela a seguir mostra os resultados obtidos da síntese dos decodificadores:

utiliza-se do código de Hamming e de Paridade para formar seu algoritmo. Os resultados dos testes de correção e detecção mostraram que o código CLC tem melhores índices que o código Matrix e, como o código Reed-Muller corrige 100% até três falhas. Além disso, a cobertura de detecção de erro do CLC mostrou-se também superior ao Reed-Muller na ocorrência de cinco falhas. Os resultados da síntese dos decodificadores dos códigos mostrou que há uma grande discrepância entre os códigos CLC e Reed-Muller (2,5), tendo o primeiro obtido melhor resultado de área e temporização que o segundo. Isso nos permite propor que o código CLC pode substituir o código Reed-Muller (2,5), uma vez que ambos corrigem três falhas na memória, mas o custo de área e tempo de execução do código CLC mostrou-se bem mais satisfatório que o custo do código Reed-Muller (2,5). Apesar de sua palavra codificada ser de 40 bits, CLC pode ser considerado uma boa alternativa para a solução de MEU’s com um custo de computação menor que outros códigos mais complexos.

VIII. Tabela VIII Comparando dados de síntese dos decodificadores Component Utilization/Time No. de Slices No. de Slice FF 4 entradas LUTs Números de IOs Clock da Simulação Tempo máximo para saída de dados Tempo total de CPU para realização da sintetização (Xst)

ReedMuller (2,5) code 791 51 1469 51 28,363ns

Matrix code

CLC code

115 23 221 10 13,099ns

309 41 603 19 26,230ns

5,065ns

2,881ns

4,571ns

115,72secs

8,13 secs

23,42 secs

Referências

[1]Costas A. Argyrides, Pedro Reviriego, Dhiraj K. Pradhan, Juan Antonio Maestro, “Matrix-Based Codes for Adjacent Error Correction,” IEEE Trans. Nucl. Sci., vol. 57, no. 4, pp. 01, Aug. 2010. [2]P. Ferreyra, C. Marques, R. Ferreyra, and J. Gaspar, “Failure map functions and accelerated mean time to failure tests: New approaches for improving the reliability estimation in systems exposed to single event upsets,” IEEE Trans. Nucl. Sci., vol. 52, no. 1, pp. 494–500, Feb. 2005. [3]P. Hazucha and C. Svensson, “Impact of CMOS technology scaling on the atmospheric neutron soft error rate,” IEEE Trans. Nucl. Sci., vol. 47, no. 6, pp. 2586–2594, Dec. 2000. [4]S. Satoh, Y. Tosaka, and S. Wender, “Geometric effect of multiple-bit soft errors induced by cosmic ray neutrons on DRAM’s,” IEEE Electron Device Lett., vol. 21, no. 6, pp. 310–312, Jun. 2000. [5]D. Radaelli, H. Puchner, S. Wong, and S. Daniel, “Investigation of multibit upsets in a 150 nm technology SRAM device,” IEEE Trans. Nucl. Sci., vol. 52, no. 6, pp. 2433–2437, Dec. 2005.

Os resultados obtidos pela ferramenta Xilinx ISE 14.5 mostram que o código Matrix tem os menores índices de área e tempo. O código CLC, no geral, possui dados de síntese maiores que o Matrix, no entanto bem menores que o Reed-Muller com relação à No de slices, 4 entradas LUT, Número de IOs e Tempo total de CPU para realização da sintetização (Xst). Isso mostra que o código CLC terá custo de área e tempo de resposta menor que o código Reed-Muller. Essa diferença é de grande importância para os sistemas embarcados atuais que procuram maior eficiência e confiabilidade.

VII.

Conclusão

Esse artigo apresentou o CLC, um novo código corretor de erros que tem sua utilização focada para sistemas embarcados que estão sujeitos a MEU’s. Esse código

[6]P. Reviriego, J. A. Maestro, and C. Cervantes, “Reliability analysis of memories suffering multiple bit upsets,” IEEE Trans. Device Mater. Rel., vol. 7, no. 4, pp. 592–601, Dec. 2007. [7]R. Hentschke, F. Marques, F. Lima, L. Carro, A. Susin, and R. Reis, “Analyzing area and performance penalty of protecting different digital modules with hamming code and triple modular redundancy,” in Proc. 15th Symp. on Integrated Circuits and Systems Design, 2002, pp. 95–100. [8]J. Karlsson, P. Liden, P. Dahlgren, R. Johansson, and U. Gunneflo, “Using heavy-ion radiation to validate fault-handling mechanisms,” IEEE Micro., vol. 14, no. 1, pp. 8–11, 1994, 13–23. [9]Costas Argyrides, Hamid R. Zarandi, Dhiraj K. Pradhan,”Matrix Codes: Multiple Bit Upsets Tolerant Method for SRAM Memories” 22nd IEEE International Symposium on Defect and Fault Tolerance in VLSI Systems [10]Zhen Wang, Mark Karpovsky, Fellow, IEEE, and Ajay Joshi, Member, IEEE Nonlinear Multi-Error Correction Codes for Reliable MLC nand Flash Memories” IEEE Transactions on Very Large Scale Integratrion (VLSI) systems, vol. 20, no. 7, july 2012. [11]Alfonso Sánchez-Macián, Member, IEEE, Pedro Reviriego, Member, IEEE, and Juan Antonio Maestro, Member, IEEE “Hamming SEC-DAED and Extended Hamming SEC-DED-TAED codes through selective shortening and bit placement”. [12] Mojtaba Valinataj and Saeed Safari “Fault Tolerant Arithmetic Operations with Multiple Error Detection and Correction” 22nd IEEE


International Symposium on Defect and Fault Tolerance in VLSI Systems, 2007 [13]Jatinder Singh and Jaget Singh “A Comparative Study of Error Detection and Correction Coding Techniques” 2012 Second International Conference on Advanced Computing & Communication Technologies [14]Costas Argyrides, Member, IEEE, Dhiraj K. Pradhan, Fellow, IEEE, and Taskin Kocak “Matrix Codes for Reliable and Cost Efficient Memory Chips”, IEEE Transaction Very Large Scale Integration (VLSI) Systems, vol. 19, no. 3, March 2011. [15]International Technology http://public.itrs.net/ , 2002.

Road

map

for

Semiconductors,

[16]JJ.Rose S.D. Brown, R.J. Francis – “Field Programmable Gate Arrays”, Kluwer Academic Publishers, 1992 [17]Costas Argyrides, Hamid R. Zarandi1, Dhiraj K. Pradhan” Multiple Upsets Tolerance in SRAM Memory”. [18] Alexandre Augusto da Penha Coelho, Helano de Souza Castro, Felipe Gaspar Alan e Silva, Victor Dall Mass Fernandes, Maria Luciene Lira Monteiro, Filipe Maciel Lins e Guilherme Bastos Cavalcante “Algoritmo de Detecção e Correção de Falhas em Memórias S-RAM para Sistemas Embarcados CLC(Column-Line-Code)”Congresso InfoBrasil 2013.


Código Reed-Muller para Aplicações Tolerantes a Radiação em FPGA Baseada em SRAM Maria Luciene Lira Monteiro, Filipe Maciel Lins, Alexandre Augusto da Penha Coelho, Helano de Souza Castro. Laboratório de Engenharia de Sistemas de Computação Departamento de Engenharia de Teleinformática Universidade Federal do Ceará

AbstractMemories are one of the most elements used in electronic systems, and their reliability when exposed to single events upsets may be damaged. In this article we have implemented, using SRAMBased FPGA, two types of Reed-Muller codes with two different forms for the generator matrix. One method was based in a table stored statically in FPGA and another method was based in an automatic table generation process.

I.

Introdução

Desde a década de 50 a evolução da indústria de semicondutores vem aumentando significativamente. Os circuitos integrados se tornaram cada vez mais densos e complexos [4]. A redução das dimensões dos transistores proporcionou aos dispositivos eletrônicos operarem em frequências cada vez mais elevadas, no entanto, os circuitos tornaram-se mais suscetíveis a falhas. Erros induzidos por radiação é uma grande preocupação para circuitos digitais, especialmente em células de memória. A radiação é mais intensa conforme a altitude em relação ao nível do mar, tornando o problema mais grave quando lidamos em ambientes espaciais [5]. Neste tipo de espaço lidamos com uma grande preocupação o Single Event Effect (SEE), podendo ser tanto transiente quanto destrutivo, são tipos de erros que podem ocasionar perda de informação e falhas nos sistemas. A principal consequência deste tipo de efeito é o SEU (Single Event Upset) [9] [10]. Devido à diminuição e aumento da velocidade dos transistores, se uma partícula se choca com um bloco de lógica sequencial, pode induzir um pulso de corrente, que ao se propagar por todo o sistema pode ser interpretado como um sinal válido ocorrendo mudança do valor armazenado na célula de

memória. Para tanto os Códigos Corretores de Erros auxiliam nestes aspectos [12]. O Reed-Muller é uma família de código corretor de erro linear utilizado nas comunicações. Sua forma convencional trata de decodificar uma palavra baseando-se em uma matriz geradora binária formulada segundo sua ordem polinomial. Desta forma, utiliza operações booleanas AND e XOR acessando a matriz e assim, obter a palavra original. Neste artigo apresentaremos um estudo do Reed-Muller trabalhando de duas formas, um com sua abordagem clássica em que as matrizes geradoras são definidas e, portanto, já armazenadas na memória e outra baseada na concepção destas em tempo de execução. Será apresentada a eficiência entre dois tipos de Reed-Muller caso ocorra alguma falha nas matrizes pré-definidas e as geradas em tempo de execução. Para simulação e síntese foi utilizado o Xilinx ISE 14.1. Também foi usado o ambiente de simulação do Modelsim. Os códigos foram embarcados em FPGA Virtex®-4 XC4VFX12. II.

Estudo do Reed-Muller

Os Códigos Reed-Muller formam uma classe de códigos de múltipla correção de erros. É obtido avaliando todos os polinômios de uma dada função F, -de grau no máximo r, portanto, sendo m e r inteiros com há um binário de enésima ordem, denotado por ⁄ . RM (r,m), sendo capaz de corrigir Deste modo, podem existir códigos RM de primeira ordem (1,4) ou segunda ordem (2,5). Assim, considere os parâmetros:


Tamanho da palavra:

(I)

Dimensão: (

)

( )

( )

Distância mínima:

um

,

(VIII)

vetor

Por fim, teremos o check-sum denotado por B:

+S

-

Que consiste em de termos de zero termos um. Desta forma, a matriz geradora é denotada por: ) (IV)

Observe que para chegar a combinação por exemplo, basta seguir a lógica booleana operação AND) para fazer o produto dos vetores. Seja por(

uma

+

(III)

Para teremos seguindo a lógica a seguir:

(

*

( ) (II)

palavra denotada ) sua codeword será:

(V)

Podemos generalizar a expressão para formar os check-sum de RM. Para com , segue:

III.

(IX)

Técnica Clássica

Na abordagem clássica de elaboração da matriz do Reed-Muller, o bloco matricial de 0 e 1 é armazenado na própria memória permitindo, assim, que a codificação e decodificação sejam realizadas. Desta forma, o algoritmo faz uma consulta a tabela que está estaticamente armazenada na FPGA, não havendo a necessidade de ser criada a cada nova execução. No entanto, sabe-se que memórias SRAM são sensíveis a falhas, e uma vez que a probabilidade de ocorrer erros em blocos estáticos torna-se bem maior do que em lógicas realizadas em tempo de execução, na presença de algum evento, a matriz terá seus bits invertidos determinando a perda total do sistema, já que o Reed-Muller é incitado a trabalhar através de suas matrizes. Para um Reed-Muller (1,4) tem-se a seguinte matriz geradora. 0000000011111111

*

*

+

0000111100001111

+ (VI)

Para

0011001100110011 0101010101010101

Em que menores que

são os inteiros não negativos O conjunto de expoentes e um subconjunto de Deixe E ser o conjunto de , tem-se: *

+*

*

+(

Seguindo a linha formamos

+ ) :

A figura a seguir exemplifica como tal matriz será armazenada na SRAM de uma FPGA. A matriz está inserida estaticamente na memória. Nota-se que ao ocorrer um erro, a matriz permanecerá armazenada na memória de forma errada ocasionando perda total do sistema.


D E C O D E

formula da dimensão (vide seção II, equação III). O fluxograma a seguir mostra resumidamente como a matriz gerada em tempo de execução trabalha para o decodificador:

Figura 1. Decodificador acessando a tabela estática da memória.

Na próxima seção, abordaremos uma nova proposta para gerar tais matrizes em tempo de execução para os códigos Reed-Muller de ordem um (1,4) e ordem dois (2,5).

IV.

Técnica proposta

O código para geração de matriz procura ser realizado em tempo de execução dentro do próprio bloco de memória percorrendo o algoritmo a cada nova palavra inserida, buscando, deste modo, diminuir a possibilidade de perda total sistema. Observa-se que o algoritmo para decodificação é o mesmo para ambos os códigos diferindo apenas no método de inserção da matriz. A figura a seguir mostra como. D E C O D E Figura 2. Decodificador acessando a tabela gerada em tempo de execução.

O algoritmo em tempo de execução inicialmente define a ordem do Reed-Muller e calcula o tamanho da palavra usando a fórmula I da seção da II que definirá o número de colunas da matriz. A partir do cálculo anterior completam-se as linhas linearmente independentes da matriz preenchendo-as coluna por coluna, utilizando-as para preencher o valor binário do tamanho da palavra calculada. Incrementa-se o valor de 1 a cada mudança de coluna. Se a ordem do Reed-Muller for maior que 1 a matriz geradora terá mais linhas que o número de linhas independentes e estas são preenchidas através de uma operação AND bit a bit entre os pares das linhas geradas anteriormente. O número de linhas que contem a matriz geradora é igual ao valor calculado pela

Figura 3. Fluxograma mostrando o algoritmo da matriz em tempo de execução.

V.

Análise Nas tabelas a seguir visualizam-se estatísticas utilizadas em FPGA. Os recursos mencionados mostram dados de flip-flop, com números de IOs, IOBs, LUTS, bem como os temporizadores. O número de LUTs (Look-Up Table) impacta diretamente os requisitos de memória, buscando fornecer uma porcentagem de área. São utilizados para implementar geradores de função. Quatro entradas independentes são fornecidas para cada um dos geradores de função, podendo implementar qualquer função booleana. IOBs são buffer’s de entrada / saída. Assim, são os números de pinos utilizados no dispositivo. Os temporizadores como os tempos mínimo e máximo de chegada antes e após o clock, máximo caminho de delay do clock proporcionam uma concepção a cerca de custo computacional e roteamento da ferramenta.

As duas primeiras tabelas que seguem são referentes ao Reed-Muller de ordem um. Número de LUTs

48

Número de IOs

23

Número de IOBs

5

Mínimo tempo de chegada antes do clock

3.433ns


Clock de Simulação

20 ns

Simulation clock

20 ns

Máximo combinacional path delay

3.729 ns

Máximo combinacional path delay

3.729 ns

Máximo delay de saída após o clock

6.142 ns

Máximo delay de saída após o clock

6.416 ns

Tabela 1. Reed-Muller (1,4) para matriz estática Número de LUTs

48

Número de IOs

23

Número de IOBs

5

Mínimo tempo de chegada antes do clock

3.433ns

Clock de Simulação

20 ns

Máximo combinacional path delay

3.729 ns

Máximo delay de saída após o clock

6.142 ns

Tabela 2. Reed-Muller (1,4) para matriz em tempo de execução.

Como observado para o Reed-Muller (1,4) tanto o algoritmo para gerar matriz em tempo de execução quanto para o bloco matricial prédefinido tem-se os mesmos resultados. Vemos que para análises abordando custo computacional os dois métodos possuem os mesmos resultados. Porém, para a idéia abordada no artigo percebe-se que o algoritmo de geração de matriz em tempo de execução torna-se mais viável devido a eventuais upsets que possam ocorrer. As tabelas que seguem estudam o ReedMuller de segunda ordem.

Número de LUTs

962

Número de IOs

50

Número de IOBs

16

Mínimo tempo de chegada antes do clock

32.023ns

Clock de Simulação

20 ns

Máximo combinacional path delay

3.729 ns

Máximo delay de saída após o clock

6.416 ns

Tabela 3. Reed-Muller (2,5) para matriz estática.

Número de LUTs

962

Número de IOs

50

Número de IOBs

16

Mínimo tempo de chegada antes do clock

31.248 ns

Tabela 4. Reed-Muller (2,5) para matriz em tempo de execução.

Da análise para o (2,5) obtiveram-se os mesmos resultados para síntese em FPGA, exceto, para o tempo mínimo de chegada. Vemos que o algoritmo para geração de matriz em tempo de execução tem um custo computacional melhor com relação a este parâmetro.

VI.

Conclusão

O artigo apresentou uma diferente concepção ao originar a matriz geradora dos códigos Reed-Muller em tempo de execução, propiciando a diminuição de upsets. O resultado apresentado da associação entre a matriz estática e gerada em tempo de execuação, nos mostra que para ambos os decodificadores (1,4) e (2,5) foram obtidos os mesmos resultados, diferindo apenas o tempo mínimo de chegada entre os Reed-Muller de segunda ordem. Para realizar a decodificação de uma palavra, o Reed-Muller sempre irá consultar a matriz geradora. Na presença de eventos que alterem o valor de um bit na tabela, ocorrerão 100% de erros nos dados atuais e seguintes, havendo perda do sistema. Observando-se o código com matriz em tempo de execução, como a mesma será originada a cada nova iteração, o circuito para gerá-la não deixará de funcionar como estudado na forma clássica, proporcionando, assim, uma maior confiabilidade. Concluímos desta maneira, que para uma melhor proteção da memória a forma para gerar matriz em tempo de execução é mais eficiente que a inserção do bloco matricial na própria memória.

VII.

Referências

[1]M.Y. Rhee - “Error Correcting Coding Theory”, McGraw-Hill, Singapore, 1989. [2] S. Lin, and D.J. Costello Jr. - “Error Control Coding”, Prentice-Hall, New Jersey, 1983. [3]Panda, A.K. ;Sarik, S.; Awasthi, A. “ FPGA Implementation of Encoder for (15, k) Binary BCH Code


Using VHDL and Performance Comparison for Multiple Error Correction Control”, 2012. [4]Entrena, L.; Lindoso, A.; Millan, E. S.; Pagliarini, S.; Almeida, F.; Kastensmidt, F. Constrained “Placement Methodology for Reducing SER Under Single-EventInduced Charge Sharing Effects. IEEE Transactions on Nuclear Science”, Volume: PP , Issue: 99. DOI 10.1109/TNS.2012.2191796, 2012. [5]Azambuja, J., Altieri, M..Pagliarini, S., Kastensmidt, F., Becker, J. Hubner, M., Gilles, F., Velazco, R.A “Fault Tolerant Approach to Detect Transient Faults in Microprocessors Based on a Non-Intrusive Reconfigurable Hardware”.IEEE Transactions on Nuclear Science, 2012. [6]Xiang Wang ; Ying Lu ; Yi Zhang ; Zexi Zhao ; Tongsheng Xia ; Jishun Cui ; Limin Xiao, “Probabilistic Modeling during Power Estimation for Mixed Polarity Reed-Muller Logic Circuits”, 2013 IEEE. [7]Hauck, P. ; Huber, M. ; Bertram, J. ; Brauchle, D. ; Ziesche, S. ,“Efficient Majority-Logic Decoding of ShortLength Reed-MullerCodes at Information Positions ”, 2013 IEEE. [8]Costas A. Argyrides, Pedro Reviriego, Dhiraj K. Pradhan, Juan Antonio Maestro, “Matrix-Based Codes for Adjacent Error Correction,” IEEE Trans. Nucl. Sci., vol. 57, no. 4, pp. 01, Aug. 2010. [9]P. Ferreyra, C. Marques, R. Ferreyra, and J. Gaspar, “Failure map functions and accelerated mean time to failure tests: New approaches for improving the reliability estimation in systems exposed to single event upsets,” IEEE Trans. Nucl. Sci., vol. 52, no. 1, pp. 494–500, Feb. 2005.

[10]Costas Argyrides, Hamid R. Zarandi, Dhiraj K. Pradhan,”Matrix Codes: Multiple Bit Upsets Tolerant Method for SRAM Memories” 22nd IEEE International Symposium on Defect and Fault Tolerance in VLSI System. [11]Alfonso Sánchez-Macián, Member, IEEE, Pedro Reviriego, Member, IEEE, and Juan Antonio Maestro, Member, IEEE “Hamming SEC-DAED and Extended Hamming SEC-DED-TAED codes through selective shortening and bit placement”. [12]MojtabaValinataj and Saeed Safari “Fault Tolerant Arithmetic Operations with Multiple Error Detection and Correction” 22nd IEEE International Symposium on Defect and Fault Tolerance in VLSI Systems, 2007. [13]Jatinder Singh and Jaget Singh “A Comparative Study of Error Detection and Correction Coding Techniques” 2012 Second International Conference on Advanced Computing & Communication Technologies [14]Costas Argyrides, Member, IEEE, Dhiraj K. Pradhan, Fellow, IEEE, and TaskinKocak “Matrix Codes for Reliable and Cost Efficient Memory Chips”,IEEE TransactionVery Large Scale Integration (VLSI) Systems, vol. 19, no. 3, March 2011.


O Uso da Tecnologia VPN para Videoconferência Carlos Aurélio O. Gonçalves Endereço: Rua Rodrigues Junior, 415 – Centro – Fortaleza – Ceará –CEP 60060-150 E-mail: aurelio@ifce.edu.br

Resumo—Este artigo apresenta um modelo de ferramenta que possa substituir as atuais ligações discadas de videoconferência pelo acesso dedicado. Em tal modalidade, a nuvem da Internet e suas ferramentas básicas podem ser utilizadas. No entanto propomos o uso de novas tecnologias tais como rede virtual privada (VPN), engenharia de tráfego, tunelamento, algoritmos de compressão e descompressão entre outros que venham a contribuir para a eficácia da videoconferência. Neste trabalho, damos atenção especial a aplicação de videoconferência em Educação a Distância. Palavras-Chave - Videoconferência, Tunelamento, VPN.

Os parâmetros estabelecidos neste estudo foram: • A necessidade de controlar custos de acessos para videoconferência; • Disponibilizar infra-estrutura IP de baixo custo; • Usar novas tecnologias emergentes que substituam o acesso discado; • Aumentar a segurança deste tipo de conexão; • Democratizar o uso da videoconferência para a Educação a Distância. • Disseminar novas tendências de conexões. II.

PROBLEMÁTICA

I. INTRODUÇÃO Treinamentos, reuniões, cursos e debates, apesar de suas importâncias, são formas dispendiosas de habilitar profissionais. Existem muitas inconveniências associadas, uma vez que, quando são propostos de forma a atingir profissional disperso em diferentes regiões, acarretam em deslocamentos, hospedagens, custos de diárias, etc. Sem contar com as duras horas perdidas em táxis, aeroportos e aviões para uma única reunião de poucas horas de duração. Para uma empresa, ainda adiciona-se o fato do impacto no fim do mês com os custos tanto de seus funcionários, quanto às reuniões freqüentes dos administradores, muitas vezes, uma sucessão de pontes-aéreas entre matriz e filiais. O fator custo já atrai a atenção das empresas para o uso da videoconferência. Este projeto apresenta um modelo de ferramenta que possa substituir as atuais ligações discadas de videoconferência pelo acesso dedicado. Em tal modalidade, a nuvem da Internet e suas ferramentas básicas podem ser utilizadas. No entanto propomos o uso de novas tecnologias tais como rede virtual privada (VPN), engenharia de tráfego, tunelamento, algoritmos de compressão e descompressão entre outros que venham a contribuir para a eficácia da videoconferência. Neste trabalho, damos atenção especial à aplicação de videoconferência em Educação a Distância.[1] Sabe-se que muitas instituições educacionais, devidos seus escassos recursos, estão impedidas de utilizar forma plena a videoconferência como recurso para educação a distancia devido os altos custos impostos pelo oligopólio dos acessos discados. A relevância deste projeto reside na tentativa de se buscar uma solução para a substituição do acesso discado no uso da videoconferência, utilizando novas tecnologias que possam, de forma combinada, substituir com qualidade de serviço (QoS) este tipo de acesso, e implementá-lo de forma coerente visando democratizar a transmissão da videoconferência com baixo custo de acesso.

A. Caracterização do problema A necessidade de fornecer acessos menos dispendiosos, aliados ao número crescente de potenciais usuários no mundo dos negócios, desponta para uma nova necessidade de prover mais uma forma de conectividade utilizando a nuvem da Internet, como forma de opção de prover qualidade de serviço em videoconferência. Numa infra-estrutura de IP de baixo custo, já que se dispõe da rede publica (Internet), os usuários podem encontrar soluções eficazes e boa confiabilidade nas transmissões de dados, voz e vídeo. Como podemos solucionar os altos custos dos acessos discados que inviabilizam as teleconferências de um modo geral? Substituindo estes acessos pelas novas tecnologias usadas na web, as quais podem diminuir drasticamente os custos e democratizar estas operações de trafego multimídia. As tecnologias de Redes Virtuais Privadas - VPN’s, objeto desta pesquisa, substitui o acesso discado pelo dedicado utilizando a própria infra-estrutura da Internet com seus recursos físicos e remotos existentes na rede.

III. OBJETIVOS Após contextualizado o problema, iniciaremos a definição dos insumos e procedimentos necessários para atingirmos o objetivo principal deste trabalho. Inicialmente será necessário definir os elementos necessários a conectividade de ambientes onde a videoconferência possa se realizar. Em seguida, mencionaremos quais as tecnologias a serem utilizadas na especificação da arquitetura. Finalizando, mostraremos as trocas de informações existentes entre os módulos da arquitetura do serviço e videoconferência, mencionando as aplicações.


A. Elementos de conectividade Para que se realize uma videoconferência, a tecnologia básica de conectividade usual é o das conexões telefônicas. O acesso discado se dá através do uso da mesma tecnologia em ambos os lados, emissor e receptor. Estamos preocupados com a diminuição dos custos. Fica obvio que a transmissão via ISDN tem custo alto devido a sofisticação e conseqüente tarifas aplicadas pelas operadoras. A idéia aqui é a procura por uma opção de conectividade que use a rede mundial (Internet), e de forma segura. Tudo isso sem estar vinculado as condições de restrições dadas pelos detentores do oligopólio da conectividade local e mundial, de forma a dar mais uma opção de conexão ao usuário dos serviços de videoconferência. B. Proposta de um novo método de transmissão multimídia A multimídia é um sistema capaz de apresentar informações em forma de textos, som, e audiovisual. Ela coordenada gráficos, fotos, voz de forma a integrá-los de forma sincronizada. Um vídeo requer grande largura de banda para transmissão, bem como um grande espaço de armazenamento. Para minimizar este problema forma desenvolvidos algoritmos de compressão que viabilizam a transmissão . Um vídeo não comprimido requer grande espaço de armazenamento e grande largura de banda para transmissão. Armazenar duas horas de vídeo NTSC digitalizado e não comprimido, requer 100 GB de espaço de disco. Transmitir continuamente quadros de vídeo com dimensões de 640 x 480, profundidade de cor de 24 bits, sem compressão, a 30 quadros por segundo, requer uma largura de banda de aproximadamente 200 Mb/s. Podemos notar, com os exemplos citados, que o vídeo possui grande quantidade de dados, dificultando, portanto, o seu armazenamento e a sua transmissão. Para minimizar este problema, foram criados algoritmos especiais que tiram vantagens das características do vídeo para conseguirem altas taxas de compressão. O padrão de compressão de áudio e vídeo MPEG é um dos mais utilizados e difundidos internacionalmente, além de possuir alta aceitabilidade pelos principais aplicativos. Podemos verificar o uso do MPEG em empresas comerciais, nas instituições de ensino e pesquisa e na Internet. Os padrões MPEG e seus algoritmos foram desenvolvidos por uma equipe internacional de especialistas. Seus arquivos são pequenos e, de uma forma geral, de boa qualidade. Por ser um padrão internacional e aberto, é usado na maioria das máquinas. Além disto, existe uma grande quantidade de arquivos MPEG disponíveis na Internet. Vários equipamentos de hardware, como placas gráficas e de vídeo de diversos fabricantes e diversos sistemas operacionais como o Windows 95, Windows NT e Macintosh OS suportam o MPEG. O padrão MPEG-1, por exemplo, funciona em 90% das máquinas. O MPEG-2, padrão escolhido para o DVD (digital versatile disk), apesar de só rodar atualmente em 5% das máquinas, está com uma expectativa de mudança desta proporção para os próximos 2 anos, quando o DVD tornar-se amplamente utilizado.

Os padrões MPEG também possuem limitações. Em algumas situações onde o equipamento não é suficientemente rápido, é percebido problema no sincronismo entre o áudio e o vídeo. Além disto, a qualidade do vídeo depende do sistema em questão, ou seja, quanto mais antiga for a máquina, pior ficará a apresentação do vídeo MPEG. Finalmente, quando utilizamos as técnicas de codificação com perdas, podemos perceber que a perda de informações relativas a alta freqüência provocam um borrado nas bordas dos objetos presentes na imagem. Isto acontece devido a filtragem das altas freqüências no espaço da transformada discreta do Co-seno. Muitos vêem o MPEG como o formato mais popular no futuro, não apenas para arquivos de vídeo para computadores, mas também para o chamado home entertainment. Nesta visão futurista, o DVD substituirá o VHS e a TV Digital substituirá a TV analógica. Os formatos deverão caminhar juntos, como já ocorre com o Quicktime, que utiliza o padrão MPEG-4. E as grandes companhias como Sun, Microsoft, IBM e Apple desenvolverão juntas os futuros formatos MPEG.[2] C. Aplicação da Videoconferência A necessidade de formação usando novas tecnologias e métodos é um dos objetivos secundários em nossa proposta. Existem muitas situações em que a formação visando a melhoria do individuo e do grupo são consideradas de alta prioridade. Estas incluem aplacações em que o especialista ou professor se encontra distante do grupo. Há ainda aplicações em que grupos devem interagir e cooperem para realizar serviços de forma colaborativa. A videoconferência pode ser utilizada nestas situações e em muitas em que a presença do indivíduo ou grupo não pode ser viabilizada. A videoconferência tem uma característica própria de mediar de forma uniforme as informações para todos os grupos. Isso é útil em treinamentos [3]. IV.

REDE VIRTUAL PRIVADA

Redes Virtuais Privadas é uma tecnologia muito usada em projetos comerciais, para criar redes corporativas, assim como também é pesquisada em universidades. São muitas as definições dadas à VPN. Pode-se definir uma VPN como uma rede privada simulada, ou seja, os links dedicados existentes em uma rede privada normal são simulados. O acesso e a troca de dados numa VPN só é permitido à pessoas que façam parte de uma mesma comunidade de interesse. Em redes VPN existe o conceito de túnel. Quem faz o papel do link dedicado é o túnel, o qual usa a infra-estrutura de uma rede pública já existente, como a Internet, por exemplo. Os pacotes são transmitidos através de uma técnica denominada tunelamento. Isso garante prioridade para determinados túneis, que por exemplo, contenham informações vitais para a empresa. Assim, os tráfegos de várias fontes viajam via diferentes túneis sobre a mesma infra-estrutura, permitindo que diferentes protocolos de rede se comuniquem através de uma infraestrutura incompatível. Também possibilita que o tráfego


de várias fontes crie rotas distintas e proveja qualidade de serviço. Existem vários tipos de implementação de VPN's. Cada uma tem suas especificações próprias, assim como características que devem ter uma atenção especial na hora de implementar. Entre os tipos de VPN, destacam-se três principais: Intranet VPN, Extranet VPN e Acesso Remoto VPN. A idéia de utilizar uma rede pública como a Internet em vez de linhas privadas para implementar redes corporativas é a grande vantagem das VPNs para a diminuição dos custos operacionais para as transmissões de dados. A segurança é a primeira e mais importante função da VPN. Uma vez que dados privados serão transmitidos pela Internet, que é um meio de transmissão inseguro, eles devem ser protegidos de forma a não permitir que sejam modificados ou interceptados.[4] As VPNs implementam túneis de criptografia entre pontos autorizados, criados através da Internet ou outras redes públicas e/ou privadas para transferência de informações, de modo seguro, entre redes corporativas ou usuários remotos. Outro serviço oferecido pelas VPNs é a conexão entre corporações (Extranets) através da Internet, além de possibilitar conexões dial-up criptografadas que podem ser muito úteis para usuários móveis ou remotos, bem como Instituições distantes de um grande Centro Educacional, que estejam usando esta tecnologia para videoconferência. Uma das grandes vantagens decorrentes do uso das VPNs é a redução de custos com comunicações corporativas, pois elimina a necessidade de links dedicados de longa distância que podem ser substituídos pela Internet. V. ELEMENTOS ARQUITURAIS DAS VPN Abaixo, são apresentados alguns elementos importantes de uma rede VPN. O acesso remoto a redes corporativas através da Internet pode ser viabilizado com a VPN através da ligação local a algum provedor de acesso (Internet Service Provider - ISP). A estação remota disca para o provedor de acesso, conectando-se à Internet e o software de VPN cria uma rede virtual privada entre o usuário remoto e o servidor. Por exemplo, pacotes de protocolo IPX podem ser encapsulados e transportados dentro de pacotes TCP/IP.[5] O protocolo de tunelamento encapsula o pacote com um cabeçalho adicional que contém informações de roteamento que permitem a travessia dos pacotes ao longo da rede intermediária. Os pacotes encapsulados são roteados entre as extremidades do túnel na rede intermediária. O túnel é a denominação do caminho lógico percorrido pelo pacote ao longo da rede intermediária Após alcançar o seu destino na rede intermediária, o pacote é desencapsulado e encaminhado ao seu destino final. A rede intermediária por onde o pacote trafegará pode ser qualquer rede pública ou privada. Uma alternativa segura para transmissão de dados é o recurso de autenticação e criptografia com níveis variados de

segurança, possibilitando eliminar os links dedicados de longa distância, de alto custo, na conexão de WANs. Nesta transmissão tunelada, garante-se a qualidade de serviço (QoS). VI. FUNCIONAMENTO Para exemplificar uma aplicação de VPN, descreveremos um ambiente de videoconferência, utilizando a ilustração abaixo. Propomos em nosso projeto seguir as seguintes etapas, que correspondem a uma seqüência lógica de tecnologias acoplada em uma só direção de transmissão para fins didáticos. Nesta seqüência, podem ser visualizadas claramente nas etapas:

Figura 1: Funcionamento do Ambiente de Videoconferência com VPN

1º) A sala da videoconferência que será a transmissora faz o chek-up do hardware local, verificando se os equipamentos e o link estão funcionando normalmente; 2º) Será testado para o segundo plano emergencial os acessos via ISDN e IP; 3º) A sala 1 se conecta e abre uma VPN coma a sala 2, usando o equipamento (hardware) chamado VSU, onde vai ser criado um túnel para transmissão dos pacotes de áudio e vídeo, através de um túnel; 4º) Tanto a WAN da sala 1 ou a da 2, terão que ter os equipamentos VSU compatíveis; 5º) A sala 2 fecha o circuito com a sala transmissora, e fica recebendo os pacotes já comprimidos (protocolo mpeg) pelo túnel criado. Nesta etapa, pode-se usar protocolos MPLS para ‘etiquetar’ pacotes, facilitando a definição do caminho dentro da nuvem (Internet), por onde passarão os pacotes da transmissão da videoconferência. Com isso, define-se o túnel; 6º) Haverá uma confirmação de fechamento do circuito, pelo lado receptor, isto é, após o túnel formado e as rotas traçadas da sala 2; 7º) O software de monitoramento que acompanha a VSU, faz o gerenciamento da transmissão, dando o feed-back ao pessoal do suporte que estão nas salas de videoconferência; 8º) Os acessos já usados para videoconferência, no caso ISDN ou TCP/IP, ficam no segundo plano para situações emergenciais; 9º) Haverá armazenamento de dados das conexões para futuras correções e aperfeiçoamento das transmissões; 10º) Encerradas as videoconferências, os circuitos são desfeitos. Antes, as rotas serão identificadas e identificadas e


colocadas em planilhas ou gráficos, afim de que sejam posteriormente utilizadas, em uma relação de melhor desempenho e menor tempo. VII. CONTRIBUIÇÕES Com os estudos realizados, contribuímos com alguns aspectos de especificação de ambientes para videoconferência em EAD. Podemos destacar os seguintes: • Democratizar o uso de videoconferência para uso pedagógicos em EAD; • Empregar este trabalho como um ponto para o desenvolvimento de novas tecnologias emergentes; • Permitir controle de custos e segurança nas comunicações via web; • Orientar estimativa e controle de custos com ou sem VPN; • Minimizar os custos de acessos a web; • Estudar novas alternativas de conectividade: conferências ponto-a-ponto; • Propor infra-estrutura segura para videoconferência.

daqueles relacionados a segurança, custos, qualidade de serviço e facilidade de uso que variam de acordo com o negócio de cada organização. O uso de Redes Privadas Virtuais representa uma alternativa interessante na racionalização dos custos de redes corporativas oferecendo "confidencialidade" e integridade no transporte de informações através de redes públicas. É uma tecnologia de conexão segura e de baixo custo para acessos de videoconferência, usando os recursos já existentes na Web.[6]. Estendendo-se em relação as aplicações, a VPN pode ser utilizada para dar suporte a Educação à Distância (EaD) quando esta tiver requisitos de qualidade e restrições de acesso. REFERÊNCIAS [1]

[2] [3]

VIII. CONCLUSÃO

[4]

Em aplicações onde o tempo de transmissão é crítico, o uso de VPNs através de redes externas ainda deve ser analisado com muito cuidado, pois podem ocorrer problemas de desempenho e atrasos na transmissão sobre os quais a organização não tem nenhum tipo de gerência ou controle, comprometendo a qualidade desejada nos serviços corporativos. A decisão de implementar ou não redes privadas virtuais requer uma análise criteriosa dos requisitos, principalmente

[5]

[6]

M. R. M. Vargas “Educação a Distância e as Novas Tecnologias: o uso da videoconferência em treinamentos organizacionais” Revista Brasileira de Aprendizagem Aberta e a Distância Primeira Edição ABED, Vol.3/No.1, 2005 J.. L. Mitchell, W. B. Pennebaker, C. E. Fogg, and D. J. Le Gall, “MPEG Video Compression Standard”. Chapman and Hall, 1996 G.M.Leopoldino; e E.S. Moreira, .Modelos de Comunicação para Videoconferência. NewsGeneration, v. 5 nº 3, 11 de maio de 2001. Disponível http://www.rnp.br/newsgen/0105/video.shtml Virtual Private Networking: An Overview" .Junho de 1998. http://www.microsoft.com/workshop/server/feature/vpnovw.asp. J.L.A. Fonseca, Arquitetura de Redes para Aplicações Multimídia de Tempo Real, Dissertação de Mestrado, Instituto de Computação, Universidade Federal Fluminense, Niterói, RJ, 2001. Werner, José. "Tecnologias para Implantação de Redes Virtuais Privadas" Fórum Nacional sobre Segurança de Redes e Telecomunicações. Março/1998.


1

´ Plataforma Android para diagnostico de ´ automoveis ´ ˜ (LESC), Universidade Thales P. Rodrigues, Laboratorio de Engenharia de Sistemas de Computac¸ao Federal do Ceara´ (UFC), Fortaleza-Ceara´ Brasil thales@lesc.ufc.br e ´ ˜ (LESC), Universidade Helano S. Castro, Laboratorio de Engenharia de Sistemas de Computac¸ao Federal do Ceara´ (UFC), Fortaleza-Ceara´ Brasil helano@lesc.ufc.br ´ ˜ ´ Abstract—O diagnostico em ve´ıculos, apesar das opc¸oes tecnologicas ja´ existentes, ainda e´ algo raro de ser feito por utilizadores mais leigos sem a necessidade de irem aos lugares especializados no assunto, que muitas vezes cobram caro por isso. Este artigo, ˜ para dispositivos moveis ´ ˜ do ve´ıculo atraves ´ do protocolo CAN, portanto, apresenta uma soluc¸ao Android que, recebendo informac¸oes ´ da Engenharia: visa a` oferecer uma alternativa para esse problema. Desta maneira, este trabalho pretende se apoiar em um dos tripes ˆ ˜ tecnologia, eficiencia e inovac¸ao. ´ ´ Index Terms—Android, automoveis, CAN, diagnostico, mobilidade.

F

1

˜ I NTRODUC¸ AO

A

˜ o da Microeletronica ˆ C rescente evoluc¸a tem proporcionado o surgimento de circuitos integrados (CIs) cada vez menores, com menor consumo de energia, e maior poder de processamento e armazenamento. Esse fato tem favorecido o aumento exponencial do ´ uso de CIs em sistemas embarcados, em um numero ˜ ´ cada vez maior de aplicac¸oes. No caso da industria automobil´ıstica, isso tem se refletido no uso de microcontroladores para a monitorac¸a˜ o e o controle em diversas partes dos ve´ıculos. Como consequˆencia, os ´ automoveis dos dias de hoje possuem um grau de automac¸a˜ o bem maior que os de h´a alguns anos atr´as. De fato, a incorporac¸a˜ o de sistemas embarcados, nesses ve´ıculos equipados com microcontroladores, propor˜ cionou a automac¸a˜ o de diversas func¸oes, desde o controle de freios e funcionamento do motor at´e de sistemas de entrentenimento (DVD/Blueray-player) e localizac¸a˜ o ´ ´ (GPS), esses ultimos sendo incorporados nos automoveis no que e´ hoje conhecido como centrais multim´ıdias. Al´em disso, esses microcontroladores (e o firmware embarcados nos mesmos) tˆem permitido monitorar (atrav´es ´ ´ de sensores) o proprio funcionamento dos automoveis ˜ de teste e diagnostico ´ de forma a prover func¸oes de suas ´ funcionalidades. Nesse ultimo segmento de aplicac¸a˜ o, as oficinas especializadas possuem equipamentos que per˜ sobre o status do ve´ıculo no mitem colher informac¸oes sentido de facilitar sua manutenc¸a˜ o, tanto corretiva como preventiva. No entanto, esses equipamentos s˜ao caros, fato esse que n˜ao permite, na maioria das vezes, que o ´ ˜ usu´ario do automovel tenha acesso a essas informac¸oes. Por outro lado, o aumento vertiginoso de vendas de

´ smartphones e outros dipositivos moveis como tablets e, por consequˆencia, a crescente popularizac¸a˜ o dos mesmos propicia um maior desenvolvimento de aplicativos ´ com os mais variados propositos. Podemos utilizar esses aplicativos para mandar e-mail, ler livros, escrever documentos e por quˆe n˜ao interagir com os nossos auto´ moveis? O sistema operacional Android e´ , atualmente, o mais popular dentre os que s˜ao voltados aos dispositivos ´ ˜ de ferramentas e mecanismos que moveis[11]. Dispoe ajudam o desenvolvimento, a publicac¸a˜ o e a instalac¸a˜ o de aplicativos. Al´em disso, possui uma documentac¸a˜ o bastante rica e disseminada [1][2]. Essas s˜ao algumas das ˜ que levam o Android a ser uma escolha frequente razoes ´ de desenvolvedores em computac¸a˜ o movel. Neste artigo, apresentamos uma plataforma Android que tem o objetivo de cumprir a principal motivac¸a˜ o deste trabalho: a de oferecer uma alternativa que auxilie o usu´ario a mitigar problemas em seu ve´ıculo. A base ´ ˜ provenientes do para os diagnosticos s˜ao as informac¸oes barramento CAN. 1.1

O protocolo CAN

O barramento CAN[3] (Controller Area Network) foi ini´ cialmente desenvolvido por BOSCH1 para a industria automotiva como um sistema multi-master, no qual mensagens s˜ao enviadas em broadcast, ou seja, uma men´ em uma rede CAN, e´ sagem enviada por um dos nos, ´ Podemos pensar os nos ´ recebida por todos os outros nos. ´ como sendo modulos que realizam uma determinada func¸a˜ o, por exemplo: medir temperatura, medir n´ıvel de 1. Robert Bosch GmbH, www.bosch.com


2

gasolina, indicar velocidade atual do ve´ıculo, controle do motor, etc. Por ter uma alta imunidade a interferˆencia el´etrica e a possibilidade de auto-diagnosticar e reparar erros de dados, o CAN ficou popular tamb´em em outras ´ industrias como a da automac¸a˜ o e a da aviac¸a˜ o[6]. A forma como as mensagens s˜ao trocadas e´ descrita atrav´es do protocolo CAN. O fato do barramento ser compartilhado traz algumas vantagens como um menor ´ numero de cabos para construir a rede CAN. Entretanto, ˜ de e´ necess´ario algum mecanismo para evitar colisoes mensagens. O protocolo previne isso atrav´es do conceito CSMA/CD (Carrier Sense Multiple Access/Collision Detec´ antes de transmitir, devem tion) em que todos os nos, verificar o estado do barramento e aguardar um tempo pr´e-determinado de inatividade[5]. As mensagens em broadcast s˜ao utilizadas, principal˜ (como mente, para manter a consistˆencia de informac¸oes ´ Al´em RPM, temperatura, etc) em cada um dos nos. disso, e´ poss´ıvel ter prioridades para as mensagens. Isso quer dizer que mensagens de alta prioridade sempre ganhar˜ao acesso ao barramento primeiro do que as que tˆem menor prioridade. H´a dois formatos de mensagens para o CAN: o padr˜ao/base e o estendido. Eles s˜ao, por vezes, referenciados tamb´em como CAN 2.0A e CAN 2.0B respectivamente. A figura 1 mostra o formato geral de um quadro (frame) para o CAN padr˜ao. O campo que identifica a mensagem tem o tamanho de 11 bits, sendo poss´ıvel ter um total de 211 (2048) mensagens diferentes[3][4][5][6].

Fig. 1. Formato do quadro CAN 2.0A A mensagem ter´a maior prioridade quanto menor for o seu valor bin´ario no campo identificador. A figura 2 mostra o formato estendido. A principal alterac¸a˜ o nesse segundo formato foi o aumento de tamanho do campo identificador, acrescentando mais 18 bits. Com isso, a capacidade total de mensagens diferentes passa a ser 229 ˜ (aproximadamente 537 milhoes).

Fig. 2. Formato do quadro CAN 2.0B

1.2

OpenXC

Na subsec¸a˜ o anterior, vimos rapidamente um dos componentes que fazem parte do OBD-II (um padr˜ao obri´ ´ gatorio de diagnostico de ve´ıculos para todos os carros vendidos nos Estados Unidos desde 1996): o CAN. Por mais que o protocolo CAN seja aberto hoje, muitos ´ ´ fabricantes de automoveis definem as suas proprias

mensagens e estrutura dos dados que representam os va´ lores medidos dos modulos. Como consequˆencia, temos ´ algo propriet´ario, n˜ao aberto ao publico e vari´avel de fabricante para fabricante. Um dos motivos que levam os fabricantes a tornar isso fechado e´ evitar escritas ´ maliciosas nos modulos que possam colocar em risco a vida de uma pessoa. Como um esforc¸o para resolver esse problema, a Ford2 desenvolveu o OpenXC[7]. O OpenXC consiste de uma plataforma que fornece um hardware aberto e um firmware[14]. O esquem´atico do hardware sendo aberto possibilita a integrac¸a˜ o com outros circuitos ou, simplesmente, a construc¸a˜ o de um dispositivo que tem a func¸a˜ o de interfacear com o ve´ıculo. Ao embarcar o firmware nesse dispositivo e este conectado ao ve´ıculo, o ˜ das primeiro ser´a o respons´avel por fazer as traduc¸oes mensagens propriet´arias da Ford para o formato padr˜ao aberto do OpenXC. ˜ podem ser Uma vez feita a traduc¸a˜ o, as informac¸oes lidas em tempo real atrav´es de comunicac¸a˜ o Bluetooth, USB ou Ethernet/Wifi. ˜ aberto 1.2.1 O formato padrao As mensagens traduzidas tˆem o formato JSON a seguir: {"timestamp": 1385133351.285525, "name": "signal", "value": value} Existem, basicamente, trˆes campos nas mensagens: o primeiro e´ o timestamp que indica o tempo em segundos desde 00:00:00 UTC 1/1/1970. O segundo e´ o name, que ´ indica o nome do sinal. Por ultimo, o campo value, que cont´em um valor correspondente para aquele sinal[8]. 1.2.2 Carros suportados Todos os carros suportados[15] pelo OpenXC pertencem a Ford. Tomando como exemplo o Ecosport, ele possui suporte desde o modelo 2005 at´e o mais recente (2014).

2

P LATAFORMA

PROPOSTA

A

F igura 3(a) ilustra o cen´ ario atual mais comum ´ para o diagnostico em ve´ıculos (ve´ıculo, no contexto deste trabalho, est´a restringido aos carros). Neste cen´ario, um equipamento chamado Scanner e´ conectado a` porta OBD-II do carro. O Scanner, ent˜ao, pode ˜ ˜ enviar solicitac¸oes de informac¸oes e testes ao carro, coletar os resultados e mostr´a-los a quem o estiver operando. Geralmente, os operadores desses Scannners s˜ao mecˆanicos que trabalham em alguma oficina de carros visto que esses equipamentos podem ser caros ou n˜ao intuitivos. Propomos, neste artigo, uma plataforma que torne poss´ıvel uma proximidade maior entre um utilizador ˜ mais leigo e algumas informac¸oes pertinentes de seu ve´ıculo. Para a interac¸a˜ o direta com o utilizador, foi criado um aplicativo (representado por ”App CAN”) 2. Ford Company - www.ford.com


3

foram consideradas). A comunicac¸a˜ o entre a aplicac¸a˜ o Android e o dispositivo conectado ao ve´ıculo e´ feita atrav´es de Bluetooth. Com isso, torna-se desnecess´ario o uso de qualquer tipo de cabo, o que oferece tamb´em mobilidade a quem estiver usando a aplicac¸a˜ o. A conex˜ao Bluetooth exige que os dispositivos sejam previamente pareados, ou seja, estabelec¸am um conex˜ao ˜ seguintes ser˜ao que permita troca de dados. Nas sec¸oes descritos como o pareamento e´ feito, o processo de troca de mensagens e as caracter´ısticas da aplicac¸a˜ o. 3.1

´ Fig. 3. Diagrama de blocos: (a) cenario real e (b) ˜ simulac¸ao ´ para dispositivos moveis com o sistema operacional Android. Conforme a figura 3(b), a comunicac¸a˜ o entre ´ o dispositivo movel e o carro e´ sem fio (Bluetooth). O carro, por sua vez, e´ representado pelos blocos OBDII e OpenXC. O OBD-II e´ respons´avel por entregar ao ˜ dos diferentes modulos ´ OpenXC as informac¸oes do carro que fazem parte do CAN. A ligac¸a˜ o entre esses dois componentes e´ f´ısica atrav´es da porta OBD-II. O OpenXC ˜ recebe as informac¸oes, faz a traduc¸a˜ o das mensagens CAN e envia o resultado para o aplicativo. Finalmente, ˜ o utilizador poder´a ver, em tempo real, as informac¸oes ´ do seu ve´ıculo sendo mostradas no dispositivo movel. E´ importante ressaltar ainda que, sendo aberto o esquem´atico do OpenXC, existe a possibilidade de anex´alo a outros circuitos. Assim, o bloco ”OpenXC” da figura 3(b) poderia facilmente ser substitu´ıdo por outro que, al´em de englobar o OpenXC, tamb´em contaria com outras funcionalidades (por exemplo, controle remoto do som, do DVD, das cˆameras internas, etc), sendo considerado, dessa maneira, como um sistema IVI (InVehicle Infotainment).

3

˜ I MPLEMENTAC¸ AO

C

E

T ESTES

˜ o 1, a presenc¸a de miONFORME salientado na sec¸a ´ crocontroladores nos automoveis permitem monitorar a manifestac¸a˜ o de falhas em seu funcionamento, condic¸a˜ o essa que vem sendo utilizada pelas concession´arias que realizam manutenc¸a˜ o dos ve´ıculos. O principal objetivo desse trabalho foi estudar as in´ terfaces utilizadas nos automoveis para obtenc¸a˜ o de ˜ informac¸oes, providas pelos microcontroladores, de seu funcionamento, bem com investigar os protocolos de comunicac¸a˜ o utilizados pelos mesmos. O resultado desse estudo permitiu o desenvolvimento de um sistema de ´ diagnostico de anormalidades no funcionamento de au´ ´ tomoveis, atrav´es do uso de dispositivos moveis com o ˜ do sistema acima da 4.0 SO Android (apenas versoes

Pareamento entre dispositivos

A figura 4 mostra a tela inicial da aplicac¸a˜ o Android. Nesta tela inicial, o utilizador dever´a procurar por um dispositivo, escolher o dispositivo a ser pareado e iniciar o pareamento.

˜ Fig. 4. Tela inicial da aplicac¸ao No total, h´a trˆes componentes presentes nessa tela. O primeiro e´ o bot˜ao que acionar´a a busca por dispositivos Bluetooth vis´ıveis. O segundo e´ a lista que guardar´a os dispositivos Bluetooth encontrados. E o terceiro e´ o bot˜ao que iniciar´a a rotina de pareamento. A rotina de pareamento consiste de, selecionado o dispositivo corretamente, estabelecer uma ligac¸a˜ o Bluetooth entre os dois aparelhos. Por comodidade, a partir deste momento, a aplicac¸a˜ o embarcada no dispositivo conectado ao carro ser´a referenciada como ”Alice” (ou, de forma abreviada, pela letra ’A’) e o aplicativo Android como ”Bob” (Ou, simplesmente, ’B’). De notar que Alice ˜ Bluedeve criar um servic¸o para escutar por conexoes tooth/RFCOMM. Ent˜ao, quando aparelho que hospeda Bob realiza o pareamento com o de Alice, Bob deve procurar o canal RFCOMM alocado por Alice a fim de estabelecer a conex˜ao a n´ıvel de aplicac¸a˜ o. Essa descoberta do canal RFCOMM correto por parte de Bob e´ poss´ıvel pela a utilizac¸a˜ o do SDP (Service Discovery Protocol). Alice, ao criar o servic¸o, o identifica com um ID ´ ˜ como nome do servic¸o, canal unico. Essas informac¸oes RFCOMM e ID s˜ao guardados em uma tabela. Ent˜ao, o servic¸o fica apto a ser anunciado. Bob tem que saber a priori o ID que identifica o servic¸o[1][2][12]. Assim, o Bob e´ capaz, utilizando o ID, de fazer a pesquisa na tabela SDP e descobrir o canal RFCOMM que ele deve usar para se conectar. O processo de conex˜ao poder´a ent˜ao ser completado se Alice aceitar o pedido de Bob. Uma vez


4

que a conex˜ao e´ completada, o usu´ario estar´a habilitado a comec¸ar a interagir com o carro. 3.2

Escolha o seu destino

´ todo Com a conex˜ao devidamente estabelecida, apos o processo detalhado na subsec¸a˜ o anterior, o usu´ario e´ direcionado automaticamente para uma outra tela chamada de ”Escolha o seu destino”.

˜ dispon´ıveis ao usuario ´ Fig. 5. Tela com as opc¸oes ˜ A figura 5 mostra as opc¸oes que o usu´ario tem nesta primeira vers˜ao da aplicac¸a˜ o. Ele poder´a controlar alguns perif´ericos se o dispositivo conectado ao carro funcionar tamb´em como um sistema IVI. Receber ˜ informac¸oes em tempo real advindas do barramento CAN (talvez essa seja a opc¸a˜ o mais interessante no contexto deste trabalho). O usu´ario tamb´em pode gerar ´ ´ relatorios. A base dos relatorios s˜ao os resultados coletados de testes pr´e-determinados. Esses testes tˆem a proposta de verificar o funcionamento de determinados ´ modulos, por exemplo, o do GPS (Global Positioning System), o do estado do freio (se est´a sendo acionado ´ ou n˜ao), dentre outros. Ao fim, o relatorio poder´a ser enviado por e-mail. 3.3

˜ Recebendo informac¸oes do CAN

Como prova de conceito, o OpenXC fornece alguns arquivos de playback trace[9], que basicamente s˜ao arquivos que contˆem dados no mesmo formato gerado pelo tradutor de mensagens CAN. Assim, e´ poss´ıvel simular entradas para a aplicac¸a˜ o Android como se ele ˜ do carro. estivesse de fato recebendo essas informac¸oes A figura 6 apresenta a tela quando o usu´ario escolhe ˜ a opc¸a˜ o de receber informac¸oes do CAN. Trata-se de uma simulac¸a˜ o com um dos arquivos dispon´ıveis pelo OpenXC[10]. No momento em que a tela foi capturada, a velocidade do carro estava em, praticamente, 31 km/h, terceira marcha, com um n´ıvel de gasolina de 82%. O pedal do freio estava sendo pressionado e a velocidade do motor estava em 1164 RPM. ˜ s˜ao enviadas A frequˆencia em que essas informac¸oes depende de sinal para sinal. Contudo, a maior frequˆencia

˜ Fig. 6. Tela mostrando, em tempo real, informac¸oes do estado do ve´ıculo especificada e´ de 10 Hz3 . Quando uma informac¸a˜ o chega, e´ necess´ario propag´a-la o mais r´apido poss´ıvel para a tela. As tarefas de atualizac¸a˜ o de tela no Android devem ser realizadas na thread UI (User Interface). O ´ trecho resumido de codigo a seguir e´ respons´avel por atualizar os valores do sinal da velocidade do carro: mHandle.post(new velocidadeListener(value)); ... class velocidadeListener implements Runnable { private String label; public velocidadeListener(String msg) { label = msg; } public void run() { velocidade.setText(label); } } ´ Na primeira linha do codigo, o novo objeto instanciado de velocidadeListener est´a sendo adicionado, via o m´etodo post da classe Handler, na fila de mensagens da thread UI e ser´a executado (chamando o m´etodo run()) t˜ao logo chegar a sua vez. Para al´em dos arquivos de playback trace, outro teste realizado decorreu da utilizac¸a˜ o de um produto produzido pela Ford: o OpenXC Vehicle Interface (VI)[13]. Quando ele est´a conectado ao ve´ıculo, atrav´es da porta OBDII, as mensagens propriet´arias do barramento CAN dos ve´ıculos da Ford s˜ao traduzidas e podem ser enviadas ˜ da plataforma OpenXC 3. Segundo especificac¸oes


5

no formato padr˜ao aberto por meio de Bluetooth, Wifi, USB ou Ethernet. Felizmente, e´ poss´ıvel fazer uma simulac¸a˜ o com esse equipamento. O OpenXC disponibiliza um firmware que ´ tem por func¸a˜ o gerar mensagens aleatorias de sinais, no formato padr˜ao aberto, e envi´a-las por alguma interface de comunicac¸a˜ o do VI. O teste consistiu de gravar o OpenXC VI com o ˜ gerafirmware para simulac¸a˜ o e receber as informac¸oes das por ele no aplicativo usando comunicac¸a˜ o Bluetooth (e n˜ao mais lendo de um arquivo est´atico como no caso anterior). A alimentac¸a˜ o de energia do VI se deu por USB, uma ponta do cabo USB conectada na porta USB do VI e a outra ponta conectada na porta USB de um computador. Ao fim do teste, foi poss´ıvel certificar de que o aplicativo Android estava recebendo, interpretando e ˜ enviadas pelo mostrando corretamente as informac¸oes VI uma vez que a tela mostrada na figura 6 estava sendo devidamente atualizada assim que uma nova informac¸a˜ o (no formato padr˜ao aberto) chegava via Bluetooth. ˜ provenientes do CAN s˜ao, portanto, as As informac¸oes ´ principais fontes respons´aveis por ajudar no diagnostico de problemas do carro. Elas d˜ao a liberdade ao usu´ario ´ de fazer alguns testes, por conta propria, em seu ve´ıculo e o permite verificar se os resultados est˜ao consistentes. Mais ainda, o usu´ario tem a possibilidade de gerar e guardar estat´ısticas do carro como o consumo semanal de gasolina. 3.4

podendo ser omitido, e com um m´aximo de (256 - 2) = 254 bytes. O receptor deve enviar ao transmissor um retorno de sucesso ou falha cada vez que receber alguma mensagem. Esse retorno possui tamanho fixo e e´ conhecido como ACK. O ACK pode ter dois valores: 00h ou 01h. O valor 00h indica sucesso ao processar o comando em contraste ao valor 01h que indica alguma falha. A figura 8 exemplifica um fluxo de mensagens entre Alice e Bob. Primeiramente, Bob envia um comando para Alice requisitando, por exemplo, o estado do player de audio. Este comando e´ identificado pelo valor literal 34h. Em seguida, Alice retorna o ACK e envia a resposta ao comando solicitado por Bob (neste caso, assumindo que o campo dados, que cont´em a resposta, tenha apenas 1 byte de tamanho). Finalizando esse fluxo, Bob envia um ACK a Alice como forma de confirmar o recebimento da resposta.

Fig. 8. Fluxo de mensagens A figura 9 e´ a imagem de uma tela minimalista no qual e´ poss´ıvel ligar e desligar equipamentos como microfone, al´em de controlar o volume do player de audio.

´ Controlando alguns perifericos

Se o dispositivo conectado ao carro tamb´em funciona como um sistema IVI, e´ poss´ıvel controlar alguns perif´ericos. Para isso, Alice e Bob dever˜ao compartilhar de um protocolo para a comunicac¸a˜ o. Este protocolo define mensagens que funcionar˜ao como comandos para controlar algum perif´erico, ligando-o, desligando-o ou realizando alguma outra operac¸a˜ o oportuna. Apresentamos a seguir uma proposta de protocolo, inclusive j´a implementado no aplicativo Android. As mensagens foram projetadas para serem curtas, sendo alguns dos campos orientados a` byte, isto e´ , com tamanho ´ de um unico byte. ´ Fig. 9. Tela para controle de perifericos Fig. 7. Formato de uma mensagem A figura 7 mostra o formato de uma mensagem. O campo tamanho indica o tamanho da mensagem inteira incluindo ele na conta. Possui o tamanho de um byte, o que limita a mensagem ao tamanho m´aximo de 256 bytes. O campo CMD cont´em a identificac¸a˜ o do comando. Este campo, por ter tamanho de um byte, permite um total de 256 diferentes comandos. Por fim, o campo dados que levar´a parˆametros, se necess´ario, do comando correspondente. Possui um tamanho vari´avel,

3.5

Simulador

Durante a realizac¸a˜ o deste trabalho, notou-se uma necessidade, para efeitos de testes e validac¸a˜ o, de um simulador dos sinais gerados pelo OpenXC. Nesse sentido, foi desenvolvido um programa em Java que respondesse aos est´ımulos provenientes do usu´ario e os transmitisse, via Bluetooth, para o aplicativo Android. A figura 10 mostra o simulador desenvolvido. O usu´ario poder´a estimular sinais como: o aˆ ngulo do volante, o estado da ignic¸a˜ o, latitude e longitude, etc.


6

Fig. 10. Simulador Valores positivos de acelerac¸a˜ o significam que o carro est´a sofrendo uma acelerac¸a˜ o positiva, isto e´ , ganhando velocidade. Valores negativos de acelerac¸a˜ o representam uma frenagem de intensidade t˜ao maior quanto for o valor da acelerac¸a˜ o negativa. ˜ H´a um painel de informac¸oes, representada pelo quadro em branco na figura 10, no qual os valores atuais de sinais importantes (caso da velocidade do ve´ıculo) s˜ao mostrados em tempo real com um intervalo de um segundo entre cada atualizac¸a˜ o. Assim, e´ poss´ıvel ˜ est˜ao sendo envicomparar e verificar se as informac¸oes adas pelo simulador e recebidas pelo aplicativo Android corretamente. A qualquer instante, o servidor Bluetooth poder´a ser iniciado ou parado, bastando para isso que o usu´ario utilize a opc¸a˜ o da guia ”Bluetooth” no topo da figura acima. Tamb´em h´a a opc¸a˜ o para deixar de enviar as mensagens pela interface Bluetooth (que basicamente seria uma forma de ”pausar” a simulac¸a˜ o), assim o usu´ario tem o poder de controlar, de certa forma, o fluxo de mensagens de sa´ıda.

4

E

˜ C ONCLUS AO

STE trabalho demonstrou ser poss´ıvel realizar di´ agnosticos em carros sem ter que necessariamente ´ ir aos lugares especializados no assunto. Os diagnosticos ˜ lidas s˜ao feitos, principalmente, atrav´es das informac¸oes do barramento CAN. O aplicativo Android possibilita ˜ ao usu´ario gerenciar conexoes Bluetooth com dispo˜ sitivos, ver informac¸oes em tempo real, interagir com ´ sistemas IVI e gerar relatorios. A comunicac¸a˜ o por meio de Bluetooth oferece uma maior mobilidade e n˜ao exige o uso de equipamentos extras como cabos. A principal dificuldade encontrada foi n˜ao se ter um carro f´ısico (compat´ıvel com o OpenXC) dispon´ıvel pelo que impediu a implementac¸a˜ o deste projeto em um cen´ario real.

O simulador, por sua vez, provˆe uma forma de validar a comunicac¸a˜ o Bluetooth, bem como a interpretac¸a˜ o das mensagens definidas pelo OpenXC, criando um cen´ario ´ proximo da realidade. Aliado a isso, o simulador dispensa a necessidade de se ter um carro f´ısico ou de usar um equipamento como o OpenXC VI para que testes sejam feitos, contribuindo para superar, em parte, a dificuldade citada anteriormente. Apesar do foco dado ao OpenXC, este trabalho n˜ao se restringe aos ve´ıculos da Ford. Os ve´ıculos de outros fabricantes ser˜ao tamb´em compat´ıveis com este projeto desde que eles oferec¸am formas/mecanismos que cumpram, basicamente, as seguintes premissas: fornecer ˜ do CAN no formato padr˜ao aberto via as informac¸oes bluetooth e, no caso de um sistema IVI, este dever´a entender o protocolo de comunicac¸a˜ o que foi proposto para o controle de perif´ericos. Por fim, este trabalho e´ o pontap´e inicial que abre, no horizonte, possibilidades de trabalhos futuros que visem ˜ nesta a´ rea de a` criar, melhorar e incrementar soluc¸oes ´ diagnosticos em ve´ıculos.

ACKNOWLEDGMENTS Os autores gostariam de agradecer a` s seguintes pessoas, citadas em ordem alfab´etica, que contribu´ıram para a relizac¸a˜ o deste trabalho: ´ • Italo Sampaio, Engenheiro (LESC). E-mail: italo@lesc.ufc.br • Vanilson Leite, Engenheiro (LESC). E-mail: vanilson@lesc.ufc.br

R EFERENCES [1] Reto Meier, Professional Android 4 Application Development John Wiley & Sons, 2012. [2] Introduction to Android — Android Developers http://developer.android.com/guide/index.html [3] ”CAN 2.0 specification”. 1991, Robert Bosch GmbH, Postfach 50, D-7000 Stuttgart 1. [http://esd.cs.ucr.edu/webres/can20.pdf] [4] A Comprehensible Guide to Controller Area Network. Wilfried Voss. [5] Embedded Networking with CAN and CANopen. Olaf Pfeiffer, Andrew Ayre and Christian Keydel. [6] Introduction to the Controller Area Network (CAN). Texas Instruments Report. SLOA101A - 2002 - Revision 2008. [7] The OpenXC Platform - www.openxcplatform.com. [8] OpenXC Official Signals - http://openxcplatform.com/about/dataset.html [9] Arquivos playback trace dispon´ıveis em http://openxcplatform.com/resources/traces.html [10] Arquivo de simulac¸a˜ o driving.json utilizado neste trabalho dispon´ıvel em https://s3.amazonaws.com/openxcplatform.com/driving.json [11] Android and iOS Combine for 91.1% of the Worldwide Smartphone OS Market in 4Q12 and 87.6% for the Year, According to IDC - http://www.idc.com/getdoc.jsp?containerId=prUS23946013 [12] Bluetooth 1.1 Specifications. [http://www.inf.ethz.ch/personal/ hvogt/proj/btmp3/Datasheets/Bluetooth 11 Specifications Book.pdf] [13] OpenXC Vehicle Interface [http://vi.openxcplatform.com/] [14] OpenXC Relesead Firmwares Page [https://github.com/openxc/vi-firmware/releases] [15] Supported Vehicles [http://openxcplatform.com/hardware/vehicles.html]


Planejamento de Rede Gigabit Passive Optical Network Utilizando os Algoritmos Dijkstra e Genético Suelen C. Almeida

Patrícia P. Daniel

Ana Régia de M. Neves

Departamento de Engenharia e Departamento de Engenharia Elétrica Departamento de Engenharia Elétrica Ciência da Computação Centro Universitário Instituto de Centro Universitário Instituto de Centro Universitário Instituto de Educação Superior de Brasília (IESB) Educação Superior de Brasília (IESB) Educação Superior de Brasília (IESB) Brasília, Brasil 70200-730 Brasília, Brasil 70200-730 Brasília, Brasil 70200-730 Email: patriciadp05@gmail.com Email: suelen_cardosoalmeida@hotmail.com Email: regianeves@unb.br

Resumo—With the increase of applications, services and devices with Internet access, users increasingly need the availability of bandwidth. The project development of telecommunication networks has difficulty in defining the best distribution of equipment and optical cables in urban areas. Thus, this paper proposes a hybrid solution, based on Dijkstra’s and Genetic algorithm, planning GPON network (Gigabit Passive Optical Network) in order to optimize the distribution of equipment and optical cables, and to minimize the costs of network deployment. The results of the analysed case studies indicate the feasibility of the proposed solution.

I. I NTRODUÇÃO O cabo coaxial e o par metálico foram amplamente utilizados pelas operadoras de telecomunicações para atendimento dos serviços de banda larga, porém apresentam algumas limitações que não os tornam apropriados para a transmissão de dados de alta capacidade, como a oferta de múltiplos serviços de voz, dados e vídeo. A infraestrutura das redes de telecomunicações está sendo gradativamente substituída por fibra óptica para atender à crescente demanda dos usuários. Segundo Shaikhzadeh, apenas 45% dos municípios brasileiros têm cobertura de fibra óptica1 . Para planejar a infraestrura de uma rede alguns elementos básicos devem ser considerados, como [1]: (i) a quantidade de clientes que serão atendidos; (ii) o número de níveis da rede; (iii) a quantidade e localização dos equipamentos em cada nível; (iv) o caminho entre os nós considerando a região geográfica de instalação; e (v) a flexibilidade da rede para atender novas demandas. Este planejamento é definido na literatura como um problema de otimização combinatória, onde o objetivo é otimizar a distribuição de equipamentos em uma região geográfica para reduzir gastos e atender clientes de modo eficiente [2]. Geralmente, o projetista realiza esta etapa manualmente, o que torna restrita a análise de todos os cenários possíveis para 1 Palestra sobre a “Infraestrutura de Redes Ópticas – Desafios a serem vencidos” proferida por Foad Shaikhzadeh, CEO Furukawa, no VI Seminário TelComp 2013 – Inovação e Investimentos em 25 de setembro de 2013.

uma determinada área. Além disso, o nível de complexidade pode aumentar quando alterações são necessárias em projetos já existentes. Para melhorar este processo é essencial a utilização de técnicas que permitam a otimização do projeto. Neste sentido, este artigo propõe uma abordagem híbrida, baseada nos algoritmos de Dijkstra e Genético, para o planejamento de rede Gigabit Passive Optical Network (GPON), a fim de otimizar a distribuição dos equipamentos e cabos ópticos, minimizando os custos de projeto sem degradar a qualidade do serviço ofertado. O restante deste artigo está organizado em seis seções, a saber: as Seções II e III apresentam os referenciais teóricos sobre as áreas de interesse deste artigo; a Seção IV descreve a solução proposta para o problema de planejamento de rede; a Seção V ilustra os dois experimentos realizados para validação da solução proposta; a Seção VI apresenta uma discussão sobre os resultados encontrados, finalizando com a conclusão na Seção VII. II. GPON A tecnologia GPON é padronizada pela União Internacional de Telecomunicações (International Telecommunication Union - ITU) na série de recomendações G.984.1-7 [3]; e faz parte da família Passive Optical Network (PON) que permite o compartilhamento de uma única fibra em diversos pontos finais e utiliza apenas componentes ópticos passivos. A implantação deste tipo de tecnologia apresenta uma tendência crescente entre os países da América do Norte, Europa e Ásia [4], [5]. A principal vantagem é a redução dos custos de implantação e manutenção de soluções broadband em larga escala, ocasionada pelo menor uso de fibras sem prejudicar a velocidade da conexão. A arquitetura básica da rede GPON compreende quatro elementos principais, os quais são [6]: (i) OLT (Optical Line Termination), componente ativo localizado na central de operação que gerencia e mantém o fluxo de informação para a ODN e ONUs; (ii) ONU (Optical Network Unit), componente ativo


localizado no ambiente do usuário que recebe o sinal óptico da OLT e converte para sinal elétrico para o uso do cliente; (iii) ONT (Optical Network Termination), caso especial da ONU, apresenta a mesma localização e função que a ONU; e (iv) ODN (Optical Distribuition Network), rede de distribuição óptica passiva, composta exclusivamente por fibras ópticas, divisores passivos (splitters), que permitem o uso de uma única fibra óptica para atender vários usuários, ou outro dispositivo passivo óptico. A Figura 1 apresenta o fluxo de interação entre os elementos citados, onde a partir da central do provedor de serviço o sinal óptico é enviado pela OLT para a ODN; os splitters dividem os sinais ópticos de uma única fibra em dois ou mais canais até a ONU ou ONT, os quais entregam o sinal convertido para os usuários.

A. Algoritmo de Dijkstra Os problemas de otimização combinatorial, como a busca do menor caminho, podem ser representados por grafos, cujo objetivo é encontrar um modelo linear de um grafo de entrada de tal modo que um certo custo seja otimizado [12]. Seja G = (V, E) um grafo ponderado com função peso w : E → R mapeando arestas para pesos de valores reais. O peso do caminho p =< v0 , v1 , ..., vk > é o somatório dos pesos de suas arestas constituintes, conforme Equação 1 [13]: w(p) =

k X

w(vi−1 , vi )

(1)

i=1

O peso do caminho mais curto de u até v é definido pela Condição 2 [13]: min w(p) : u p v , se há um caminho de u a v δ(u, v) = ∞, caso contrário (2) Deste modo, um caminho mais curto desde o vértice u até o vértice v é definido como qualquer caminho p com peso w(p) = σ(u, v). Neste contexto, um dos algoritmos mais utilizados é o de Dijkstra que identifica, a partir de um vértice inicial do grafo, qual é o custo mínimo entre esse vértice e todos os outros [14]. O algoritmo é iterativo e a cada ciclo seleciona um novo conjunto de vértices que otimizam o problema. É importante ressaltar que os pesos das arestas devem ser não negativos. A Figura 2 apresenta o pseudocódigo deste algoritmo.

Figura 1. Fluxo básico de interação entre os elementos da rede GPON (adaptado de [7])

A rede GPON permite um alcance físico de até vinte quilômetros e pode suportar taxas de transmissão maiores ou iguais a 1,2 Gbits/s, sendo as taxas de 1,2 Gbit/s em upstream (das ONUs para a OLT) e 2,4 Gbit/s em downstream (da OLT para as ONUs) as mais importantes [6]. III. A LGORITMOS PARA OTIMIZAÇÃO Como citado na Seção I, problemas de otimização combinatorial envolvem a busca da melhor combinação possível de fatores, maximizando ou minimizando uma função objetivo. Neste sentido, segundo [8], os algoritmos de otimização combinatorial são utilizados para selecionar, a partir de um conjunto discreto e finito de dados em um determinado domínio, o melhor subconjunto que satisfaça os critérios e as restrições pré-definidas. Estes algoritmos possibilitam a diminuição do tempo dedicado ao projeto, já que permitem o tratamento simultâneo de múltiplas variáveis e restrições; além de apresentarem soluções ótimas ou aproximadas com um menor custo [9]. De acordo com a natureza do problema, é possível dividir os métodos de otimização em dois grandes grupos, que são [10], [11]: (i) lineares; e (ii) não-lineares. Os métodos não-lineares ainda são classificados em três grandes grupos, a saber [10], [11]: (i) determinísticos; (ii) estocásticos; e (iii) enumerativos. Os métodos de interesse deste trabalho são os lineares, especificamente, o algoritmo de Dijkstra; e os métodos estocásticos, particularmente, os Algoritmos Genéticos, ambos apresentados na próxima seção. Para uma análise completa de todos os métodos consultar [10].

Figura 2.

Pseudocódigo do algoritmo de Dijkstra (adaptado de [13])

O pseudocódigo inicia com a atribuição dos pesos δ(s, v) = 0 se o vértice de origem for o de destino e δ(s, v) 6= ∞ caso ainda não seja conhecida a distância de s até v. O conjunto S contém os vértices já visitados no grafo G e é inicializado como vazio. O conjunto Q contém os vértices que ainda não foram visitados durante a execução do algoritmo e uma fila de prioridade mínima, onde alguma prioridade deve ser definida. O laço principal, na linha 5, é executado enquanto existirem vértices adjacentes na fila Q. Nas linhas 6 e 7, o caminho do menor peso do vértice u é extraído de Q e adicionado ao conjunto S. Na primeira iteração do laço, o vértice u será o nó fonte.


Um outro laço é iniciado na linha 8 do pseudocódigo, sendo que este é executado enquanto existirem vértices adjacentes ao nó u. Na linha 9, ocorre o processo de “relaxamento de arestas” que verifica se o caminho mais curto para v encontrado até agora por meio do vértice u pode ser melhorado [13]. O algoritmo finaliza quando o conjunto Q fica vazio, o que indica que todos os nós do grafo G foram visitados. B. Algoritmos Genéticos Algoritmos Genéticos (AG) são algoritmos de busca paralela e estocástica, de otimização global e baseados numa metáfora do processo da evolução natural [15]. Neste algoritmo, a população inicial é submetida a um processo de seleção natural que gera descendentes mais aptos para a solução do problema. O ciclo básico de um AG inicializa com a geração aleatória de uma população; cada indivíduo é avaliado segundo uma função objetivo e os mais aptos são selecionados para a atuação dos operadores genéticos, cruzamento e mutação. A nova geração substitui a população inicial e é avaliada; se a condição de parada tiver sido alcançada ou a solução otimizada foi encontrada, o algoritmo é finalizado; caso contrário, um novo ciclo é iniciado. Este esquema do AG tradicional, denominado canônico, pode ser resumido pelo fluxograma apresentado na Figura 3.

Figura 3.

Fluxograma de um AG canônico (adaptado de [15])

Nos AG, as possíveis soluções no espaço de busca são referenciadas como um cromossomo, onde cada característica do problema é especificada em um gene. Estas soluções, conhecidas como indivíduos, são avaliadas por meio de uma função que guiará a busca. Segundo [15], esta função, denominada objetivo ou avaliação, contém todo o conhecimento sobre o problema, incluindo as restrições. Assim, é importante ressaltar que a definição da população e da função objetivo é dependente do problema a ser manipulado. O processo de seleção é baseado na aptidão do indivíduo calculada pela função objetivo, sendo que os mais aptos têm maior probabilidade de serem escolhidos para cruzamento. Os métodos mais comuns são [15]: (i) torneio, n indivíduos competem entre si e o melhor é selecionado; (ii) roleta, cada indivíduo é representado em uma roleta proporcional ao índice de aptidão; e (iii) ranking, utiliza as posições ordenadas dos indivíduos de acordo com a aptidão para determinar a probabilidade de seleção.

Os indivíduos selecionados são recombinados para a formação de uma nova população, os quais, a princípio, serão melhores que os pais. As técnicas tradicionais escolhem um ou dois pontos de corte no cromossomo para troca; ou utilizam uma máscara para auxiliar a permutação dos valores dos genes, como ocorre no cruzamento uniforme [15]. A operação de mutação aumenta a diversidade na população e previne a convergência prematura para um mínimo local. O valor de um gene pode ser alterado aleatoriamente ou baseado em uma faixa de valores especificada. Os operadores genéticos são aplicados seguindo uma probabilidade definida pelo usuário e indicam se os indivíduos irão cruzar e sofrer mutação, respectivamente. Eles podem destruir boas soluções, por isso, alguns algoritmos fazem substituição geracional com elitismo. A técnica elitista permite que os m melhores indivíduos sejam preservados para a próxima geração e foi aplicada na solução proposta. Segundo [11] e [15], em geral, não se pode afirmar com certeza que a solução encontrada corresponde ao ponto ótimo global. Como consequência, três critérios de parada podem ser utilizados: (i) o número máximo de gerações ou ciclos do algoritmo; (ii) o tempo limite de processamento; e (iii) a estagnação da população após várias gerações consecutivas. Alguns trabalhos encontrados na literatura propõem o uso de algoritmos de otimização para solucionar o problema de planejamento de uma rede, como [16] que utilizam AG para a otimização da distribuição dos divisores passivos em uma rede GPON. [1] propôs um novo algoritmo multinível, denominado MAND, que combina as técnicas de AG, Enxame de partículas (Particle Swarm Optimization), AG multiobjetivo (Nondominated Sorting Genetic Algorithm II) e MOPSO (MultiObjective Particle Swarm Optimization) para otimizar o planejamento de redes GPON. O algoritmo é dividido em dois estágios: (i) aplicação dos algoritmos de otimização para descobrir a posição dos equipamentos; e (ii) o algoritmo Dijkstra define o melhor caminho entre os equipamentos e os nós. [2] utilizam a técnica Colônia de formigas (Ant colony) para minimizar os custos de implementação de uma rede GPON considerando a localização geográfica dos clientes, um conjunto de ruas e dos divisores passivos. O algoritmo proposto gera uma solução otimizada para a posição dos componentes da rede. IV. S OLUÇÃO P ROPOSTA A representação da região de implementação da rede é definida como um grafo não orientado, onde cada esquina é um nó e as arestas são as ruas entre os nós. As arestas contêm valores não negativos da distância entre os nós. A Figura 4 ilustra um exemplo de representação em grafo de uma área. A ferramenta Google Earth2 foi utilizada para marcar os nós, ou seja, todas as esquinas da área especificada, e determinar alguns pontos para atendimento aos clientes (ONUs). 2 https://www.google.com/earth/


Figura 4.

Representação de um grafo em um mapa

Após a marcação de todos os pontos, é necessário obter as coordenadas geográficas para possibilitar o cálculo das distâncias entre os nós. A fim de agilizar os cálculos das coordenadas cartesianas, foi utilizado o software ArcGIS3 , que importa o arquivo de extensão .kmz do Google Earth e plota os valores decimais de latitude e longitude. A partir desses valores, é possível determinar a distância entre todos os nós especificados no mapa, para isso foi calculada a distância euclidiana, conforme Equação 3 [17]: d=

p (x2 − x1 )2 + (y2 − y1 )2

(3)

Onde, x e y são as coordenadas cartesianas de dois pontos P e Q no mapa. A. Implementação algorítmica O software MatLab, versão R2013a, foi utilizado para o desenvolvimento do algoritmo proposto, denominado Planejamento_GPON. A abordagem híbrida utiliza o algoritmo de Dijkstra para calcular o menor caminho entre os nós até as ONUs e o AG para determinar a melhor posição dos splitters. Foram definidos quatro módulos, a saber: 1) Dijkstra_Tab – tem como entrada a quantidade de nós que o grafo possui e a matriz de adjacência dos nós com suas respectivas distâncias. Gera como saída a Dijkstra_Tabela que representa todas as distâncias de um nó em relação a todos os outros nós do grafo; 2) Dijkstra – responsável por aplicar o algoritmo de Dijkstra e usa como entrada a Dijkstra_Tabela. O resultado é um conjunto ótimo de rotas da OLT até as ONUs, ou seja, um vetor com todos os nós que fazem parte do caminho da OLT até determinada ONU e a distância total do caminho. É importante ressaltar que o algoritmo é executado de acordo com a quantidade de ONUs definida para o projeto; 3 https://www.arcgis.com/features/

3) Agrupar – a entrada utilizada é o vetor gerado em Dijkstra. Para executar este módulo é necessário definir um raio de distância que delimita a quantidade de ONUs reunidas. Este raio pode ser especificado aleatoriamente ou dependendo das especificações do projeto. O resultado é uma matriz de agrupamento dos nós mais próximos de acordo com o raio definido, onde cada linha da matriz resultante é um grupo diferente. Esta união representa todas as ONUs que devem ser agrupadas no mesmo divisor óptico e a quantidade de portas de saídas do splitter; e 4) Distancia_total – módulo responsável por aplicar o AG para localizar a melhor posição do splitter de segundo nível, de acordo com os agrupamentos fornecidos em Agrupar. A matriz encontrada em Agrupar é utilizada como entrada deste módulo. As simulações foram executadas no Genetic Algorithm toolbox do MatLab com os seguintes valores dos parâmetros genéticos que foram determinados empiricamente: • Tamanho da população – 20; • Taxa de cruzamento – 0,8; • Taxa de mutação – 0,01; • Taxa de elitismo – 0,2; • Número de gerações – 51. A aptidão bruta calculada pela função objetivo foi normalizada por rank para permitir um melhor controle do processo de seleção. O método de seleção aplicado foi o de amostragem estocástica uniforme (stochastic universal sampling) que estabelece, em uma linha, um segmento proporcional à aptidão do indivíduo. O cruzamento é feito por média ponderada aleatória dos pais e a mutação por troca aleatória do valor de um gene de acordo com a distribuição Gaussiana. O resultado final do algoritmo Planejamento_GPON é um modelo otimizado do planejamento da rede com as rotas da OLT até as ONUs e a localização dos splitters de segundo nível. A Figura 5 apresenta o fluxograma do algoritmo proposto.

Figura 5.

Fluxograma do algoritmo proposto


V. VALIDAÇÃO Para validação da solução proposta duas regiões foram escolhidas: (i) uma parte do centro da cidade do Rio de Janeiro; e (ii) a cidade de Bonito em Mato Grosso do Sul, que são apresentadas nas próximas seções. A. Rio de Janeiro Como descrito na Seção IV, os nós e os pontos de atendimento (ONUs) devem ser especificados na região de interesse. As Figuras 6 e 7 representam parte do centro da cidade do Rio de Janeiro, onde foram definidos cento e dezoito nós, vinte e oito ONUs e uma OLT.

Figura 6.

Disposição dos nós no centro do Rio de Janeiro

Figura 8.

Figura 9.

Disposição dos nós na cidade de Bonito

Disposição das ONUs e OLT na cidade de Bonito

VI. R ESULTADOS E D ISCUSSÃO As Figuras 10 e 11 apresentam a configuração final do projeto após aplicação da solução proposta para as cidades do Rio de Janeiro e Bonito, respectivamente.

Figura 7.

Disposição das ONUs e OLT no centro do Rio de Janeiro

Após essa definição, os módulos do algoritmo são aplicados, conforme exposto na Seção IV-A. Neste exemplo, o raio definido para a realização do agrupamento das ONUs, módulo Agrupar, foi de 0,44 km. Além disso, alguns ajustes foram aplicados (etapa de Atualização de rotas no fluxograma (Figura 5), como a redução dos grupos de cinco para três, pois não é viável, neste caso, instalar um splitter para um agrupamento de duas ONUs. O custo do splitter é maior do que adicionar as duas ONUs em outro agrupamento existente. B. Bonito - Mato Grosso do Sul Para a cidade de Bonito foram definidos duzentos e trinta e três nós, setenta pontos de atendimento (ONUs) e uma OLT, conforme as Figuras 8 e 9. A partir dessa definição, os módulos do algoritmo são aplicados, conforme exposto na Seção IV-A. Neste exemplo, o raio definido para a realização do agrupamento das ONUs, módulo Agrupar, foi de 0,5 km.

Figura 10.

Configuração final para o centro do Rio de Janeiro

Após a finalização da configuração do planejamento de rede, os custos de implantação devem ser calculados. Neste trabalho, estes cálculos foram baseados nos valores médios das empresas nacionais fabricantes de equipamentos da rede GPON: • ONUs – R$ 355,00 • Fibra óptica cabeada – R$ 18,00 (metro) • Placa com uma porta da OLT – R$ 2.125,00 • Porta do divisior (um conector) – R$ 62,50 As Tabelas I e II apresentam os custos gerais de implantação


Figura 11.

Configuração final para a cidade de Bonito

para ambos os casos de validação nas cidades do Rio de Janeiro e Bonito, respectivamente. Tabela I C USTOS G ERAIS DE I MPLANTAÇÃO NO R IO DE JANEIRO Equipamentos ONUs Fibra óptica cabeada OLT Total de portas do divisor4 (um conector) Custo Total

Quantidade 28 10,3 km 1 44

Custo R$ 9.940,00 R$ 186.085,80 R$ 2.125,00 R$ 2.750,00 R$ 200.900,80

Tabela II C USTOS G ERAIS DE I MPLANTAÇÃO EM B ONITO Equipamentos ONUs Fibra óptica cabeada OLT Total de portas do divisor5 (um conector) Custo Total

Quantidade 70 27,3 km 1 92

Custo R$ 24.850,00 R$ 491.189,40 R$ 2.125,00 R$ 5.750,00 R$ 523.914,40

O experimento realizado para o centro da cidade do Rio de Janeiro foi comparado com os resultados encontrados no trabalho de [16], exposto na Seção III, conforme os valores apresentados na Tabela III. Tabela III C USTOS DE I MPLEMENTAÇÃO DO T RABALHO DE [16] Equipamentos ONUs Fibra óptica cabeada OLT Total de portas do divisor Custo Total

Quantidade [16] 28 18,5 km 1 52

Custo [16] R$ 9.940,00 R$ 333.000,00 R$ 2.125,00 R$ 3.250,00 R$ 348.315,00

Analisando os resultados apresentados nas Tabelas I e III é possível identificar três pontos principais, a saber: (i) redução da quantidade de quilometragem de fibra óptica em 8,2 km; (ii) diminuição de portas dos divisores ópticos em oito unidades; e (iii) minimização do custo total de implantação do projeto em R$ 147.414,20. VII. C ONCLUSÃO Este artigo apresentou uma solução otimizada para o planejamento de rede GPON com uma abordagem híbrida baseada

em algoritmo de Dijkstra e Genético. O algoritmo Planejamento_GPON foi validado por meio de dois experimentos realizados em parte do centro da cidade do Rio de Janeiro e em Bonito no Mato Grosso do Sul; os resultados indicaram a otimização da distribuição de equipamentos e da rota a ser utilizada nessas regiões, bem como a minimização dos custos na implantação. A abordagem proposta contribui para a automação do processo de planejamento de rede, o que permite uma análise mais abrangente e eficiente das configurações possíveis de instalação em uma região. Deste modo, algumas melhorias estão sendo analisadas, como a integração com um sistema georreferenciado para a plotagem automática das rotas geradas e estudos comparativos em outras regiões. R EFERÊNCIAS [1] H. d. Silva, “Algoritmos de otimização de multinível aplicado a problemas de planejamento de redes.” Ph.D. dissertation, Pós-graduação em Informática, Pontifícia Universidade Católica do Paraná, Curitiba,Paraná, Brasil., junho 2012. [2] A. Chu, K. F. Poon, and A. Ouali, “Using ant colony optimization to design gpon-ftth networks with aggregating equipment,” in Computational Intelligence for Communication Systems and Networks (CIComms), 2013 IEEE Symposium on, April 2013, pp. 10–17. [3] ITU-T, “Gigabit-capable passive optical networks (gpon).” 2003. [Online]. Available: https://www.itu.int/rec/T-REC-G/en [4] W. Zhaoqing, “Research on the application of gpon technologies,” in Multimedia and Signal Processing (CMSP), 2011 International Conference on, vol. 2, May 2011, pp. 61–63. [5] P. Brandao Harboe and J. Souza, “Passive optical network: Characteristics, deployment, and perspectives,” Latin America Transactions, IEEE (Revista IEEE America Latina), vol. 11, no. 4, pp. 995–1000, June 2013. [6] ITU-T, “Recommendation g.984.1. (03/2008), gigabit-capable passive optical networks gpon): General characteristics.” 2008. [Online]. Available: https://www.itu.int/rec/T-REC-G.984.1-200803-I/en [7] D. Hood and E. Trojer, Gigabit-capable Passive Optical Networks, 1st ed. John Wiley & Sons, April 2012. [8] M. Goldbarg and H. Luna, Otimização combinatória e programação linear: modelos e algoritmos. Campus, 2000. [9] R. Carpio and L. dos Santos Coelho, “Optimization and modeling in the co-processing of wastes in cement industry comprising cost, quality and environmental impact using sqp, genetic algorithm, and differential evolution,” in Evolutionary Computation, 2006. CEC 2006. IEEE Congress on, 2006, pp. 1463–1468. [10] M. Bazaraa, H. Sherali, and C. Shetty, Nonlinear Programming: Theory and Algorithms, 3rd ed. Wiley, 2006. [11] J. Tanomaru, “Motivação, fundamentos e aplicações de algoritmos genéticos,” in II Congresso Brasileiro de Redes Neurais, Oct/Nov 1995, pp. 1–31. [12] J. Díaz, J. Petit, and M. Serna, “A survey of graph layout problems,” ACM Comput. Surv., vol. 34, no. 3, pp. 313–356, Sep. 2002. [13] T. Cormen, C. Leiserson, R. Rivest, and C. Stein, Algoritmos: teoria e prática, 2nd ed. Elsevier, 2002. [14] H. Juzoji, I. Nakajima, and T. Kitano, “A development of network topology of wireless packet communications for disaster situation with genetic algorithms or with dijkstra’s,” in Communications (ICC), 2011 IEEE International Conference on, June 2011, pp. 1–5. [15] R. Linden, Algoritmos Genéticos, 2nd ed. BRASPORT, 2008. [16] T. Villalba, S. Rossi, M. Mokarzel, M. Salvador, H. A. Neto, A. Cesar, M. Romero, and M. de L. Rocha, “Design of passive optical networks using genetic algorithm,” in Microwave and Optoelectronics Conference (IMOC), 2009 SBMO/IEEE MTT-S International, November 2009, pp. 682–686. [17] N. Malaquias, “Uso dos algoritmos genéticos para a otimização de rotas de distribuição,” Master’s thesis, Faculdade de Engenharia Elétrica, Universidade Federal de Uberlândia, dezembro 2006.


Plataforma Web de Projeto para Cálculo de Rádio enlace F.E.S. Pereira e C. S. N. Rios Abstract—  The radio frequency is used a lot, even today, for performing communication between distant points. This communication is usually performed by equipment that are handled by professionals who specialize in the area and have enough time to carry out the design and installation of infrastructure knowledge. In a radio project several calculations in order to obtain sufficient parameters that show the exact conditions of installation and operation of the communication system link are performed. These calculations should be considered as a key to the communication system design stage. This project aims to develop a software radio link, which performs all the necessary computation part in a radio link project as a way of assisting the professional in the area specializing in telecommunications for the realization of the communication system. Keywords— Radio link, microwave, software engineering.

I. INTRODUÇÃO

O

s sistemas de rádio enlace atuam como ponto fundamental para a interligação de backbones na rede de uma cidade, estado ou mesmo país, seja ela telefonia fixa, telefonia móvel ou transferência de dados, como voz ou vídeo. Todas essas tecnologias de transmissão de dados têm que passar por um backbone responsável em difundir essas informações seja ela para a internet ou mesmo para uma rede privada, como por exemplo, a rede de uma concessionária telefônica. Para que seja possível estabelecer um enlace entre dois pontos, vários fatores devem ser levados em consideração. Segundo o ITU-R, vários efeitos de propagação dever ser considerados no projeto de um sistema de radiocomunicação. Dentre eles a difração do sinal devido a obstruções entre o enlace, a atenuação do sinal devido a influência dos gases atmosféricos, o desvanecimento do sinal devido aos múltiplos caminhos atmosféricos ou feixe de espalhamento (normalmente chamado de desfocaguem) associada a camadas de refração anormal, atenuação devido as partículas da chuva ou partículas sólidas na atmosfera, a variação do ângulo de chegada no terminal receptor e variação do ângulo de lançamento no terminal transmissor devido a refração, e por fim a distorção do sinal devido ao desvanecimento seletivo de frequência e a duração do delay no percurso percorrido pelo sinal entre os enlaces. As principais aplicações de enlaces rádio são, rede de transporte das operadoras de telefonia fixa e celular, onde eles são muito utilizados na interligação de ERBs com as CCCs. A radio frequência é muito utilizada, ainda hoje, pois realizar a comunicação entre pontos distantes. Essa  F. E. S. Pereira, Instituto Federal do Ceará (IFCE), Fortaleza, Ceará, Brasil, estevaosimaop@gmail.com. C. S. N. Rios, Instituto Federal do Ceará (IFCE), Fortaleza, Ceará, Brasil, clauson_rios@yahoo.com.br.

comunicação é geralmente realizada por equipamento que são manipulados por profissionais especializados na área e que tem conhecimento suficiente para realizar o projetos e instalação da infraestrutura. Em um projeto de rádio enlace são realizados diversos cálculos com o objetivo de obter parâmetros suficiente que mostre as condições exatas de instalação e funcionamento do sistema de comunicação. Esses cálculos devem ser considerados como uma etapa fundamental ao projeto do sistema de comunicação. Estes projeto visa o desenvolvimento de um software de radio enlace, que realiza toda a parte de cálculo necessária em um projeto de radio enlace, como forma de auxiliar o profissional especializado na área em telecomunicações para realização do sistema de comunicação. O projeto faz um estudo de caso a partir da análise dos dados que serão coletado da plataforma web que vem sendo desenvolvida para que com esses dados seja possível realizar a instalação, manutenção dentre outras funcionalidades da plataforma. II. METODOLOGIA Este projeto tem como principal foco mostrar o funcionamento da plataforma web desenvolvida a partir de experimentos com dados reais coletados com base na análise de desempenho do software. A metodologia utilizada será baseada da fundamentação teórica realizada. A. LEVANTAMENTO TOPOGRÁFICO Uma das principais etapas de um projeto de rádio enlace é o levantamento topográfico. Nesta etapa são identificados fatores primordiais que permanece no projeto até a sua fase final. Um levantamento topográfico[1] é um conjunto de operações com a finalidade de determinar a posição relativa de pontos na superfície terrestre. Essas informações serão usadas para realizar a localização das estações, para saber o perfil topográfico entre os enlace e a partir dessa informação determinar a altura das estações, altura das antenas dentre outros fatores. Com base no levantamento topográfico pode-se realizar a escolha do mapa, cálculo do azimute e elevação, é realizado determinação da localização das estações dentre outros fatores importante em um projeto de calculo de rádio enlace. B. PRINCÍPIO DE PROPAGAÇÃO As ondas de rádio, são ondas eletromagnéticas que se propagam entre as antenas transmissoras e receptoras de uma estação. As antenas transmissoras transformam as variações de tensão e corrente em ondas eletromagnéticas, capazes de se propagarem no espaço. Essa propagação faz com que as informações que estão sobre essas ondas sejam capaz de chegar até uma estação receptora em uma determinada distância de seu transmissor. Com base no


estudo dos princípios de propagação é possível identificar e se calcular a frente de onda e polarização. C. MODELO DE PROPAGAÇÃO Quando o nível de um sinal não pode ser medido com equipamentos próprios em um receptor, ele pode ser calculado por meio de técnicas matemáticas que tentam, por aproximação, simular o comportamento das ondas eletromagnéticas durante a propagação em um determinado meio. O modelo que será utilizado nesse projeto é o modelo do Espaço Livre. Este modelo de propagação é usado para fazer uma suposição da intensidade com a qual um sinal transmitido chega ao seu receptor, quando as duas pontas do enlace apresentam entre elas uma linha de visada não obstruída por nenhum obstáculo. Sistemas de comunicação via satélite e enlaces de microondas utilizam, tipicamente, a propagação no espaço livre como modelo para cálculo da potência recebida. O modelo diz que a potência que chega ao receptor decai à medida que a distância de separação entre o transmissor e o receptor aumenta. Além disso, fatores como o ganho de ambas as antenas, potência transmitida e perdas sofridas durante a propagação influenciam diretamente no cálculo da intensidade do sinal que é recebido [12]. (1) A equação acima traz a solução para o cálculo da atenuação em espaço livre. D. REFRATIVIDADE, OBSTRUÇÃO, REFRAÇÃO E ATENUAÇÃO A refração atmosférica é baseada a partir do conceito de refração entre dois meios. Se um feixe luminoso incidir sobre uma superfície de água em repouso, como na figura 35. Observa-se que parte do feixe de luz incidente será refletido e parte penetrará na água. Esse fenômeno de penetração do feixe, segundo um outro ângulo, chama-se refração e pode ser facilmente verificado pelo exame de um copo no qual se tenha mergulhado uma colher. Vista de determinado ângulo a colher parece ter quebrado a partir do ponto em que penetra na água. Nas camadas da atmosfera ocorre a mesma reação. Na propagação através da atmosfera observa-se uma curvatura do feixe de microondas no plano vertical, conforme apresenta a figura 36 devido a sucessivas refrações que o mesmo sofre. E assim é gerado uma feixe que acompanha a curvatura da terra, o que possibilita maiores distâncias entre enlaces. O estudo do Elipsóide de Fresnel, do Critérios de Desobstrução e da Reflexão, têm uma fundamental importância pois possibilita a real projeção de um enlace de rádio entre pontos, fazendo com que atenuação e reflexões sejam tratadas. O estudo das zonas de Fresnel trouxe para os sistema de rádio enlace um novo cenário, na qual tem-se uma precisão em que sentido a onda poderá propagar prevendo algumas situações reais. Para que se possa entender sua função, consideraremos uma fonte ideal, produzindo algumas ondas numa determinada frequência. Conhecer o elipsoide que elipsoide de Fresnel é de fundamental importância para a realização de um enlace de rádio. Sendo assim, faz-se necessário conhecer tanto a correção do terreno como também o valor do raio de Fresnel. Com o cálculo da correção do terreno obtém-se o incremento que a altitude deverá sofrer devido a curvatura da Terra.

A onda irradiada pela antena se propaga através do espaço, transportando a energia necessária ao estabelecimento da estação receptora. As condições de propagação dessa onda dependem apenas do meio de transmissão. No estudo do mecanismo real de propagação, deve-se considerar todas as influências possíveis que esse meio possa sofrer.

Figura 2. Principais Perdas e Ganhos.

A perda de percurso formada pela somatória total de perdas existentes entre o equipamento transmissor e o receptor. A figura 2 mostra de modo geral as principais perdas e ganhos de um sistema de rádio enlace. A equação (2) descreve a perda de percurso descrevendo algumas principais perdas.

(2) Onde, é a perda de percurso. é a atenuação de espaço livre para antenas isotrópicas. e , representam a atenuação dos filtros RF. e , representam a atenuação dos Guias de Ondas e alimentadores. e , representam o ganho das antenas. III. PROGRAMA E FUNCIONAMENTO O Plataforma para cálculo de sistema de rádio enlace foi implementada com o intuito de auxiliar os profissionais de telecomunicações em projetos de Rádio enlace. Essa plataforma visa mostrar os principais parâmetros que são utilizado em projetos de Rádio enlace. Assim, pode-se compreender que a plataforma veio para auxiliar o projetista, lhes dando valores confiáveis para que a implementação real seja possivelmente otimizada e correta. Sabe-se que em projetos de sistema de rádio enlace são necessário a realização de diversos tipos de cálculos como posição, azimute, contra-azimute, distancia entre enlaces, altura das estações, alturas da antes, dentre outros valores que deve ser calculados. Contudo, se faz necessário o conhecimento da estrutura de um projeto de rádio enlace. Logo, para que o projetista entenda o funcionamento da plataforma, é de extrema importância que tenha conhecimento especifico na área de telecomunicações. A plataforma foi desenvolvida em Java web, baseada em conjunto de bibliotecas da API primeface. Baseado nesta API foi possível desenvolver desde a criação de formulários, painéis, e toda a parte visual da plataforma. Foi utilizado também uma tecnologia de desenvolvimento web chamada JSF e JPA. O JSF é uma tecnologia útil e pratica de ser aplicada. Ele apresenta a diversas maneiras de se fazer a estruturação da aplicação. Já o JPA é um conjunto de especificações responsável pelo comportamento de uma implementação. Através é possível realizar a comunicação entre a aplicação e o banco de dados. Nesta aplicação foi utilizado a classe hibernate para se fazer essa comunicação. o


Banco de dados utilizado foi o PostgreSQL. A. DIAGRAMA DE USO Para a utilização da plataforma deve-se seguir alguns passos fundamentais para que seu funcionamento não seja prejudicado. Primeiramente deve-se realizar o cadastro das estações que serão utilizadas no projeto. E logo depois deverá ser realizado o cadastro do perfil topográfico obtido a partir do sistema da Anatel(Agência nacional de Telecomunicações) que contém todas as elevações e topologias naturais do relevo entre as estações que serão utilizadas no projeto. A tela inicial da plataforma é possível calcular a distância entre as estações, calcular o ângulo de azimute e contra-azimute. Também será possível realizar o cálculo da altura das antenas e o cálculo da primeira zona de Fresnel. Logo após é possível gerar o gráfico que mostrará o perfil carregado, o perfil corrigido e também o raio de Fresnel na altura das antenas calculadas. Após realizado o cadastro das estações e o cadastro do perfil topográfico. O projetista deverá voltar a página inicial para iniciar os primeiros cálculos do projeto de rádio enlace. Conforme mostra a figura 3, o projetista deve selecionar a estação TX (Transmissora ou Estação A) e estação RX (Receptora ou Estação B). Com as opções de Estação TX e RX preenchidas. Passaremos a preencher as informações da aba DADOS DE ARQUIVOS CARREGADO, Dados, onde o projetista informará a frequência a ser utilizada no sistema, o Fator K0.1%(K mínimo) e a sugestão da altura da antena para que assim seja calculada a altura da antena que melhor se enquadrar no sistema, conforme figura 4. E só então pode-se pressionar o botão "CARREGAR ESTAÇÕES" e assim ser realizado todos os cálculos iniciais. Figura 3. Selecionar as estações Tx e Rx na Plataforma.

Figura 3. Dados Para preenchimento.

Com esses dados preenchido, será possível realizar o carregamento das estações selecionadas e a visualização dos resultados dos cálculos realizados, pressionado o botão Carregar Estações. Lembrando que a distância entre os enlaces é dada em kilômetros, as longitudes e latitudes em graus decimais, altura das antenas em metros e frequência deve ser informada em GHz. Ainda da Tela Inicial, após realizado o carregamento e calculo dos parâmetros citados, pode-se pressionar o botão

de Calcular a Altura das Antenas. Com isso será realizado o cálculo da altura da antena B. Como método de limitação e praticidade, a plataforma apenas realizada a elevação do raio de Fresnel após a diferença entre as alturas das antena seja menor que 20 metros. Assim o projetista poderá utilizar de seus conhecimentos teóricos podendo utilizar uma diferença entre as alturas até este valor. Realizando todo esse procedimento inicial, o gráfico que mostra os resultados dos cálculos realizados pelo sistema, mostra o perfil carrega, o raio de Fresnel já de acordo com as alturas calculadas das antenas. Para cadastro do perfil topográfico foi desenvolvida a tela para carregamento do perfil. Esta tela pode ser acessada pelo menu na parte superior da tela. E tem uma importante função para o projeto do sistema de rádio enlace. Nela é possível carregar o arquivo ".txt" gerado pelo Siganatel, ou seja, nesse arquivo esta contido todas as elevações de um ponto a outro. Assim pode-se conhecer todo o relevo natural entre os enlace. No entanto, nem sempre entre dois ponto existem apenas relevos naturais. Atualmente sabe-se que com o crescimentos do desenvolvimento há também a criação de diversas construções que podem ser um ponto crucial em um projeto de rádio, fazendo com que ocorre obstrução na linha de visado entre as antenas das estações. Neste contexto, a plataforma traz uma alternativa de alteração do relevo para casos que ocorra essas mudanças notórias sobre o relevo estudado. A próxima parte da plataforma é reservado para a realização dos cálculos de balanço de potência. Esses cálculos são responsáveis em analisar o desempenho do sistema projetado. Na tela de balanço de potência é possível a realização, do cálculo das atenuações de perda de percurso, como atenuação devido a guia de onda, filtros de rádio frequência, atenuação de espaço livre e atenuação por obstrução. Também será possível fazer a análise da atenuação pluviométrica, como o cálculo das polarizações e por fim é nesta tela que poderá ser calculado a potência de recepção. Nesta etapa será necessário informar a plataforma os valores das atenuações como: No guia de Onda: Tipo de Guia de Onda, Atenuação do Guia de Onda, Tamanho do Guia de Onda, Tipo de Conectores Utilizados, Atenuação dos Conectores, Quantidade de Conectores. Na Atenuação de Espaço livre deve-se informar: Distância do Enlace, Frequência Utilizada no Sistema, Fator K. Na atenuação por Obstrução: Distância entre enlaces, Distância do obstáculo à estação 1, altura da estação A, altura da estação B, raio médio da terra, percentual do raio de Fresnel, altura do obstáculo. Nos Filtros RF: Atenuação dos filtro no transmissor e atenuação dos filtros no receptor. De posse destes valore pode-se pressionar no botão "Calcular Potência de Recepção". Realizando assim os diversos cálculos das atenuação chegando assim em um valores de Potência de recepção procurado. IV. RESULTADOS E CONCLUSÕES Para se obter os resultados deste trabalho foi realizado um estudo de caso entre duas localidade e a partir


dos valores obtidos serão analisados os resultados. Como passo inicial foram definidos os locais onde serão instalada as estações. E dessa forma, foi realizado o levantamento do topografia do relevo da área entre os enlaces. A. ENLACE Neste enlace será feito o comunicação entre as cidades de Pedra Branca e Senador Pompeu, que se distanciam a aproximadamente 49km. O levantamento topográfico foi extraído do Sistema SigAnatel e carregado na plataforma de cálculo de Rádio Enlace. Considera-se portanto que, após uma levantamento aéreo na região foi observado que existe, especificamente na distância de 14,040 km da estação TX, uma edificação com uma altura aproximada de 100 metros acima do relevo já conhecido. Alterando-o de 561 metros para 631 metros. Essa nova altitude no relevo faz com o perfil da topologia tenha que se alterar a essa nova realidade. Assim, a plataforma é capaz de realizar o cálculo do enlace de rádio se baseando nessa topologia acima do relevo natural. Essa possibilidade diminui o transtorno de um projetista que não observou essa alteração existente no meio do enlace e assim acaba por ter que gastar bem mais após a instalação do sistema e verificação do seu não funcionamento. Após essa definição foram carregados as estações em cada lado, Estação TX e Estação RX, e realizado o cálculo do azimute, contra azimute e altura máxima do enlace, que coincidentemente foi definida na posição 14,040 km da estação TX. Cujos valores são de acordo com a Tabela I. TABELA I Dados Distância:

49.7712850929799 8

Azimute:

99.70197236399738

Azimute-¹:

279.701972363997 36

Latitude TX:

-5.488611111111111

Longitude TX:

39.8372388888888 9

Latitude RX:

-5.563888888888889

Longitude RX:

39.3938888888888 9

Fator 0.1%:

Fator K 50%:

4/3

Altura Máxima do Enlace:

Distancia: 14040.0 m Altura: 668.2654317861713m

Frequência Utilizada:

10

Altura da Antena A:

175.00

Altura da Antena B:

K

1.06

174.24796531702475

Para os cálculos do Balanço de Potência consideremos os seguintes critérios. Foi utilizado uma antena Andrew do tipo parabólica, com ganho de 32 dBi com uma relação frente costa de 25dB, XPD de 30dB e VSWR de 1,3. E em relação ao Rádio transceptor, foi utilizado uma rádio com potência de transmissão de 30dBm, modulação QAM 32, uma Taxa de transmissão 16Mbps, Roll-Off de 0,15, limiar recepção de -90dBm e a frequência a ser utilizada será 10GHz. O guia de onda que foi utilizado para realizar o teste foi o Guia de Onda Oco Andrew, com uma atenuação de 4,3db/100m, e utilizamos conectores com atenuação de 0,1dB. E por fim as atenuações dos filtros será de 3,4dB. Com essas informações foi possível realizar os cálculos e

assim obter valores reais do projeto de Rádio Enlace. Sendo então o Valor da Atenuação do Espaço calculado em 146,33 dB, a atenuação da perda de percurso total em 167,78, a atenuação por obstrução em 0 dB, pois para enlaces acima de 2,5 Ghz essa atenuação é irrelevante. E por fim, é realizado o cálculo da potência de recepção em -73,7892 dBm. O que nos dá uma margem recepção em aproximadamente 20 dBm. A taxa pluviométrica é calculada logo após o cálculo da potência. Consideremos um valor de 30mm/h para 0.01% do tempo. Assim obtemos os valores dos resultados conforme tabela abaixo. TABELA II Análise de Atenuação Pluviométrica Taxa Pluviométrica:

30 mm/h

Polarização Horizontal:

0.8753459113442282 dB/Km

Polarização Vertical:

0.7051516706235003 dB/Km

REFERÊNCIAS [1] ANTUNES, CARLOS. LEVANTAMENTOS APONTAMENTOS DE TOPOGRAFIA. Lisboa, 1995.

TOPOGRÁFICOS,

[2] CARVALHO, Edilson Alves de. Leituras cartográficas e interpretações estatísticas I : geografia / Edilson Alves de Carvalho, Paulo César de Araújo. Natal, RN: EDUFRN, 2008. 248 p. [3] CARVALHO, Johnderson Nogueira de. Propagação em áreas urbanas na faixa de UHF Aplicação ao planejamento de sistemas de TV digital. Pag. 31, 32. – Rio de Janeiro : PUC, Departamento de Engenharia Elétrica, 2003. [4] CCIR Recommendation 556 Hypothetical Reference Digital path for radiorelay systems which may form part of an integrated services digital network with a capacity above the second hierarchical level. Vol IV-1 Drubovnik, 1986. [5] CCIR Recommendation 557. Availability Objective for a hypothetical reference curcuit and a hypothetical reference digital path. Vol IV-1 Drubovnik, 1986. [6] CCIR Recommendation 563-3. Radiometeorological Data. Vol V. Drubovnik, 1986. 7. CCIR Recommendation 445. Drubovnik, 1986. [8] ITU-R - Internacional Telecommunication Union. P.530-15-Propagation data and prediction methds required for the design of terrestrial line-of-sight systems. Genebra: Electronic Publication, 2013. [9] ITU-R - Internacional Telecommunication Union. F.634-4. Error Performance Objectives for real digital-relay links forming part of the highgrade portion of international digital connections at a bit rate below the primary rate within an integrated services. Genebra: Electronic Publication, 2004.. [10] ITU-R - Internacional Telecommunication Union. Rec. G. 821 do UIT-R. Genebra: Electronic Publication, 2013. [11] ITU-R - Internacional Telecommunication Union. P.837-6 Characteristics of precipitation for propagation modelling. Genebra: Electronic Publication, 2013. [12] ITU-R - Internacional Telecommunication Union. P.838-3 Specific attenuation model for rain for use in prediction methds. Pag.5, 6, 7, 8.Genebra: Electronic Publication, 2013. [13] MELLO, Luiz A. R. da Silva. Apostila de Rádio Propagação. CETUC, maio, 2000. [14] NOÇÕES SOBRE GERAÇÃO, TRANSMISSÃO, PROPAGAÇÃO E RECEPÇÃO DAS ONDAS ELETROMAGNÉTICAS E ACÚSTICAS. Acessado em: 06/06/2014. Disponível: http://www.mar.mil.br/dhn/bhmn/download/cap-34.pdf. Pag.: 1227. [15] RIOS, Clausson Sales d. N. Planejamento de Rádio Enlaces. Fortaleza: outubro, 2006. Pag. 8. [16] GARCIA, Nelson Alexander Pérez. Modelamento de Efeitos de Atenuação por Chuvas em Enlaces Terrestres Ponto-a-ponto e Pontomultiponto. Rio de Janeiro: PUC, Departamento de Engenharia Elétrica, 2003. Pág. 1. [17] PARSONS, J. D., The Mobile Radio Propagation Channel, 2ndEdition, 2000.


Robô Terrestre para Telemetria Comandado por Dispositivo Móvel Android Priscylla da Silva Tavares¹,

Elias Teodoro da Silva Júnior²

¹Graduanda em Engenharia de Computação ¹Instituto Federal de Educação, Ciência e Tecnologia do Ceará- IFCE - Campus Fortaleza ¹Fortaleza, Brasil ¹priscyllatavares@gmail.com

²Professor Doutor, Departamento de Telemática ²Instituto Federal de Educação, Ciência e Tecnologia do Ceará - IFCE - Campus Fortaleza ²Fortaleza, Brasil ²elias@ifce.edu.br

Abstract— There are several dangerous environments to human with toxic gases, high temperatures, high pressure. One of the solutions to this problem is to send robots, instead of a human, to sense this environment and to prevent any harm to them. Or even, only to avoid unnecessary displacement to that environment. The robot would be responsible for collecting data from an environment with sensors attached to it. Then, the robot would bring this information to the base that would analyze the collected data. For this application, the user would have to control the robot remotely, avoiding its exposure to an environment with unknown characteristics. This paper presents the development of a terrestrial mobile robot for the telemetry of environments. This robot would consist of a structure with DC motors and wheels and a printed circuit board, to make the communication between the components of the robot and the Arduino Mega 2560 board, based on the ATmega2560 microcontroller, which will control the system. The robot would be remotely controlled by an application on an Android mobile device via Bluetooth wireless communication. The results of this project are shown in this paper. Keywords— mobile robot; Arduino Platform; Android OS; Bluetooth; telemetry; embedded system.

I.INTRODUÇÃO A tecnologia tem avançado rapidamente nas últimas décadas e vários dispositivos estão sendo desenvolvidos para facilitar a vida do homem. Robôs são exemplos de equipamentos pensados para realizar essas tarefas pelo homem de maneira precisa e não necessitam de condições especiais de segurança como os humanos [1]. Uma das modalidades de robôs é o móvel. Devido a sua capacidade de locomoção podem chegar a diversos tipos de lugares e serem utilizados em inúmeras aplicações como na área de entretenimento, segurança, transporte, e exploração de ambientes, que, inclusive, podem oferecer algum risco à vida humana, como lugares onde há presença de alta temperatura, gases tóxicos ou ausência de oxigênio, e alta pressão [2]. Robôs terrestres controlados remotamente são ferramentas importantes para auxiliar em tarefas que oferecem algum perigo [3]. Eles evitam a exposição do usuário a ambientes com características desconhecidas ou, até mesmo, evitam seu

deslocamento desnecessário ao local a ser monitorado. Para tal aplicação, esse robô seria responsável por coletar dados de um ambiente com sensores conectados a ele. Em seguida, ele iria trazer essas informações para a base que iria analisar os dados coletados. Posteriormente, serão apresentados alguns trabalhos similares. Com o intuito de medir grandezas à distância foi desenvolvido o sistema proposto. O sistema consiste em um robô para auxiliar na telemetria [4] de um ambiente comandado por um aplicativo em um dispositivo móvel Android via comunicação sem fio Bluetooth. Assim, ele auxiliaria em tarefas de exploração que venham a ser executadas em ambientes hostis ou não. Essa solução é prática e de fácil mobilidade do equipamento, pois somente é necessário um dispositivo com Sistema Operacional Android e o robô com sensores. Embora sensoriamento remoto seja o foco desse estudo, esse robô móvel pode ser objeto de inúmeras aplicações, inclusive entretenimento, devido à comunicação Bluetooth, tecnologia que está presente em milhões de dispositivos como: computadores, celulares, relógios, produtos da área médica e produtos esportivos [5]. II.TRABALHOS RELACIONADOS Alguns projetos similares já foram desenvolvidos, porém eles se distinguem desse trabalho em alguns aspectos. Em [6] foi apresentado um veículo teleoperado, o qual aproveitou parte da estrutura de um carrinho. A comunicação sem fio em estudo foi a tecnologia ZigBee [7], que permite maior distância entre o veículo e a base de comando, além de comunicação com rede de sensores sem fio para colhimento de dados desses sensores. Segundo testes efetuados pelos pesquisadores desse projeto, essa distância é cerca de 1,2 km e foi usado o módulo Xbee Pro S2B. Para haver a comunicação entre a base de comandos e o veículo é necessário um computador mais placa com módulo Xbee. No projeto sugerido no presente trabalho usamos a tecnologia Bluetooth para possibilitar a conexão com smartphones, nos quais será instalado um aplicativo para enviar comandos ao robô. Essa conexão entre o aparelho e o robô, fazendo-se uso do módulo Bluetooth ZT-05 junto ao mesmo, funciona em até cerca de 70m. Nesse modelo, o sistema extrai dados através de sensores que são agregados ao próprio robô.


Outro trabalho encontrado para robôs móveis utilizando o Bluetooth como meio de comunicação sem fio foi o [8]. O aplicativo para o aparelho móvel desse sistema foi desenvolvido em J2ME (Java 2 Micro Edition), que é uma plataforma Java para dispositivos móveis [9]. A estrutura de locomoção do robô móvel de [8] é bem parecida com do robô do nosso projeto, composto de duas rodas laterais e um apoio traseiro. No final do artigo, foi citado que uma câmera sem fio com giro efetuado por um motor de passo foi acoplada ao sistema para recepção de imagens. O sistema proposto nesse artigo se difere do trabalho acima por apresentar aplicação atual voltada para medição de características do ambiente à distância e por utilizar a plataforma de desenvolvimento Android, que será descrita posteriormente.

sistema de locomoção com 3 motores DC e 3 rodas omnidirecionais. Cada motor DC é monitorado por um encoder óptico, conectado a um motoedutor e roda omnidirecional, que possui roletes permitindo o robô se deslocar na direção perpendicular ao eixo do motor e sem grande atrito. Em cima do robô está a placa mãe, com o microprocessador MSP430 que controla o sistema e, na parte inferior do robô, também há uma placa Driver, para o acionamento de potência dos motores e recebimento das informações dos encoders. Para comunicação entre o robô e o usuário que poderá controlá-lo, há um transceiver conectado à placa mãe e outro na rádio base conectado ao computador do usuário. Além disso, para cobrir essa estrutura, ele apresenta uma capa com sensores infravermelhos.

III.VISÃO GERAL DO SISTEMA Para a pesquisa desenvolvida, foram necessários alguns materiais: placa da Plataforma Arduino baseada no microcontrolador ATmega2560 [10], a IDE (Integrate Development Environment) da Plataforma Arduino, a placa de circuito impresso para adaptação entre placa Arduino e o robô, motores DC, rodas omnidirecionais, um osciloscópio, uma fonte de tensão, pilhas AA, módulo Bluetooth, dispositivo móvel com Sistema Operacional Android e sensores. Além disso, alguns conceitos de robótica foram abordados para o entendimento do trabalho como: a modulação por largura de pulso e o encoder óptico integrado às rodas. A. Placa de Desenvolvimento Arduino Mega 2560 Com a finalidade de tornar o projeto mais produtivo e desenvolvê-lo em um tempo mais reduzido, foi utilizada a placa da plataforma Arduino, que é Open Source, baseada no microcontrolador ATmega2560. O ATmega2560 [11] é um microcontrolador que oferece vários recursos para o trabalho atual e para possíveis melhoramentos em trabalhos futuros, como: 256 KB de Memória Flash, dos quais 8 KB são usados pelo bootloader da placa, 4KB de EEPROM, 8KB de SRAM, oscilador de 16MHz, 54 pinos I/O, dos quais 15 podem ser saídas PWMs (Modulação por Largura de Pulso), que são necessárias para o controle das rodas do robô, 6 timer/counter que irão auxiliar na contagem de alguns dados, 4 UARTs(Universal Asynchronous Receiver Transmitter) para comunicação serial com outros dispositivos e, um desses canais, é utilizado para fazer uma interface virtual da porta COM no computador que, em conjunto com o bootloader préinstalado, dispensa gravadores externos. Além disso, o microcontrolador apresenta interface I²C, SPI, RTC e um Watchdog Timer. Como essa placa apresenta o regulador de tensão AMS1117 [12] com entrada de tensão limite de 15V, e pinos de saída de 5V, esses recursos são reutilizados para complementar Placa de Circuito Impresso (PCB) a ser confeccionada. B. O Robô Curumim O robô utilizado no sistema foi reutilizado da plataforma de pesquisa Robô Curumim [13], o qual tem arquitetura aberta e objetivo de promover o aprendizado na área de robótica. O robô Curumim, ilustrado na Fig. 1, criado pela XBot, apresenta

Fig. 1. Robô Curumim

C. A Placa de Adaptação do Sistema Com o objetivo de ter um melhor controle do sistema, para essa aplicação específica, foi retirada a placa mãe do Curumim e confeccionada uma nova placa de circuito impresso. Essa placa de adaptação serve de interface entre a placa Arduino Mega 2560, que contém o microcontrolador do sistema, e o que foi reaproveitado do robô Curumim: a placa Driver, os motores DC, as rodas omnidirecionais e os encoders, resultando na estrutura da Fig. 2.

Fig. 2. Robô com placa de adaptação, Arduino Mega e módulo Bluetooth.

A PCI utilizada no projeto foi projetada utilizando a ferramenta Altium Designer. Como no esquemático da Fig. 3, ela apresenta headers PMAE_CON1 e PMAE_CON2, na sua parte inferior, para comunicação com a placa Driver reutilizada do Curumim, um inversor schmitt-trigger SN7414N [14], que


recebe informações do encoder vindas da placa Driver, e pinos para que a placa Arduino Mega 2650 possa ser encaixada e conectada. O Arduino Mega recebe os sinais do encoder que passaram pelo SN7414N e envia o PWM para o robô pelo header PMAE_CON2. Nesta placa, também foi incluído um header para conectar um módulo Bluetooth, a ser utilizado para comunicação sem fio com o robô.

Fig. 4. Modulação por Largura de Pulso na Plataforma Arduino. Fonte:[16] Fig. 3. Parte do esquemático da placa de adaptação

D. Alimentação Para um bom funcionamento, o robô necessita de uma alimentação de aproximadamente 12V para os motores e 5V para alimentação de alguns periféricos, circuitos integrados e a placa Driver do robô. Para o funcionamento do sistema na fase de ensaios e para mantê-lo bem controlado, a placa recebia alimentação da fonte de tensão, e para fazer alguns testes garantindo a mobilidade do robô foram utilizadas 12 pilhas recarregáveis AA de Ni-Mh de 1.2V conectadas em série, que fornecem uma tensão inicial de 14.4V e corrente nominal de 2500 mA/h. Para complementar a administração da alimentação, como parte da PCI da Fig. 3, também há um acionamento manual de ligar e desligar o robô, LED para indicar se o robô está ligado, e conectores para receber a alimentação da pilha para a placa e para o conector de alimentação da placa Arduino Mega. E. A Modulação por Largura de Pulso nos Motores Modulação por Largura de Pulso (PWM) é uma técnica que consiste em variar o ciclo de trabalho de uma onda quadrada, relação entre o seu tempo em nível alto e o período, para variar o valor médio de uma tensão [15]. É utilizado, normalmente, para controlar de motores DC ao brilho de LEDs. Esse resultado é obtido, na Plataforma Arduino, por exemplo, a partir da mudança de sinal de tensão 0V para uma tensão de 5V em um determinado período de tempo. Quanto maior o tempo médio do sinal em 5V, maior a potência no dispositivo controlado, aumentando a velocidade, no caso do motor DC, e aumentando o brilho, no caso de LEDs. No caso do atual projeto, que utiliza o microcontrolador ATmega2560, o PWM é enviado aos motores pelos pinos de PWM através da função analogWrite(), passando valores de 0 a 255, de acordo com o duty cycle requerido, como apresentado na Fig. 4.

F. O Encoder Com a finalidade monitorar o movimento rotacional das rodas do robô, faz-se utilização de um encoder óptico. Um encoder é um dispositivo que permite medir a velocidade e posição de um objeto. Como ilustrado na Fig. 5, o encoder óptico pode ser um disco com partes de tamanhos similares, que deixam passar luz e outras partes opacas [17]. Assim, de um lado do disco fica um emissor de luz e do outro lado do disco um receptor de luz. Com o movimento do disco, por exemplo, conectado a um motor, serão gerados pulsos, com freqüência de acordo com sua velocidade, que podem ser contados pelo microcontrolador do projeto. Com esse mecanismo, conseguimos controlar a velocidade do robô no firmware para ele se deslocar pelo ambiente da maneira desejada.

Fig. 5. Encoder Óptico. Fonte: [18]

G. O Bluetooth O Bluetooth é uma tecnologia sem fio com especificação aberta, baixa energia e baixo alcance comparado com outras tecnologias sem fio, para comunicação de voz e dados em qualquer lugar, pois atua na banda de operação ISM (Industrial, Scientific and Medical) a RF 2.4-GHz que está disponível para aplicações e dispositivos em diferentes segmentos do mercado [19]. A Tabela I a seguir mostra suas características mais detalhadamente.


TABELA I. CARACTERÍSTICAS DO BLUETOOTH Característica Tipo de Conexão Espectro Poder de Transmissão Taxa máxima de dados Alcance Dispositivos suportados Endereçamento Canais de Voz

Bluetooth Propagação de espectro, esférico RF 2.4 Ghz 10 - 100 mW 3 Mbps 10 - 100m 8 ativos(sendo um master e 7 slaves) e 200 passivos MAC de 48-bit Sim

A comunicação Bluetooth foi escolhida, pois é uma das comunicações sem fio mais utilizadas, com grande número de aparelhos com essa interface, apresenta bom alcance de conexão e transferência de dados, além de pouca complexidade para se obter a conexão entre diferentes dispositivos com a tecnologia. No presente trabalho, utilizamos o Módulo Bluetooth de modelo ZT-05 do fabricante Zuchi integrado à placa de circuito impresso do robô para ser possível a comunicação sem fio. Esse módulo pode operar no modo Master e Slave e sua versão Bluetooth é a 2.0+EDR. A comunicação se dá via UART e, por causa da placa Conversora Bluetooth/Serial Zuchi à qual o módulo Bluetooth foi integrado, como mostrado na Fig. 6, podemos alimentá-lo com 3.3V a 5V. No código de controle do sistema carregado no microcontrolador ATmega2560, foi utilizada a taxa de transmissão de 9600 bps, na qual o módulo Bluetooth opera, para ser possível a comunicação e correta interpretação entre esse microcontrolador e o módulo. Assim, as informações enviadas pelo dispositivo móvel com Android são corretamente recebidas pelo ATMega2560 e é tomada a decisão da ação que o robô deve executar.

várias tecnologias integradas como GPS, Bluetooth, câmera, devido a seu barateamento. Segundo [22], quando comparado ao J2ME, o Android permite o acesso aos componentes do dispositivo, quando essa permissão é requisitada pelo desenvolvedor, enquanto J2ME quase sempre proíbe esse acesso. Além disso, o Android tem uma ferramenta de interface com o usuário direta e separa a parte lógica da parte gráfica. I.

O Aplicativo Android para Interface com o Robô Para uma melhor interação entre o usuário que necessita controlar o sistema e o robô, foi desenvolvido um software para dispositivos móveis na plataforma Android. No ambiente de desenvolvimento, há um emulador para testar a aplicação, mas, como é necessário do dispositivo Bluetooth para testar o aplicativo, o instalamos no smartphone Nexus 4 da LG, com Android OS 4.3. Embora essa seja a versão em que trabalhamos, optou-se por desenvolver o aplicativo para ser compatível com aparelhos com Android OS 2.2. Essa versão requer a API (Application Programming Interface) 8, que é abrangida pela maioria das versões dos sistemas dos dispositivos com Android atuais. O aplicativo desenvolvido para o projeto disponibiliza um botão para ligar o Bluetooth do dispositivo móvel, o botão On, e outro para listar os dispositivos ao qual o aparelho foi pareado anteriormente, o botão Listar. Para se conectar com o módulo Bluetooth acoplado ao robô, o usuário escolhe e toca no dispositivo de nome e endereço equivalente. Por exemplo, na Fig. 7 o módulo Bluetooth é chamado de ZUCHI_00882 e tem endereço 00:13:03:11:05:80. Depois desse processo, aplicativo terá estabelecido a conexão e o usuário poderá controlar e guiar o robô nas direções necessárias para a sua tarefa ser executada.

Fig. 6. Placa Conversora com módulo Bluetooth ZT-05.

H. A Plataforma Android A plataforma de desenvolvimento Android foi criada pelo grupo Open Handset Alliance (OHA), formado por grandes empresas de telefonia como LG, Motorola, Samsung, para aplicativos em dispositivos móveis e apresenta sistema operacional baseado em Linux [20]. Essa plataforma foi escolhida para o projeto por ser uma plataforma aberta, com bom ambiente de desenvolvimento, com aplicações desenvolvidas em linguagem Java e com ampla utilização em dispositivos móveis, atingindo dezenas de milhões de aparelhos em todo o mundo [21]. Além disso, está cada vez mais acessível adquirir aparelhos com Android, que possuem

Fig. 7 Aplicativo Android.

J. O software de controle no microcontrolador A comunicação entre microcontrolador (Arduíno) e o módulo Bluetooth é realizada através das portas seriais RX/TX. O usuário toca no botão equivalente à direção que ele deseja que o robô siga e o comando é enviado ao módulo Bluetooth. O microcontrolador lê os comandos pela função da biblioteca


do Arduino Serial.read(), interpreta esse dado e, a partir dessa decisão, envia o PWM necessário aos motores responsáveis pelo movimento selecionado, como explicado anteriormente. O robô apresenta 3 motores: no lado direito, no lado esquerdo e um na parte traseira, mas para essa aplicação só são utilizados os dois laterais. Cada motor tem, na Placa Driver, um pino para habilitá-lo ou desabilitá-lo e dois pinos para controlar o seu movimento e velocidade. Esses pinos responsáveis pelo movimento e velocidade foram ligados a duas saídas PWM do microcontrolador (Arduíno). Dependendo do lado acionado, o motor irá girar em sentidos diferentes, como na Fig. 8 e Fig. 9.

Em um dos ensaios, comandamos o robô à distância e depois lemos os dados adquiridos pelo sensor de luminosidade, o LDR (Light Dependent Resistor). O LDR é um resistor que muda sua resistência conforme a intensidade da luz incidente sobre ele. No experimento em questão, colocamos um resistor de 10K em série com o LDR e seu valor variou de 0, em ambiente totalmente no escuro, e cerca de 1006 ao o colocarmos perto de uma lâmpada. Em exposição à luz ambiente de uma sala, seu valor chegou à cerca de 600 nesse experimento. Uma amostra dos valores resultantes desse ensaio é mostrada no gráfico da Fig. 10. O valor do sensor caiu ao passar por uma região de sombra.

Fig. 8. Motor girando no sentido frente.

Fig. 10. Gráfico do valor de luminosidade de um ambiente em um intervalo. Fig. 9. Motor girando no sentido trás.

Quando os dois motores laterais são acionados no mesmo sentido, irão fazer com que o robô se movimente para frente ou para trás, dependendo da direção escolhida. Caso os motores sejam acionados em sentidos opostos, o robô irá girar para esquerda ou direita, em cima do próprio eixo. Esse software também recebe os dados vindos dos sensores acoplados ao sistema e os grava na memória EEPROM da placa de desenvolvimento Arduino. Os dados adquiridos do ambiente em exploração podem ser acessados depois, lendo-se essa memória, mesmo que o sistema seja desligado. IV.EXPERIMENTOS Nesse projeto é necessário integrar os sensores ao robô para ele fazer a telemetria do ambiente. Esses sensores são lidos pelos pinos de entrada analógica do Arduino Mega 2560. O conversor analógico/digital (A/D) do microcontrolador do sistema tem 10 bits de resolução, significando que ele irá retornar valores inteiros de 0 a 1023. Foram feitos alguns experimentos com sensores de luz e de som, acoplados ao robô. O robô foi comandado via Bluetooth pelo pesquisador em um ambiente em estudo e, ao mesmo tempo, os dados de medição dos sensores eram capturados pelo microcontrolador ATmega2560 e gravados na memória EEPROM da placa Arduíno. Ao ler essa memória, conseguimos obter as informações referentes àquele ambiente. Além desses dois tipos de sensores, os usuários também podem trocar os sensores do sistema de acordo com a necessidade de análise e sensoriamento do ambiente.

Outro ensaio realizado foi o de colocar o robô em um ambiente aberto e controlá-lo com o auxílio do aplicativo instalado no smartphone para verificar qual seria o espaço máximo entre o robô e o usuário. Foi constatado que uma distância segura entre o robô e o usuário deve ser de no máximo 70 metros para que a conexão funcione bem e não haja falhas dos comandos enviados via Bluetooth. Este ensaio foi realizado utilizando o módulo Bluetooth ZT-05 e o smartphone LG Google Nexus 4, com as baterias que alimentam o robô em um bom nível de energia. V.CONCLUSÃO Com a integração da placa de circuito impresso de adaptação, estrutura do robô, firmware de controle no Atmega2560 e o aplicativo no dispositivo móvel, e após vários experimentos em ambientes abertos e fechados, foi confirmada a eficácia desse protótipo para a aplicação proposta. Em questão de localização, o robô respondeu bem aos comandos enviados via Bluetooth a uma margem de 70 metros de distância entre ele e o dispositivo Android que o controla remotamente, sendo esta uma boa distância para que o usuário fique fora do ambiente monitorado e tenha uma boa visão da localização do robô. O aplicativo de comandos do usuário é portável para outros dispositivos móveis com sistema operacional Android e apresenta interface homem-máquina intuitiva. São necessários apenas poucos toques para por o sistema em funcionamento, possibilitando que os usuários consigam utilizar o software com facilidade. Além disso, há a facilidade de mobilidade para explorar um ambiente.


No momento, está em andamento o desenvolvimento de uma nova funcionalidade do aplicativo. O usuário poderá ter acesso aos dados lidos pelos sensores no aplicativo Android ao mesmo tempo em que ele controla o robô. E, devido ao grande número de sensores no mercado, poderão ser agregados outros sensores para a telemetria em diferentes aplicações. REFERÊNCIAS [1] [2]

[3]

[4]

[5] [6]

[7] [8]

[9]

[10] [11]

[12]

[13]

[14]

Niku, S. B. Introdução à Robótica: Análise, Controle, Aplicações. 2. ed. Wiley, 2010. Guimarães, F.A., "Desenvolvimento de robô móvel utilizado para exploração de ambientes hostis". 2007. 227 p. Dissertação(Metrado em Engenharia de Processos Químicos e Bioquímicos). Escola de Engenharia de Mauá do Centro Universitário do Instituto Mauá de Tecnologia, São Caetano do Sul, São Paulo, 2007. Expresso Impresa Publishing S.A, "Robôs terrestres e aéreos ao serviço da Protecção Civil". Disponível em: < http://expresso.sapo.pt/robosterrestres-e-aereos-ao-servico-da-proteccao-civil-video=f568201 > Acesso em: ago. de 2014. Mattos, A.N.. Telemetria e Conceito Relacionados. 2004. Disponível em: < https://archive.org/details/TelemetriaEConceitosRelacionados > Acesso em: jul. 2014. Bluetooth SIG, Inc. Bluetooth Website, Disponível em: < http://www.bluetooth.com/ >, Acesso em: jul. 2014. Rodrigues, T. O. et al. “Veículo teleoperado para sensoriamento remoto e detecção de obstáculos e avarias em ambientes hostis”. VII Connepi, 2012. Faludi R.. Building Wireless Sensor Networks: with ZigBee, XBee, Arduino, and Processing. 1 ed. O'Reilly Media, 2010. Modesto, A. L. G., Sampaio, M. H. K.. “Controle de sistemas embarcados através de bluetooth aplicado a robótica móvel com o selvabot”. 2008. Oracle. "O que é J2ME ou Java ME?" . Disponível em: < https://www.java.com/pt_BR/download/faq/whatis_j2me.xml > Acesso em: ago. de 2014. Arduino. "Arduino Mega 2560". Disponível em: < http://arduino.cc/en/ Main/arduinoBoardMega2560 >. Acesso em: abril de 2014. Atmel. Datasheet ATmega640/V-1280/V-1281/V-2560/V-2561/V. Disponível em: < http://www.atmel.com/Images/Atmel-2549-8-bitAVR-MicrocontrollerATmega640-1280-1281-2560-2561_datasheet.pdf >. Acesso em: mar. de 2014. AMS. Datasheet AMS1117 1a Low Dropout Voltage Regulator. Disponível em: < http://www.advanced-monolithic.com/pdf/ds1117.pdf >. Acesso em: mar. de 2014. XBot. Curumim: Apostila de Hardware V2.0. Disponível em: < http://www.xbot.com.br/externo/cd_curumim/Apostila_Curumim_Hard ware_v2.0.pdf >. 2012. Acesso em: mar. de 2014. Texas Instruments. Datasheet Hex schmitt-trigger inverters SN7414, SN5414, SNLS7414, SNLS5414. Disponível em: < http://www.ti.com/lit/ds/sdls049b/sdls049b.pdf >. 2002. Acesso em: mar. de 2014.

[15] Bolton, W. Mecatrônica: Uma abordagem multidisciplinar. 4. Ed. Pearson, 2008. [16] Hirzel T. "PWM". Disponível em: < http://arduino.cc/en/Tutorial/PWM > Acesso em: fev. de 2014. [17] Barrett, S. F.; Pack, D.J.. Atmel AVR Microcontroller Primer: Programming and Interfacing. 2. ed. Mitchell Thornton, 2012. [18] Editora Saber. "Como funcionam os Encoders". Disponível em: < http:// www.mecatronicaatual.com.br/educacao/1272-como-funcionam-osencoders > 2013. Acesso em: mar. de 2014. [19] Thompson, T. J., Kumar C. B., Kline, P. J.. Bluetooth Application Programming with the Java APIs, 1ª ed, Morgan Kaufmann Publishers, USA, 2004. [20] Lecheta, R. R.. Google Android - Aprenda a criar aplicações para dispositivos móveis com o Android SDK. 3ª Ed., Novatec, 2010. [21] Google Inc.. "Android, the world's most popular mobile platform". Disponível em: < http://developer.android.com/about/index.html > Acesso em: jul. de 2014. [22] Boone, K. "Mobile application development: Android compared to J2ME". 2013. Disponível em: < http://kevinboone.net/android_j2me.html > Acesso em: ago. de 2014.


Simulando Protocolos de SmartGrid sobre uma Rede de Sensores Sem Fio usando OMNet++ Renato William Rodrigues de Souza Instituto Federal do Ceará – Campus Cedro Cedro, Ceará renatowilliam21@gmail.com

Paulo Régis Carneiro de Araújo Instituto Federal do Ceará – Campus Fortaleza Fortaleza, Ceará pregis@ifce.edu.br

Antonio Wendell de Oliveira Rodrigues Instituto Federal do Ceará – Campus Fortaleza Fortaleza, Ceará wendell@ifce.edu.br

Emannuel Diego Gonçalves de Freitas Instituto Federal do Ceará – Campus Cedro Cedro, Ceará diego@ifce.edu.br

Resumo — Este artigo descreve a integração de um sistema de comunicação baseado em Redes de Sensores Sem Fio com sistemas de automação de subestações baseados na norma IEC 61850. São realizados simulações para analisar a viabilidade do envio de mensagens dos medidores eletrônicos inteligentes até as concessionárias, através de uma rede ZigBee, além de checar os requerimentos da norma IEC 61850 para o envio e recebimento de pacotes. Palavras-chave — Smart Grid, IEC 61850, ZigBee,OMNet++, Integração de Protocolos de Comunicação Abstract — This paper presents a way to integrate devices in a SmartGrid with IEC 61850 standard using Wireless Sensor Networks. In order to analyze the communication from smart meters to operation centers, we simulate the protocolo ZigBee and others on OMNet++ tool. Besides, we enlighten some timing constraints of horizontal messages of IEC 61850. Keywords — Smart Grid, IEC 61850, ZigBee,OMNet++, Protocol Integration

I.INTRODUÇÃO Os avanços tecnológicos ocorridos nos últimos anos nas áreas de microeletrônica, comunicação sem fio e sensoriamento remoto possibilitaram a criação de Redes de Sensores Sem Fio (RSSF). Elas são formadas por conjuntos tipicamente grandes (centenas ou mais) de dispositivos autônomos capazes de (i) medir alguma grandeza do ambiente como, por exemplo, a temperatura, a intensidade luminosa, a concentração de substâncias químicas, aceleração, velocidade e número de eventos, assim como (ii) entrar em contato com outros dispositivos similares [1]. Tais tecnologias vêm sendo aproveitadas de maneira ascendente em sistemas elétricos de distribuição de energia, principalmente interligando instrumentos de medição, segurança e manobras, por meio de sistemas de telecomunicações. Essa alternativa para supervisão e automação em sistemas elétricos, denominada Redes Inteligentes (Smart Grids), traz uma promessa de aumentar a

confiabilidade e eficiência dos processos envolvidos, permitindo a modernização de seus mecanismos de operação e gestão, desde geração ao uso final da energia elétrica. No Brasil alguns projetos pilotos estão sendo desenvolvidos pelas concessionárias, que enfrentam vários desafios que variam de acordo com a região envolvida e o tipo de tecnologia adotada. Um dos principais está relacionado ao problema da comunicação, que é um fator impeditivo do uso em larga escala da automação da rede de distribuição de energia elétrica. Os recentes avanços em sistemas embarcados e em Redes de Sensores sem Fio tornaram possível implementar o monitoramento de baixo custo e sistemas de diagnóstico para redes inteligentes [2]. O que faz de uma RSSF uma solução promissora e complementar para os diversos tipos de aplicações das Redes Inteligentes. Neste contexto, observa-se um que as Redes Inteligentes podem tirar bastante benefício das RSSFs. De fato, devido à alta escalabilidade de componentes pertencentes à automação da malha de distribuição de energia, bem como a inviabilidade econômica de se garantir meios de comunicação mais sofisticados, tais como fibra ótica, há a vantagem direta do uso da tecnologia de sensores sem fio comunicando entre si oferecendo custos baixos de comunicação e usando sistemas embarcados com limites de complexidade computacional. O objetivo deste trabalho é propor uma avaliação, via simulação, de uma Rede de Sensores Sem Fio baseada em ZigBee como solução para a integração entre dispositivos eletrônicos inteligentes (IED – Norma 61580), utilizados em Smart Grid. Para tanto, é utilizado o software OMNET++, sistema esse baseado em linguagem C++, comumente utilizado por pessoas do meio acadêmico e educacional, bem como por pesquisadores, para a construção de simuladores de rede. Este artigo está organizado da seguinte forma: a seção II descreve os trabalhos relacionados, a seção III os protocolos e


padrões utilizados a seção IV descreve a proposta e o cenário de simulação Finalmente, a seção V conclui o artigo e discute trabalhos futuros. II.

comunicação atende aos requisitos de tempo da norma IEC 61850.

ESTADO DA ARTE

Um dos principais desafios das Redes Inteligentes é a criação de uma infraestrutura de comunicação, que seja capaz de atender aos requisitos dos dispositivos do sistema, de forma integrada, com trocas de informações bidirecionais a fim de permitir a troca entre os clientes e a concessionária. Muitas das tecnologias necessárias estão disponíveis hoje, enquanto outras estão em vários estágios de desenvolvimento e espera-se que irão contribuir para a modernização da rede até o final desta década [3]. Diferentes tecnologias podem ser adotadas como solução para transmissão de dados nas Redes Elétricas Inteligentes. Sugere-se que a abordagem adotada privilegie a escolha de uma tecnologia aberta, padronizada e de baixo custo [4]. Dentre os meios de transmissão de dados, há soluções cabeadas (Fibra óptica, cabo coaxial ou cabos de par metálicos) ou soluções sem fio (radiofreqüência – Wimax, Zigbee, Bluetooth, Redes Celulares – GPRS, GSM, Satélites). Em [5] é proposto a integração de uma rede ZigBee e o padrão de comunicação IEC 61850 para automação de subestações, são realizadas diversas simulações a fim de demonstrar se a tecnologia ZigBee atende os requisitos de interferência e temporização para o trafego de mensagens definidas pela norma IEC 61850. Os resultados apresentados demonstram que o sistema de integração IEC 61850 e ZigBee é capaz de trocar vários tipos de mensagens de média e baixa velocidade (conforme definido no IEC61850) em tempo hábil. Esta integração é então possível e pode entregar benefícios adicionais para os sistemas de automação de subestações. A mesma proposta de integração de uma rede ZigBee com o padrão de comunicação em subestações IEC 61850 é feita em [6], onde um protótipo foi desenvolvido para analisar a implementação da IEC 61850 em uma RSSF. Contudo há uma desvantagem da utilização desse protótipo pela limitação da plataforma não suportar a tecnologia 6LowPan, o que não permite a transmissão de dados TCP/IP conforme exigido pelas mensagens do tipo MMS. Finalmente, [12] descreve a arquitetura de um sistema e avaliação de performance da utilização de Rádio Frequência (RF) baseado em malha (Mesh), para o gerenciamento de energia em um conjunto de residências. O sistemas proposto utiliza a banda industrial, científica e médica (ISM) em 902928 MHz Baseado em FHSS (Frequency-hopping spread spectrum). Os resultados mostram que o sistema é capaz de lidar com o tráfego de comunicação de medidores inteligentes, com um alto grau de confiabilidade, e as falhas são de cobertura são devidamente preenchido com nós repetidoras. Para validar a proposta foram feitas simulações no OMNet ++, mas não mostra os detalhes da simulação. Os trabalhos apresentados acima são focados no desempenho das redes ZigBee para tráfego de mensagens do padrão IEC 61850, verificando se este protocolo de

III.

PROTOCOLOS E NORMAS DE COMUNICAÇÃO

Para o sucesso da implantação de Redes Inteligentes se faz necessário a criação de uma série de normas técnicas e políticas para uma eficaz integração dos sistemas existentes. A. Norma IEC 61850 Diante dessa necessidade, surge a norma IEC 61850, que propõe uma arquitetura de comunicação e interoperabilidade entre os diversos dispositivos dentro de uma subestação, independentemente do fabricante. Tal padrão visa à criação de um barramento de dados comum integrando a comunicação de dispositivos tais como disjuntores e dispositivos eletrônicos inteligentes, até sistemas de supervisão e controle [7]. Com isso a norma IEC 61850 tenta resolver esses problemas, fornecendo um padrão aberto que possibilita a utilização de muitos fabricantes em equipamentos diferentes, facilitando a interoperabilidade e automação de novas subestações. Tornando-se assim uma nova proposta tecnológica que poderá revolucionar os Sistemas de Automatização de Subestações [8]. Em relação aos mecanismos de comunicação e os tipos de pacotes que trafegam por uma rede IEC 61850, podemos citar o GOOSE (Generic Object Oriented Substation Event) e o MMS (Multimedia Messaging System). O primeiro é destinado para a comunicação horizontal, ou seja, comunicação entre equipamentos do mesmo nível, utilizado para comunicação entre dois IEDs, onde todas as informações transmitidas dos pacotes GOOSE utilizam o UDP (User Datagram Protocol), Estas mensagens só trafegam dentro da LAN e possuem apenas endereços MAC. Já mensagens do tipo MMS são utilizadas para comunicação vertical, entre o sistema supervisório e um IED, onde há a requisição de informações através de pacotes do tipo TCP (Transmission Control Protocol). Resumindo, o padrão IEC 61850 estabelece [9]: • • •

Funções e informações visíveis dentro da rede. Como essas informações podem ser acessadas e trocadas. Como os dispositivos estão conectados à comunicação rede.

B. Protocolo ZigBee De acordo com [10], ZigBee é uma tecnologia desenvolvida pela ZigBee Alliance, com foco em monitoração e controle sem fio e em facilitar desenvolvimento de aplicações melhorando a interoperabilidade de dispositivos. Destaca-se principalmente pelas características de baixo custo, baixo consumo de energia e baixa complexidade. Devido a estas características,


a maior aplicação desta tecnologia são as Redes de Sensores Sem Fio [11]. Foi desenvolvido para ser um mecanismo complementar a limitação distância enfrentado pelo padrão IEEE 802.15.4, sendo responsável pela definição das camadas de aplicação e rede. Já o padrão IEEE 802.15.4 gerencia as camadas mais baixas de uma rede Zigbee. A camada física é a responsável pela interligação do protocolo com o rádio de comunicação e provê serviços para a camada imediatamente superior, que controla o acesso à rede, a camada MAC [10]. Outra definição importante a ser citado sobre uma rede de comunicação Zigbee, refere-se a faixas de freqüência descritos na IEEE 802.15.4, que operam nas faixas de freqüência ISM (Instrumentation, Scientific and Medical). Dentre as faixas de freqüências exibidas na tebela 2 a mais utilizada são as que operam na faixa de frequência de 2;4 Gigahertz (Ghz) - de 2400 a 2483,5 Megahertz (Mhz), e com taxa de transmissão de 250 Kilobits por segundo (kbps).

II.

usuários para a rede elétrica. Para isso o medidor deverá está ligado em algum meio de transmissão de dados. A medição Inteligente (Smart Metering) está representada na figura com um conjunto de nós do tipo IEC 61850 (1), que se comunicam entre si através de uma rede ZigBee. Concentradores de medidores Eletrônicos: Os nós representados por medidores eletrônicos (1) monitoram o consumo de energia de elétrica de uma residência, repassando essas informações para um nó com maior capacidade computacional, representados pelos concentradores de medidores eletrônicos (2), também denominados nós Sinks. Tal nó é responsável por coletar dados dos outros sensores da rede e enviá-los para a central de monitoramento, assim como mostrado na figura 2.

Tabela 1: Faixas de freqüência do protocolo IEEE 802.15.4 [10].

Frequência

868,3 Mhz

902-928 Mhz

2400 a 2483,5 Mhz

Nº Canais

1

10

16

Taxa de dados (kbps) Local

20

40

250

Europa

América

Mundial Figura 2 – nós sensores e nó Sink

III. IV.

PROPOSTA

A proposta apresentada neste artigo contempla os elementos descritos na Fig. 1 conforme são descritos a seguir:

UTR – Subestação de Distribuição: As subestações de distribuição são conectadas diretamente com o centro de controle através de fibra óptica, onde o transporte das informações entre a UTR (Unidade de Terminal Remoto) e a Central de Controle é encapsulado em TCP/IP. A idéia principal desta etapa é extrair os pacotes do tipo IEC 61850 do pacote que vem da rede ZigBee e colocá-lo em segmento TCP/IP, como exibido na figura 3.

Figura 1 - Proposta de integração de uma rede ZigBee para o transporte de mensagens do tipo IEC 61850.

I.

Smart Metering : Um dos principais elementos das Redes Inteligentes é o medidor inteligente ( Smart Meters) que são dispositivos essenciais na coleta, armazenamento e processamento de dados, como também responsável pela recepção e transmissão dos dados do consumo diário dos

Figura 3 – Operação de Gateway entre os protocolos IEEE 802.15.4 e o TCP/IP.


IV. Centro de Controle: responsável pelo recebimento das informações provenientes dos medidores, enviando para os sistemas especializados de monitoramento e controle, como por exemplo um SCADA (supervisory control and data acquisition). Desta forma, temos um cenário que contempla o uso distribuído do protocolo IEC 61850 em uma área controlada comunicando-se através de protocolo ZigBee. A idéia é tirar proveito das RSSFs contemplando a minimização de recursos embarcados e o roteamento dos nós o que permite um sistema tolerante a falhas. Além disso, esta estrutura tem como alvo alcançar as subestações de uma zona metropolitana ou mesmo rural. A idéia é aproveitar a infraestrutura de comunicação existente nas SEs. No panorama nacional, essas normalmente são interligadas por redes de fibra ótica. Para validação da proposta foram realizadas simulações para observar somente as questões de funcionalidade da conversão dos protocolos de roteamento e da viabilidade da comunicação entre o nós sensores localizados em cada residência até a central de controle, com o principal objetivo de monitoramento dos nós sensores. Em relação a norma IEC 61850 e de acordo com a proposta, serão analisados apenas os itens da norma que definem os protocolos de comunicação. Para isso é utilizado a ferramenta OMNet ++, um ambiente de simulação de eventos discretos, utilizado principalmente na simulação de redes de comunicação. Com a simulação pretende-se obter resultados bem próximos do sistema real. A partir da simulação são recolhidos dados para estimar as medidas de desempenho e a viabilidade do sistema. A figura 4 mostra o ambiente de simulação proposto, onde são inseridos os principais elementos comunicantes da proposta.

Figura 4 – Simulação OMNet++ de uma rede Baseada no protocolo IEEE 802.15.4.

Na simulação do protocolo IEEE 802.15.4 é utilizado o framework INET e através do modelo de simulação do IEEE 802.15.4, constituído pelos módulos físicos e de enlace de dados descritos em [13].

V. Resultados Como resultado das primeiras simulações, ou seja, simulações que visam o estabelecimento de conexão entre os pontos bem como o tráfego de mensagens da norma IEC 61850, onde algumas ressalvas foram feitas, de acordo com o tipo de mensagem e o protocolo utilizado. Nas mensagens do tipo GOOSE, é observado que o tempo limite é ultrapassado ao se utilizar comunicação sem fio com ZigBee, principalmente no que condiz as mensagens com tempos críticos, vistas principalmente ações de controle e proteção. Já nas mensagens do tipo MMS, a integração do IEC 61850 com o ZigBee se mostrou viável, sendo capaz de trocar mensagens em velocidades de tempo que variam de baixo a médio, ou seja, em tempo hábil, o que torna possível monitorar os nós ao longo da rede. Em relação ao roteamento estabelecido, são definidas duas topologias, onde o concentrador se configuraria como o nó concentrador de uma topologia estrela, recebendo todos os dados dos nós sensores, como também uma topologia em malha (Mesh) configurada entre os medidores eletrônicos inteligentes, ou seja, na região monitorada. Em relação a topologia e tendo como umas das principais características outro ponto essencial da rede, seria a sua reestruturação no caso de falha de um dos nós concentradores, onde após sua auto organização um nós mais próximo da subestação poderia assumir essa características de nó sink.

VI.

CONCLUSÃO

Neste trabalho, visamos simular uma solução de integração de dispositivos tais como medidores inteligentes, em uma estrutura de SmartGrid. A viabilidade técnica e econômica da solução foi um dos principais objetivos a serem alcançados. Devido a características de não confiabilidade de redes de dados celulares no cenário nacional, privilegiamos o uso de comunicação através de redes de sensores sem fio cujas características englobam o baixo custo e a tolerância a falhas através de re-roteamento. Além disto, usando a infraestrutura de comunicação existente nas subestações, observa-se um modelo ideal de descentralização da comunicação até o centro de operações e controle. Para validar esta estrutura, simulamos as comunicações na ferramenta OMNet++ e foi possível observar que o monitoramento de dispositivos nesta estrutura pode ser viabilizado. Entretanto, num modelo IEC61850, determinadas mensagens que possuem restrições de tempo apresentam dificuldade de serem implementadas. REFERÊNCIAS [1]. Akyildiz, I. F., Su, W., Sankarasubramaniam, Y., and Cyirci, E. (2002). A survey on sensor networks. Computer Networks, 38(4):393–422. [2]. C. Gungor and F. C. Lambert, “A survey on communication networks for electric system automation,” Computer Networks, vol. 50, no. 7, pp. 877–897, 2006.


[3].

[4]. [5].

[6].

[7].

[8].

View at Publisher • View at Google Scholar • View at Scopus DOE (2013). Economic impact of Recovery Act Investments in the Smart Grid – Analysis of Vendor Payments through the Smart Grid Investment Grant and Smart Grid Demonstration Projects as of March 2012. Office of Electricity Delivery and Energy Reliability. Washington, Estados Unidos Toledo, Fábio. “ Desvendando as Redes Elétricas Inteligentes”, Rio de Janeiro, Brasport, 2012; D. Nowak, Ł. Krzak, C. Worek, “Integration of ZigBee and IEC 61850 networks for a substation automation system”, IEEE PES Innovative Smart Grid Technologies Europe (ISGT Europe), October 6-9, Copenhagen. Faria, Ricardo A. P, “Wireless Sensor Network for electrical Secondary Substations” Proceedings of the 42nd European Microwave Conference, IST/UTL Lisboa, Portugal. Petenel, F, Panazio C. “Análise de uma rede Smart Grid usando a norma IEC 61850 e dados de medições”, XXX SIMPÓSIO BRASILEIRO DE TELECOMUNICAÇÕES – SBrT’12, 13-16 DE SETEMBRO DE 2012, BRASÍLIA, DF. IEC-61850-2, Communication Networks and Systems in Substations - Part 2:Glossary / 2002.

[9]. Juarez J, Morcillo R.C., Modejar J. A. R, “Simulation of IEC 61850-based substations under OMNeT++”, SIMUTOOLS '12 Proceedings of the 5th International ICST Conference on Simulation Tools and Techniques Pages 319-326, CST (Institute for Computer Sciences, Social-Informatics and Telecommunications Engineering) ICST, Brussels, Belgium, Belgium ©2012 [10]. FARAHANI, S. Wireless Networks and Tranceivers. Newsnes, 2008. [11]. BURATTI, Chiara et al. “Sensor Networks with IEEE 802.15.4: Systems Distributed Processing, MAC, and Connectivity”. Springer, 2011 269 p. [12]. Lichtensteiger, B. ; Landis AG, Zug, Switzerland ; Bjelajac, B. ; Müller, C. ; Wietfeld, C..” RF Mesh Systems for Smart Metering:System Architecture and Performance”, Smart Grid Communications (SmartGridComm), 2010 First IEEE International Conference on, Gaithersburg, MD. [13]. Feng Chen e Falko Dressler, "um modelo de simulação do IEEE 802.15.4 em Omnet +, +" Proceedings of 6. GI / ITG KuVS Fachgespräch Drahtlose Sensornetze, Poster Session, Aachen, Alemanha, julho de 2007, pp 35-38.



Avaliação de Usabilidade em Aplicativos para Dispositivos Móveis com Sistema Android - Um Estudo de Caso Marcello Anderson Bezerra Holanda

Alberto Sampaio Lima

Wagner Bandeira Andriola

Universidade Federal do Ceará Quixadá, Ceará, Brasil marcellootelo@gmail.com

Universidade Federal do Ceará Quixadá, Ceará, Brasil albertosampaio@ufc.br

Universidade Federal do Ceará Fortaleza, Ceará, Brasil w_andriola@ufc.br

Resumo: A utilização de dispositivos móveis tem crescido e os avanços tecnológicos permitiram que estes dispositivos se tornassem capazes de realizar tarefas que antes eram somente feitas por um computador de mesa. Avaliar a usabilidade de aplicativos nesse novo ambiente e contexto de uso é essencial para que um determinado produto ou serviço móvel tenha uma boa aceitação. Esta pesquisa objetivou avaliar a usabilidade de um aplicativo em dispositivos móveis com sistema Android, a partir da combinação de dois métodos de avaliação, a avaliação heurística e os testes de usabilidade. Os resultados obtidos foram positivos e incluem os possíveis problemas de usabilidade identificados durante as inspeções na visão de especialistas e usuários, os quais devem ser considerados pelos projetistas. Palavras-Chave: Usabilidade, IHC, qualidade de software, aplicativos para dispositivos móveis. Abstract: The use of mobile phones has grown and these phones are able to do the same tasks executed by desktop computers. Usability evaluation is essential to this new mobile environment and use context. In this work we proceeded a usability evaluation of a mobile android application, using a heuristic evaluation and laboratory tests combination methodology. We obtained positive results that indicates some usability problems that should be considered by designers. Keywords: Usability, HCI, quality of software, mobile applications. I.

INTRODUÇÃO

O processamento da informação por meio de artefatos digitais ocasionou diversas transformações na forma de comunicação das pessoas. Os dispositivos móveis se destacam entre os artefatos digitais mais consumidos e os seus fabricantes tem o desafio de inserir no mercado diferentes formas de interação visando atrair a atenção do público consumidor. Dessa forma, as inovações na forma de interação com produtos possibilitam uma maior proximidade entre os elementos de interação do sistema e os objetivos de uso do produto almejados pelo usuário (SANTOS e MACIEL, 2011). Dentre os dispositivos mais utilizados, os telefones celulares se destacam no mercado mundial. Os smartphones possibilitam novas possibilidades de comunicação, unindo informação, interatividade e entretenimento em um dispositivo. Os usuários os utilizam tanto para consumo como

para produzir conteúdos como fotos, vídeos, mensagens, informações geo-referenciais que podem ser compartilhados em tempo real (PERRY et al., 2012). Os estudos relacionados à área da Interação HumanoComputador (IHC) não estão limitados à interação do usuário com sites e aplicativos através de computadores do tipo desktop, mas devem considerar que os computadores estão inseridos nos mais diversos contextos e produtos utilizados diariamente, como por exemplo, em televisores, câmeras digitais, eletrodomésticos, entre outros. Por isso se deve investigar questões referentes à utilização dos smartphones, (BETIOL, 2004). Para que um produto tenha uma boa aceitação por parte do usuário, Taurion (2003) afirma que além da utilidade, disponibilidade e do custo, um dos elementos mais importantes para a aceitabilidade de um produto pelo usuário refere-se à usabilidade dos equipamentos e interfaces. Assim, a usabilidade deve ser considerada como um requisito de projeto relevante para que os serviços e aplicações para dispositivos móveis possam atender às necessidades do usuário móvel, possibilitando que o mesmo seja eficaz, produtivo no uso dos recursos e do tempo e ainda se sinta satisfeito em relação às funcionalidades do sistema (BETIOL, 2004). A questão da usabilidade voltada para os dispositivos móveis encontra-se em fase de pesquisa, principalmente considerando o fato do alto custo para a realização de testes com usuários, já que são inúmeros e diversificados os dispositivos existentes (MACHADO, 2010). O presente estudo avaliou a usabilidade do aplicativo Onde fica? – UFC, disponível para dispositivos móveis com a plataforma Android. O estudo foi realizado de acordo com as práticas e métodos reconhecidos na literatura, considerando os aspectos da avaliação de usabilidade voltada para o contexto de dispositivos móveis. Para realizar a avaliação, foram combinados dois métodos da engenharia de usabilidade: a avaliação heurística e o teste de usabilidade (laboratório). Por meio desses métodos, existe uma contribuição deste estudo para a identificação de possíveis problemas e sugestão de soluções que favoreçam a usabilidade do produto, além de identificar os pontos positivos e negativos da usabilidade do aplicativo a partir da experiência de uso dos clientes.


II.

REVISÃO DE LITERATURA E TRABALHOS RELACIONADOS

Segundo Ferreira (2007), móvel é uma habilidade de algo que pode ser manuseado, estando em posição de movimento. B’Far (2005) define sistemas computacionais móveis como sendo os dispositivos que possuem a capacidade de se mover e processar informações enquanto estão em movimento, possibilitando uma maior flexibilidade e garantindo o acesso a vários tipos de serviços. Um fator que tem influenciado consideravelmente nas relações homemmáquina é a possibilidade de efetuar essas atividades utilizando dispositivos móveis como ferramenta de apoio (FERREIRA, 2007). Várias funcionalidades de um computador desktop foram reprojetadas para os celulares tornando-os verdadeiros computadores pessoais. Como resultado desse processo, as aplicações desenvolvidas para esses dispositivos são difíceis de utilizar por conta das limitações de processamento e do tamanho da tela desses aparelhos (DE ARAÚJO et. al, 2009). Existe uma tendência mundial de que os usuários optem pela mobilidade. Como os dispositivos de telefonia móvel receberam mais funcionalidades, além de um aumento considerável de armazenamento e processamento, cada vez mais serviços estão sendo desenvolvidos com foco na utilização por dispositivos móveis (SANTOS et al., 2007). Dessa maneira, as diversas possibilidades de aplicação dos dispositivos móveis às tarefas cotidianas vêm impulsionando o número de pesquisas relacionadas ao uso de tais dispositivos (FERREIRA, 2007). Segundo Pádua (2012), a engenharia de usabilidade possui como objetivo o desenvolvimento da interação entre usuários e sistemas interativos, além de disponibilizar técnicas e métodos que possam ser utilizadas de forma sistemática para garantir um alto grau de qualidade com relação à usabilidade de interfaces de sistemas. De acordo com os critérios de qualidade definidos pela ISO/IEC 9126 (1991), o termo usabilidade é utilizado frequentemente para evidenciar a capacidade de um produto ser usado com facilidade, sendo considerado como uma característica da qualidade de software. A partir desse contexto, define-se a usabilidade como: “conjunto de atributos que evidenciam o esforço necessário para se poder utilizar o software, bem como o julgamento individual desse uso, por um conjunto explícito ou implícito de usuários”. A usabilidade não pode ser avaliada analisando-se um produto de forma isolada do seu contexto de uso. A usabilidade é um dos critérios de qualidade de software definidos na ISO/IEC 9126 para o uso de um sistema, sendo composta por outras características de qualidade, tais como funcionalidade, confiabilidade, eficiência, manutenibilidade e portabilidade. Hiltunen (2002) define a usabilidade sob a perspectiva da experiência do usuário móvel em relação aos serviços que estão disponíveis para o usuário móvel por meio de PDAs, telefones celulares ou qualquer computador de mão. A definição de “experiência do usuário” proposta por Hiltunen (2002) está relacionada a cinco componentes que exercem grande influência sobre a opinião geral do usuário sobre o uso

do sistema: utilidade, usabilidade, disponibilidade, aparência e processo offline (Figura 1).

Figura 1. Componentes da experiência do usuário móvel. Fonte: Hiltunen (2002)

Hiltunen (2002) definiu utilidade como a percepção do usuário em relação ao serviço lhe agregar algum valor e utilizou a definição da norma ISO 9241-11 para a usabilidade. A disponibilidade consiste em o serviço ter o dever de estar sempre online e funcionando em perfeito estado, a aparência deve agradar e atrair o usuário e, por último, todo processo offline deve ser eficiente. Entre os métodos para avaliação da usabilidade de sistemas, o método de avaliação heurística é realizado levando em consideração um conjunto de regras ou diretrizes que são analisadas para identificar possíveis violações dos princípios de usabilidade. A avaliação heurística é um método de avaliação por inspeção e baseia-se no conhecimento e experiência dos avaliadores, que as analisam as interfaces de um sistema, fazem um levantamento dos possíveis problemas encontrados e em seguida sugerem soluções (PÁDUA, 2012). As avaliações de usabilidade por inspeção, como a avaliação heurística, podem ser realizadas utilizando listas de conferência (checklists) que possibilitam aos programadores, analistas ou especialistas em usabilidade diagnosticar de forma rápida problemas globais das interfaces (CYBIS, BETIOL, FAUST, 2007). Segundo Pádua (2012), a avaliação com listas de conferência pode ser combinada com a avaliação heurística com o intuito de se beneficiar das duas abordagens. No uso de checklists, a qualidade das listas é que determina as probabilidades de avaliação. Em contrapartida à avaliação heurística que depende da qualificação dos avaliadores para se realizar uma avaliação com qualidade, na avaliação com checklists é a qualidade das listas que determinam a qualidade da avaliação. Os testes de usabilidade são métodos de avaliação centrados no usuário e as orientações para esse tipo de teste incluem o fato de que se não puderem ser realizados em um ambiente real de uso do sistema pelos usuários, os testes podem ser realizados em uma sala preparada, simulando as condições mais próximas da realidade (FURTADO, 2012). Zhang et al. (2005) define que aplicações móveis são sistemas de software capazes de operar em dispositivos móveis. Essas aplicações nos fornecem os mais variados tipos de serviços seja no âmbito pessoal ou profissional. Nesse contexto, Ballard (2007) afirma que uma aplicação móvel é composta de: um dispositivo móvel, um navegador, um ambiente de aplicação, um usuário móvel e uma plataforma de aplicação (no caso deste trabalho, a plataforma Android), uma interface de entrada e saída, sendo opcional ter um servidor e uma rede sem fio. Conforme as definições de Dantas (2009), Weiss (2002) e Lee et al. (2005), podem ser considerados exemplos de computadores de mão os PDAs (Personal Digital


Assistants), tablets PC (Personal Computer), telefones celulares e os smartphones, que são os tipos de dispositivos abordados deste trabalho. Embora os dispositivos smartphones possuam funcionalidades que fornecem serviços em qualquer hora e lugar, estes ainda possuem restrições quando comparados com os computadores de mesa. Krone (2013) evidencia algumas diferenças entre um determinado modelo de smartphone e o computador de mesa, como ilustra a Tabela 1. Tabela 1. Comparação entre Android x Desktop. Fonte: Krone (2013)

Outro aspecto físico envolvido na interação com dispositivos móveis segundo Zwick, Schitz e Kühl (2005) é que a interação física com as telas desses dispositivos é limitada pela diferença do tamanho das mãos dos usuários. Este cenário de interação mostra o conflito de interesses entre a apropriação dos menores tamanhos físicos que oferecerão mais mobilidade e flexibilidade, em contrapartida ao fato das dimensões serem definidas pelo tamanho e pelas funções motoras das mãos humana. Considerando o contexto móvel, a realização de testes de usabilidade neste contexto é considerada até mais importante do que no contexto estático. Uma justificativa para isso leva em consideração o fato de que os dispositivos móveis possuem um tamanho bastante reduzido e que em geral o usuário está familiarizado ao uso do sistema desktop. Presume-se que este usuário requer que seu celular seja capaz de acessar a internet e exibir seu site predileto com a mesma facilidade como ocorre em seu PC (DE ARAÚJO et al., 2009). Na relação entre contexto estático e móvel no uso de sistemas, Dos Anjos (2012) afirma que nem todas as recomendações de usabilidade em um computador são aplicáveis aos dispositivos móveis. Conforme Ketola e Roykkee (2001), a usabilidade de dispositivos móveis pode ser definida como critério da aceitabilidade prática do sistema, tendo em vista que a usabilidade depende das características do dispositivo, da interface com o usuário e dos serviços disponibilizados, sendo composta por: i. Infraestrutura e disponibilidade dos serviços de rede; ii. Facilidade de uso e disponibilidade dos serviços; iii. Utilidade dos serviços oferecidos;

iv. Agilidade para ser utilizado; v.Informações do status do dispositivo deve ser exibida; vi. Utilidade e disponibilidade do material de suporte para o usuário; vii. Acessórios; viii. Interoperabilidade entre dispositivos e serviços. Cybis, Betiol e Faust (2010) definiram algumas recomendações essenciais para o desenvolvimento de interfaces para celular: • Adequação ao contexto do usuário móvel: deve-se analisar as aplicações e serviços que são adequados ao ambiente e às necessidades do usuário móvel. O usuário busca ter acesso rápido a informações no momento e local desejados; • Interface não “miniaturizada”: a interface deve ser projetada de acordo com as limitações físicas do dispositivo e a perspectiva do usuário móvel; • Consistência interna e externa: a interface deve apresentar elementos já conhecidos do usuário, para que o usuário facilmente perceba do que se trata a aplicação; • Minimização de custos e carga de trabalho: é importante que a interface tenha o menor número possível de telas e que a informação seja mais acessível por meio de menos passos e comandos; • Facilidade de navegação: capacidade limitada das telas, interrupções frequentes e a falta de atenção acarretam que o usuário se perca com frequência na navegação, e por isso é importante que a arquitetura da informação seja bem definida e que os possíveis comandos sejam simples e fáceis de entender; • Apoio à seleção de opções: sempre que possível, o sistema deve oferecer ao usuário a opção de selecionar opções desejadas ao invés de que ele precise digitar; • Cuidado com a rolagem de tela: deve-se evitar a utilização da rolagem da tela em excesso, pois quanto menor a tela do dispositivo, menos informações ficarão visíveis ao usuário, aumentando a carga cognitiva. Se não for possível evitar o uso de rolagem da tela, indica-se utilizar indicadores para que o usuário fique ciente em relação ao conteúdo disponível integralmente; • Apoio às interrupções: a interação móvel pode sofrer interrupção a qualquer momento por fatores externos, ou por falha da conexão ou até pela falta de bateria. A interface deve oferecer suporte ao usuário quando ele retornar à interação, permitindo que ele prossiga do mesmo ponto quando houve a interrupção evitando repetir as entradas de dados feitas anteriormente; • Apoio à personalização da interface: o sistema deve possibilitar a personalização da interface para que os usuários possam expressar suas preferências e necessidades. Porém, somente as recomendações de usabilidade não são suficientes para garantir uma interface que se adapte às necessidades dos usuários. É necessário observar outros fatores, como a experiência do usuário, a acessibilidade, os


estilos de interface ou interação e a arquitetura da informação do dispositivo móvel (DOS ANJOS, 2012). III.

ESTUDO DE CASO

O estudo de caso realizado abordou o aplicativo para dispositivos moveis utilizado pelos alunos e funcionários da Universidade Federal do Ceará (UFC), denominado "Onde fica? - UFC". Entre as funcionalidades do aplicativo, cita-se a verificação do cardápio do restaurante universitário, acesso ao sistema da biblioteca universitária, busca de números de telefones institucionais e ainda a localização no Campus do Pici, o maior da UFC. O sistema fornece informações úteis para estudantes, professores e servidores técnicoadministrativos da UFC que sejam usuários de dispositivos com sistema Android. O aplicativo encontra-se disponível na Play Store do Google, onde pode ser feito o seu download gratuito. A Figura 2 mostra as duas principais interfaces do aplicativo: a interface inicial e a interface que exibe o menu e suas funcionalidades.

Figura 2. Principais Interfaces do aplicativo Onde fica? - UFC

3.1. Metodologia da Pesquisa A partir da revisão de literatura e observação do princípio de causa-efeito, buscou-se chegar a resultados que mostrassem informações relacionadas às expectativas iniciais do trabalho. Freire (2008), recomenda que métodos diferentes devem ser utilizados para se avaliar o mesmo sistema, de forma que sejam complementares. Dessa forma, este estudo foi realizado com a combinação dos seguintes métodos: (i) Avaliação Heurística, utilizando checklist adaptado e validado para dispositivos móveis touchscreen (KRONE, 2013); (ii) Testes de usabilidade, envolvendo usuários (Nielsen, 1993; Norma ISO 9241-11), com foco em dois critérios de avaliação: a facilidade de aprendizagem e a satisfação. As atividades de avaliação heurística utilizando checklist foram realizadas de acordo com as recomendações de Barbosa e Silva (2010). 3.2. Instrumentos de coleta de dados O checklist proposto por Krone (2013) foi utilizado por ser um instrumento validado em estudos anteriores e por abranger a maioria dos aspectos particulares ao contexto móvel que foram apresentados na revisão bibliográfica. Para identificar os participantes dos testes de laboratório que se enquadravam ao perfil desejado e coletar

informações da amostra sobre as suas experiências de uso com tecnologias, no caso deste estudo voltado para a utilização de dispositivos móveis, foi aplicado um questionário antes de cada participante executar as tarefas propostas utilizando o aplicativo. Foram observadas as recomendações de Wohlin et al. (2000) em relação ao planejamento da pesquisa e elaboração dos questionários. 3.3. Amostra Na avaliação heurística, a amostra envolveu a participação de quatro avaliadores com conhecimentos e aptidões na área de IHC ou Design. Nos testes de usabilidade foi utilizada uma amostra de total de 6 (seis) participantes, dentre eles três do sexo masculino e três do sexo feminino, todos estudantes dos mais diversos cursos da UFC campus do Pici. Nielsen (2007) recomenda que 5 (cinco) usuários participem de um teste de usabilidade pois, segundo ele, estudos mostram que este número apresenta a melhor relação custo-benefício, podendo mostrar até 85% dos problemas da aplicação. Por se tratar de uma pesquisa empírica e essencialmente qualitativa, não foi foco desta pesquisa a consolidação de validação estatística da amostra. 3.4. Procedimentos A primeira fase da coleta de dados foi realizada junto a um grupo de especialistas. Para cada avaliador participante da avaliação heurística, foi disponibilizado um informativo sobre o método de avaliação heurística, contendo as informações necessárias para guiar o avaliador no processo de avaliação e a definição das atividades a serem desenvolvidas. Cada avaliador realizou a sua inspeção individualmente e foi evitada a comunicação entre eles para garantir que as avaliações fossem independentes e sem influência uma das outras. Durante a avaliação, os avaliadores percorreram as interfaces inúmeras vezes, inspecionando seus elementos com o intuito de identificar possíveis violações das heurísticas de usabilidade. Como resultado das inspeções individuais, foi elaborada uma lista de problemas encontrados pelos avaliadores, indicando local, gravidade, justificativa e recomendações de solução. As avaliações individuais foram realizadas nos meses de março, abril e maio de 2014. Após todas as inspeções individuais realizadas, os avaliadores se reuniram para consolidar os resultados. Cada avaliador compartilhou a sua lista de problemas com os demais avaliadores para que todos pudessem adquirir uma visão mais abrangente dos problemas encontrados. Os problemas encontrados foram categoricamente organizados de acordo com sua natureza, evitando violações repetidas. Em seguida, os avaliadores realizaram um novo julgamento das violações encontradas onde puderam atribuir um novo grau de severidade para cada problema. Considerando esse novo julgamento, os avaliadores conversaram e entraram em acordo sobre o grau de severidade final de cada problema e decidiram


quais problemas e sugestões de solução que iria compor o relatório consolidado. Ao final da avaliação heurística foi gerado um relatório com os objetivos da avaliação, escopo da avaliação, breve descrição do método, as heurísticas utilizadas, descrição dos avaliadores e uma lista de problemas identificados, indicando o local onde ocorreu, uma pequena descrição do problema, a heurística violada, a severidade do problema e as sugestões de solução para os problemas identificados. A segunda fase do estudo contemplou os testes de laboratório, realizados com um grupo de usuários. O teste com usuários foi planejado com base nas diretrizes propostas por Nielsen (1993) e pela norma ISO 9241-11. Segundo essa norma que considera o contexto de uso como um fator que influência na avaliação de usabilidade de um sistema, para especificar ou medir a usabilidade são necessárias as seguintes informações: i) uma descrição dos objetivos pretendidos; ii) uma descrição dos componentes do contexto de uso incluindo usuários, tarefas, equipamento e ambientes. A descrição do contexto precisa ser suficientemente detalhada de modo que aqueles aspectos que possam ter uma influência significativa sobre a usabilidade possam ser reproduzidos; iii) valores reais ou desejados de eficácia, eficiência e satisfação para os contextos pretendidos. Os critérios de usabilidade avaliados neste estudo foram: a facilidade de aprendizagem e a satisfação. a avaliação focou em uma amostra de alunos que estudam no campus do Pici, na cidade de Fortaleza – Ceará. Outra característica que foi considerada para os usuários-alvo deste estudo está relacionada à experiência do usuário, onde buscou-se usuários que nunca utilizaram o aplicativo. Essa escolha se justificou pelos objetivos da avaliação, os quais eram avaliar a facilidade de aprendizagem pelos usuários que nunca utilizaram o aplicativo, além da satisfação. Para a realização do teste de usabilidade do aplicativo foi disponibilizado aos participantes o dispositivo especificado na Tabela 2. Tabela 2. Aparelho utilizado nas avaliações

intenso tráfego de pessoas. Essas condições caracterizam o ambiente móvel de uso. Embora um grande desafio do uso de dispositivos móveis seja a questão da mobilidade, ou seja, o usuário ter a liberdade para movimentar-se enquanto utiliza o dispositivo, o contexto de uso considerado neste estudo foi o usuário estar sentado enquanto utilizava o aplicativo. As medidas de usabilidade que foram adotadas neste estudo são especificadas de acordo com o modelo de medição proposto por Nielsen (1993) e são baseadas nas diretrizes de medida de usabilidade proposta pela norma ISO 9241-11.

Figura 3. Ambiente e contexto de uso

Para executar os testes de usabilidade foi necessário um planejamento de como seria realizada a avaliação. Esta etapa incluiu a realização de um teste-piloto, a definição do perfil das pessoas que participariam do teste, elaboração de documentos como o termo de consentimento, para que fosse esclarecida e documentada toda a questão ética envolvida no estudo, questionário da entrevista inicial, cenários do teste e questionário da entrevista final . Após a assinatura dos termos de consentimento e esclarecimentos sobre o trabalho, foram realizados os testes onde cada usuário foi filmado enquanto executava a lista de tarefas. Os dados obtidos foram cautelosamente analisados e, a partir deles, foram expostos os pontos positivos e negativos relacionados à usabilidade do aplicativo em questão considerando os critérios de facilidade de aprendizagem e satisfação. IV.

ANÁLISE DOS RESULTADOS

Os dados foram obtidos, quantificados e analisados por meio de gravação de áudio e vídeo que registrou o usuário utilizando o aplicativo para executar as tarefas propostas nos cenários. O estudo foi realizado no campus do Pici da Universidade Federal do Ceará, no município de Fortaleza – CE. O local onde os testes foram realizados foi ao lado do prédio da diretoria do Centro de Ciências Agrária, em ambiente aberto, em um ponto (Figura 3) onde os usuáriosalvo pudessem ficar à vontade durante a realização de cada etapa do teste. Por ser um ponto próximo a uma das entradas da universidade, no ambiente havia constantemente um

4.1 Avaliação heurística A avaliação heurística teve como objetivo inspecionar as principais telas do aplicativo "Onde fica? – UFC" em dispositivos móveis touchscreen, em conformidade com as diretrizes básicas de usabilidade propostas por Nielsen(1993). O escopo da avaliação envolveu a inspeção de 10 telas (T1 a T10) do aplicativo, mostradas na Figura 4.


Figura 4. Telas avaliadas

Quatro avaliadores (especialistas) participaram da avaliação heurística, todos com habilidades e formação na área de usabilidade. Foram identificadas 45 violações de usabilidade para compor o relatório final. Pode-se citar as heurísticas que apresentaram pelo menos um problema na avaliação: • Visibilidade do status do sistema; • Legibilidade e Layout; • Correspondência entre o sistema e o mundo real; • Consistência e Padrões; • Estética e Design Minimalista; • Pouca interação homem/dispositivo; • Reconhecimento em vez de lembrança; • Flexibilidade e Eficiência de Uso; • Integração Física e Ergonomia. 4.2 Testes de usabilidade (laboratório) Os usuários-alvo da pesquisa foram estudantes que frequentavam assiduamente a UFC, campus do Pici. Participaram dos testes de usabilidade 6 voluntários, sendo 3 (50%) do sexo masculino e 3 (50%) do sexo feminino. A faixa etária prevalente dos usuários-alvo foi de 22 a 24 anos (n=4; 66,6%), 16 a 18 anos (n=1; 16,6%) e 19 a 21 anos (n=1; 16,6%). Em relação à formação, participaram 2 (33,3%) alunos do Centro de Ciências, 2 (33,3%) do Centro de Ciências Agrárias e 2 (33,3%) do Centro de Tecnologia. Entre os participantes do estudo, foi questionado sobre a familiaridade com o uso de tecnologias no dia a dia e o resultado apontou que 3 (50%) usuários consideram-se familiarizados, 3 (50%) consideram-se razoavelmente familiarizados. Nenhum dos usuários afirmou não ser familiarizado com o uso de tecnologias no seu cotidiano.

Figura 5. Finalidade para o uso do smartphone

100% dos avaliadores afirmaram nunca ter utilizado o aplicativo antes. Dentre os participantes, 83,3% (n=5) possuem smarthphone e apenas 1 (16,6%) não possui. Entre os que afirmaram possuir um smarthphone, foram assinaladas as seguintes opções sobre a finalidade de uso, conforme apresentado na Figura 5. 40% dos entrevistados (n=2) afirmaram utilizar o desktop por mais tempo que o telefone celular, enquanto 60% (n=3) afirmaram utilizar o smartphone por mais tempo em seu dia a dia. Foram consideradas cinco formas de quantificação para verificar se o componente de usabilidade almejado, no caso a facilidade de aprendizagem, foi efetivamente atingido. A primeira forma de quantificação considerada foi com relação ao número de usuários que conseguiram completar com sucesso as tarefas propostas nos cenários. Dentre os 6 voluntários que participaram, todos os 6 (100%) conseguiram completar todas as tarefas. A segunda forma de quantificação adotada refere-se ao tempo necessário para conseguir utilizar pela primeira vez o aplicativo e realizar as tarefas que foram propostas nos cenários. A Tabela 3 demonstra os resultados para o tempo que cada participante levou para concluir as tarefas. Tabela 3. Tempo para realizar as tarefas propostas Usuário

Tempo total para executar as tarefas

Usuário 1

4 minutos e 38 segundos

Usuário 2

4 minutos e 43 segundos

Usuário 3

5 minutos e 19 segundos

Usuário 4

3 minutos e 36 segundos

Usuário 5

3 minutos e 39 segundos

Usuário 6

4 minutos e 18 segundos

A diferença de tempo entre o usuário que realizou em mais tempo (Usuário 3) e o que realizou em menos tempo (Usuário 4), foi de 1 minuto e 44 segundos. A terceira forma de quantificação que foi considerada se refere à quantidade de erros cometidos pelos usuários na primeira sessão de uso do aplicativo. A Tabela 4 mostra as situações de erros cometidos pelos usuários, capturados através da análise da interação gravada por áudio e vídeo. Tabela 4. Erros ocorridos durante a realização das tarefas

A quarta forma de quantificação utilizada enfatizou os aspectos relacionados às dificuldades demonstradas pelas reações dos participantes durante a primeira experiência de uso do aplicativo. Esses dados foram obtidos a partir da análise cautelosa da interação gravada de cada participante, que demonstraram dificuldades nas situações descritas na Tabela 5. Outra forma de quantificação utilizada para avaliar o aplicativo "Onde fica? - UFC" foi a aplicação de questionário,


onde os usuários puderam expor suas opiniões com relação a sua primeira experiência de uso do aplicativo, considerando a facilidade de aprendizagem. Os resultados são apresentados na Figura 14. Apesar das poucas dificuldades detectadas pelos entrevistados na Figura 6, 100% dos entrevistados responderam que o aplicativo era fácil de aprender. Tabela 5. Dificuldades demonstradas pelos usuários Descrição da reação do usuário

Número de participantes

Observações

Usuário Usuários demonstraram certa sensação de impaciência demonstrou pela dificuldade em se localizar. dificuldade em 3 participantes se localizar no mapa. Determinado usuário argumentou: “Eu não consigo!” Usuário demonstrou dificuldade em 2 participantes localizar informações do cardápio do RU.

Registrado a ocorrência de erros na tentativa de localizar determinadas informações(tabela anterior). Determinado usuário argumentou: “A visualização é um pouco complicada!”.

Figura 6. Dificuldades de uso

Em relação ao critério satisfação, 100% dos entrevistados consideraram o aplicativo como excelente e se declararam satisfeitos com as funcionalidades do sistema. Em relação à velocidade de acesso, 50% consideraram excelente e 50% bom, indicando resultados positivos junto a todos os entrevistados. Os mesmos 100% responderam excelente para o quesito clareza e objetividade do aplicativo. 80% dos usuários consideram o aplicativo muito necessário, e 100% dos entrevistados afirmaram que fariam o download do aplicativo em seus smatphones. Foi sugerido pelos usuários que o mapa do aplicativo fosse melhorado e que fosse criada uma versão para o sistema windows 8. V. CONCLUSÃO E TRABALHOS FUTUROS O presente estudo buscou avaliar a usabilidade do aplicativo "Onde fica? – UFC" em dispositivos móveis com sistema Android, a partir da combinação entre a avaliação heurística e testes de usabilidade. Verificou-se que os dispositivos móveis possuem características bastante particulares e que devem ser tratadas de forma diferente, não sendo aplicáveis as mesmas técnicas para o projeto e avaliação de interfaces de computadores de mesa para os dispositivos móveis. Deve-se considerar as diferenças entre o contexto de uso estático e o contexto de uso móvel.

A escolha em combinar método de inspeção com método de observação mostrou ter sido uma boa combinação, pois cada um possui uma abrangência distinta e que se complementam no sentido de melhorar a experiência de uso dos usuários. Enquanto o primeiro foca a opinião de especialistas, o segundo foca a experiência de uso do sistema avaliado diretamente pelos seus usuários-alvo. A avaliação heurística, por se tratar de um método de baixo custo, se mostrou bastante produtiva ao evidenciar violações de princípios de usabilidade que serão repassadas para os desenvolvedores do aplicativo para que possam ser feitas as possíveis alterações para aprimorar a sua usabilidade. Vale ressaltar a importância do perfil dos avaliadores que participaram da avaliação e as heurísticas que foram utilizadas para guiar o processo de avaliação, considerando o aspecto da qualidade dos problemas encontrados nas inspeções. O checklist validado para dispositivos móveis touchscreen que foi utilizado, aliado à experiência dos avaliadores permitiu que fossem encontrados uma lista de erros com bastante coerência e qualidade. O rigor com que as inspeções foram executadas por parte de cada avaliador garantiu a confiabilidade para se afirmar as violações identificadas. Os testes de usabilidade permitiram captar informações importantes sobre as experiências de uso dos usuários em um contexto de uso específico. Devido aos vários dispositivos disponíveis no mercado, a padronização no desenvolvimento das interfaces facilita a utilização pelo usuário. Além das particularidades físicas, deve-se levar em conta também o contexto no qual os usuários-alvo do sistema farão uso do sistema. Essas variáveis devem ser consideradas para o desenvolvimento e avaliação de aplicações específicas para dispositivos móveis. Outro aspecto considerável para a usabilidade diz respeito à influência do nível de experiência do usuário no resultado dos testes. Percebeu-se nesse estudo que os estudantes do Centro de Tecnologia (UFC) obtiveram os melhores resultados nos testes por terem um perfil de maior vivência com o uso da tecnologia, tornando-os mais versáteis e habilidosos no uso de qualquer aparato tecnológico. Considerando a facilidade de aprendizagem, no geral, o aplicativo foi avaliado como fácil de usar considerando ainda que todos os usuários conseguiram realizar as tarefas propostas. Do ponto de vista de erros e dificuldades encontradas, as observações analisadas evidenciaram as partes do aplicativo onde os usuários demonstraram ter alguma dificuldade de uso. A partir daí, será possível sugerir alterações de melhorias para facilitar o uso do aplicativo. A medida da satisfação na experiência de uso foi considerada predominantemente satisfatória pelos usuários, demonstrando estarem satisfeitos com as funcionalidades do aplicativo, com a rapidez, clareza e objetividade no acesso às informações. Deve-se considerar o espaço dedicado às sugestões dos usuários-alvo, tendo as mesmas sido de extrema importância para o projeto do sistema, pois mostraram suas vontades e expectativas relacionadas ao uso do sistema em questão.


A partir deste estudo foi possível compreender a importância de se realizar avaliações da interação humanocomputador em dispositivos móveis, visto que se trata de uma tecnologia recente e que a sua utilização têm se tornado cada vez mais evidente devido a sua grande difusão no mercado. Por ter se abordado no estudo realizado uma única aplicação em um contexto específico, é importante ressaltar que existe uma dificuldade para a generalização dos resultados desta pesquisa. É importante se destacar a existência de várias categorias de aplicativos e que cada uma dessas categorias apresentam características distintas de uso e interação. Essas características levantam uma possibilidade de desenvolvimento de um estudo que considere essas particularidades para a criação de um conjunto de heurísticas específicas para o tipo de categoria do aplicativo a ser avaliado. Como trabalhos futuros pretende-se a realização da avaliação comparativa da usabilidade do aplicativo com diferentes dispositivos móveis. Uma outra opção seria a avaliação de diferentes métodos de avaliação de usabilidade no cenário de dispositivos móveis. Outro importante nicho de pesquisa sugerido refere-se à investigação de alternativas para a captura automática dos dados durante a interação usuárioproduto, de forma que seja transparente ao usuário. Por exemplo, o desenvolvimento de um software adequado para dispositivos móveis que grave a interação do usuário diretamente com a interface para permitir uma análise mais precisa das ações realizadas pelos usuários durante a interação com o sistema. REFERÊNCIAS B’FAR, R. Principles Designing and Developing Mobile Applications with UML and XML. First Edition, The Edinburgh Building, Cambridge: CAMBRIDGE UNIVERSITY PRESS, 2005.

DOS ANJOS, T. P. Descomplicando o uso do celular pelo idoso: desenvolvimento de interface de celular com base em princípios de usabilidade e acessibilidade. Dissertação de Mestrado - Programa de Pós Graduação em Engenharia de Produção e Sistemas, Universidade Federal de Santa Catarina Florianópolis, 2012. FREIRE, A. P. Acessibilidade no desenvolvimento de sistemas web: um estudo sobre o cenário brasileiro. Dissertação (Mestrado), São Carlos, SP: Universidade de São Paulo, Instituto de Ciências Matemáticas e de Computação, 2008 HILTUNEN, M., LAUKKA, M., LUOMALA, J. Mobile User Experience. Finland: Edita Publishing Inc., 2002. ISO 9241-11 Requisitos Ergonômicos para Trabalho de Escritórios com Computadores - Parte 11 – Orientações sobre Usabilidade. (Associação Brasileira de Normas Técnicas). ISO/IEC 9126-1. Software Product Quality – Part 1: Quality Model, 2001. KETOLA, P. ; RÖYKKEE, M. The three facets of usability in mobile handsets. In: CHI 2001 Workshop: Mobile Communications: Understanding Users, Adoption & Design. 2001. KRONE, C. Validação de Heurísticas de Usabilidade para Celulares Touchscreen. Grupo de Qualidade de Software/INCoD/UFSC. Florianópolis – SC, 2013. LEE, V.; SCHNEIDER, H.; SCHELLl, R. Aplicações Móveis - Arquitetura, projetos e desenvolvimento. São Paulo: Pearson Education do Brasil, 2005. MACHADO, L. V. Avaliação da ergonomia e usabilidade de dispositivos móveis para a terceira idade. Balsas – MA, 2010. NIELSEN, J. Usability Engineering. Boston - USA: Academic Press, 1993. NIELSEN, J.; LORANGER, H. Usabilidade na web. Elsevier Brasil, 2007. PÁDUA, C. I. P. da S. Engenharia de Usabilidade – Material de Referência. UFMG, Belo Horizonte,MG. Disponível em: <http://homepages.dcc.ufmg.br/~clarindo/arquivos/disciplinas/eu/material/ref erencias/apostila- usabilidade.pdf>. Acesso em: 23 out. 2012 PERRY, G. T. , EICHLER M. L., RESENDE G. Avaliação de usabilidade do Mobiteste, um aplicativo educacional para dispositivos móveis. Revista Brasileira de Design da Informação. Design, São Paulo, 2012.

BALLARD, B. Designing the Mobile User Experience. Little Springs Design, Inc., USA: Wiley, 2007.

SANTOS, R. ; FREITAS, S.; SOUSA, C. Usabilidade de aparelhos celulares: um estudo de consumidores de classes C e D. In: 4o Congresso Internacional de Pesquisa em Design Brasil, 2007, Rio de Janeiro. Anais. Rio de Janeiro : Anped, 2007.

BARBOSA, S. D. J e SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2010.

SANTOS, R. ; MACIEL, F. Estilos de interação em interfaces para dispositivos móveis. Revista Ação Ergonômica, v. 5, n. 3, 2011.

BETIOL, A. H. Avaliação de usabilidade para os computadores de mão: Um estudo comparativo entre três abordagens para ensaios de interação. 2004. Tese de Doutorado (Doutorado em Engenharia de Produção) - Universidade Federal de Santa Catarina, Florianópolis, 2004.

TAURION, C. Cenários das aplicações móveis para os próximos anos. In: Mobile Corporate Forum. Curitiba, agosto, 2003

BETIOL, A. H.; CYBIS, Walter; FAUST, Richard. Ergonomia e usabilidade. São Paulo: Novatec, 2010.

WOHLIN C., RUNERSON P., HOST, M., OHLSSON, B. R., WESSLÉN, A., Experimentation in Software Engineering - An introduction, Kluwer Academic Publishers, 2000.

CYBIS, W; BETIOL, A. H.; FAUST, R. Ergonomia e Usabilidade: Conhecimentos, Métodos e Aplicações. São Paulo: Novatec, 2007. DANTAS, V. L. L. Requisitos para Testes de Aplicações Móveis. 2009. Dissertação (Mestrado em Ciência da Computação) - Departamento de Computação, Universidade Federal do Ceará, Fortaleza, 2009 DE ABREU C. W.; BETIOL, A. H.; FAUST R. Ergonomia e usabilidade: conhecimentos, métodos e aplicações. Novatec Editora, 2007. DE ARAÚJO, E. C. J.; SOUZA, L.V. de.; GUEDES, R. M..; COUTINHO, A. F. B. Avaliação da Usabilidade de Sistemas Móveis. Instituto de Educação Superior de João Pessoa – PB (FATEC-JP), 2009.

WEISS, S. Handheld Usability. John Wiley & Sons, Ltd, West Sussex, England, 2002.

ZHANG, D.; ADIPAT, B. Challenges, Methodologies, and Issues in the Usability Testing of Mobile Applications. In: Proceedings of the International Journal of Human Computer Interaction (IJHCI), vol. 18, nº 3, 2005, p. 293308. ZWICK, C.; SCHMITZ, B.; KÜHL, K. Designing for small screen. Lausane: AVA, 2005. RUNERSON, P., HOST, M. Guidelines for conducting and reporting case study research in software engineering, Springer: Empiric Software Eng. ,14:31-164, DOI 10.1007, 2009.


A Experiência da Parceria entre Universidade, Indústria e Órgão de Fomento para Definição e Implantação de um Processo de Software Carla Ilane M. Bezerra¹, Enyo J. T. Gonçalves¹, Marcos Antônio de Oliveira¹, Rebeca Rebouças², Daniel Rolim² ¹Universidade Federal do Ceará (UFC) Avenida José de Freitas Queiroz, nº 5.003 – Quixadá – CE – Brasil – Campus Quixadá ²iFactory Solutions Avenida Santos Dumont, nº 1687, Fortaleza – CE carlailane@ufc.br, enyo@ufc.br, deoliveira.ma@ufc.br, rebeca.reboucas@ifactory.com.br, daniel.rolim@ifactory.com.br  Resumo – Este trabalho relata a experiência de colaboração entre indústria e universidade na execução de um projeto financiado por uma fundação de amparo a pesquisa, por intermédio de um programa de apoio a pesquisas em empresas. O objetivo do projeto é a definição e implantação de um processo de software, baseado em práticas do nível G do MPS.BR, na sede da empresa localizada na capital do Ceará e em uma filial localizada no interior do estado atendendo a necessidade de gerenciar equipes distribuídas e características de uma metodologia de desenvolvimento ágil, já utilizada na empresa, levando em consideração fatores culturais das diferentes regiões onde sede e filial se localizam. Como resultados desse projeto, obteu-se a certificação nível G do MPS.BR pela empresa e consequentemente maior qualidade dos produtos de software desenvolvidos. Palavras-chave: Processo de Software. Qualidade de software. Parceria universidade-empresa.

I. INTRODUÇÃO

A

s universidades são ambientes propícios ao desenvolvimento científico-tecnológico e notadamente são consideradas disseminadoras do conhecimento, contando para tanto com uma quantidade de profissionais com titulação e experiência diferenciados em pesquisa. Já as empresas são ambientes propícios para aplicação e validação das evoluções do ambiente acadêmico. Neste contexto, é natural que por vezes haja necessidade aproximação entre universidades e empresas no sentido de solucionar algum problema do ambiente corporativo através do background científico dos profissionais das universidades. Por um lado, cada vez mais o mercado exige das empresas de desenvolvimento de software melhor qualidade dos produtos/serviços. Isso tem motivado as organizações a adotarem modelos de qualidade como CMMI [4] e MPS.BR [12] para melhorarem os seus processos. No entanto, as organizações além de garantir a qualidade dos seus produtos e

processos, também precisam atender a prazos cada vez menores. Muitas empresas vêm adotando, com sucesso, a integração de metodologias ágeis, como XP [2] e Scrum [9] e com modelos de maturidade [7], [3] e [11]. Por outro lado, pesquisas relacionadas a processo e a qualidade de software vêm cada vez mais ganhando espaço nas universidades, seja através de monografias, dissertações, teses ou projetos de pesquisa. Eventos de qualidade também vêm sendo foco da academia há algum tempo, a exemplo do Simpósio Brasileiro de Qualidade de Software (SBQS). Neste contexto, este artigo tem como objetivo relatar a experiência de parceria entre Universidade e empresa que vem sendo desenvolvido no contexto de um projeto de pesquisa que ainda está em execução, tendo iniciado suas atividades no início de 2011 e teve término no final do ano de 2012. O projeto visa a definição e implantação de um processo de software na capital do Ceará e em uma filial do interior que atendesse a características de um processo distribuído ágil, levando em conta fatores culturais da empresa e práticas do nível G do MPS.BR. Este artigo está estruturado em cinco seções. A Seção 2 descreve a importância da parceria indústria e Universidade. Na Seção 3, é apresentada a execução do projeto desde o estabelecimento da parceria UFC/iFactory/FUNCAP, o planejamento, definição até a implantação e disponibilização do processo previsto na execução projeto. Na Seção 4, são apresentados resultados obtidos e futuros passos do projeto e, na Seção 5, são descritas as conclusões. II. A IMPORTÂNCIA DA PARCERIA UNIVERSIDADE, INDÚSTRIA E ÓRGÃOS DE FOMENTO A ideia de criar laços entre a Universidade e a empresa remonta pelo menos a Comte, um filósofo francês fundador da Sociologia e do Positivismo que, em 1819, publicou um plano para homens de negócios, industriais e cientistas [8]. Segundo Lindenstein e Walshok [6], parte-se do princípio de que essas


interações podem favorecer o surgimento de novas ideias, relações e abordagens. Editais de órgãos de fomento a pesquisa voltados à parceria entre universidades e empresas, projetos de lei de informática e a criação de parques tecnológicos no Brasil são iniciativas que impulsionam a aproximação entre a indústria de software e a academia. De modo geral, as empresas fornecem às universidades os recursos necessários para a pesquisa e o desenvolvimento, objetivando ultrapassar a fronteira do conhecimento [10], além de participar com conhecimento de mercado e demanda de novas criações. Estas se beneficiam da inovação tecnológica a menores custos, aquisição de conhecimento, acesso a laboratórios e bibliotecas da universidade, apoio de recursos humanos altamente qualificados, entre outros [1]. Por conta das universidades apresentarem conhecimento latente aguardando oportunidades de aplicação, estas disponibilizam soluções baseadas em inovação para os problemas existentes nas empresas. Uma parceria deve ser vantajosa para cada participante. Com relação à parceria academia-indústria, além da captação de recursos para pesquisas básicas e aplicadas, as Universidades também têm a oportunidade de produzir pesquisas de ponta, formar pesquisadores, professores e alunos mais capacitados, ministrar ensinos associados a projetos de alta tecnologia e aumentar sua participação no desenvolvimento nacional [1]. O crescimento das alianças entre governo, empresas e universidades ou centros de pesquisa representam uma manifestação da política de pesquisa e desenvolvimento de um país e são conhecidos como Modelo da Hélice Tripla - Triple Helix Model [5]. Neste contexto, órgãos governamentais de apoio à pesquisa vêm fomentando parcerias entre indústria e academia visando: i) o desenvolvimento de produtos ou processos inovadores; ii) promover a competitividade das empresas; iii) compartilhar custos para diminuir o risco tecnológico da inovação; iv) estimular pesquisadores a se associarem as empresas de base tecnológica; e v) ampliar as atividades de inovação no universo empresarial. Podem ser citadas iniciativas como o Programa de Apoio à Pesquisa em Empresas (PAPPE) da Fundação Cearense de Apoio ao Desenvolvimento Científico e Tecnológico (FUNCAP) e outros programas semelhantes disponíveis na Financiadora de Estudos e Projetos (FINEP) e Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPQ), além dos projetos envolvendo a Lei da Informática. III. EXECUÇÃO DO PROJETO O projeto a ser apresentado nesse relato de experiência resultou de uma parceria entre a Universidade Federal do Ceará (UFC), do Campus Quixadá, e a empresa de desenvolvimento de software, iFactory. O projeto foi aceito no edital do PAPPE Integração, submetido à FUNCAP, em contrato com a FINEP. O projeto visa a definição e implantação de um processo na matriz localizada em Fortaleza e, na filial da empresa iFactory, localizada no interior do Ceará. É importante destacar que o projeto detalhado neste artigo foi o único aceito no Edital da FUNCAP para definição e implantação de processos de software, todos os outros são relacionados ao desenvolvimento de produto.

A iFactory é uma das principais integradoras de TI do Brasil. Com operações em Fortaleza (CE), São Paulo, Quixadá (CE), Chicago, Miami, Cidade do México e Santiago, a companhia atua globalmente, oferecendo serviços de outsourcing, fábrica de software e Help Desk. A iFactory possui atualmente cerca de 110 colaboradores, divididos em diferentes áreas de especialização como: Arquitetura, Desenvolvimento, Qualidade de Software e Suporte. A UFC, do Campus Quixadá, está em funcionamento desde 2007 e possui atualmente três cursos de graduação voltados para área de tecnologia de informação: curso de Bacharelado em Sistemas de Informação; curso de Bacharelado em Engenharia de Software; curso de Bacharelado em Ciência da Computação e o curso de Graduação Tecnológica em Redes de Computadores. A cidade de Quixadá é hoje uma das principais cidades do sertão central, e encontra-se em pleno crescimento, principalmente devido às instalações de faculdades e Universidades na cidade. A seguir são apresentadas as fases de estabelecimento de parceria, planejamento, definição e implantação dos processos na ifactory, para execução do projeto. A. Estabelecimento da Parceria UFC/iFactory/FUNCAP A Parceria entre a UFC Quixadá e iFactory foi estabelecida inicialmente a partir de programas de capacitação, no qual, ao final dos programas, os melhores alunos são absorvidos pela empresa para estágio. Houve um contato maior entre a diretoria da iFactory e a diretoria do Campus Quixadá, visando melhorar a infraestrutura da região a partir da construção de um Polo Digital e busca de apoio político. A partir dessa aproximação, a iFactory e a universidade passaram a conversar sobre possíveis projetos que poderiam fortalecer essa parceria. O projeto descrito neste artigo é o primeiro projeto dessa natureza estabelecido na UFC Quixadá. O projeto veio da necessidade da empresa, que foram em busca de pessoas capacitadas para auxiliarem na execução e aprimorarem o processo da empresa. Além disso, a iFactory tem como objetivos a fixação do pesquisador local na região, a fixação dos egressos de graduação e pós-graduação dos cursos de tecnologia da região, capacitação e qualificação dos funcionários da filial de Quixadá. O projeto foi submetido ao Programa de Apoio à Pesquisa em Empresas (PAPPE) da Fundação Cearense de Apoio ao Desenvolvimento Científico e Tecnológico (FUNCAP) em 18/10/2010, tendo sido aceito. A UFC Quixadá está apoiando o projeto com três professores pesquisadores na empresa, sendo um dos professores já experiente na definição e implantação de processos MPS.BR e CMMI em outras empresas. Também foram contratados, pelo projeto, estagiários do curso de Sistemas de Informação do Campus Quixadá, que estão passando por uma experiência na matriz da empresa, por um programa de mobilidade acadêmica da UFC Fortaleza para que, ao final desse programa, estes sejam absorvidos pela filial da iFactory, em Quixadá. B. O Planejamento das Atividades do Projeto O projeto iniciou-se com a elaboração de um cronograma macro, para as atividades do projeto, com duração de dois anos e início em janeiro de 2011. O planejamento foi


apresentado pelos consultores do projeto para a alta administração da empresa, e o mesmo foi aprovado. A atividade inicial do projeto foi o diagnóstico das atividades que eram executadas nos projetos de desenvolvimento de software da empresa. A maioria dos projetos utilizava práticas ágeis da metodologia Scrum e alguns dos projetos geravam alguns documentos que eram utilizados, como termo de abertura do projeto e documento de requisitos. No entanto, estes documentos não eram padronizados em um processo disponibilizado para todos os projetos. Em relação ao que foi encontrado de documentação nos projetos da empresa, foi realizado o mapeamento das atividades já executadas, com as determinações do nível G do MPS.BR, sendo que o objetivo do projeto era atingir um dos níveis iniciais do MPS.BR. Nesse mapeamento, foram disparadas ações para que fosse definido um processo alinhado ao nível G do MPS.BR, às práticas do Scrum, e à atividades que a empresa já desenvolvia, relacionadas a Testes de Software.

Como um dos objetivos do projeto e da iFactory é o desenvolvimento da filial de Quixadá, foi realizada uma pesquisa sobre fatores culturais e de infraestrutura da região do semiárido, os quais influenciam processos de trabalho colaborativos. Posteriormente, foi elaborado um plano de ação, com base na pesquisa realizada. Outro objetivo a ser atendido pelo projeto é a adequação das atividades dos projetos às particularidades do desenvolvimento de software, por uma equipe geograficamente distribuída. Foi também previsto no planejamento uma pesquisa de técnicas e ferramentas para auxiliar no desenvolvimento distribuído de software. C. Definição e Revisão dos Processos A definição do processo foi realizada com base no plano de ação montado na fase de diagnóstico. Foram considerados no plano de ação a aderência às práticas do nível G do MPS.BR e às práticas do Scrum. Para execução do plano de ação, foram utilizadas práticas do Scrum para auxiliar no gerenciamento da definição do processo.

Figura 1- Modelo do Processo Definido na iFactory


As ações foram consideradas como itens do Backlog do projeto e foram definidas Sprints de 15 dias para a execução de um conjunto de itens do Backlog. O Projeto não possuía reuniões diárias, apenas a reunião inicial de planejamento da Sprint, a reunião de revisão da Sprint e de retrospectiva. O coordenador do projeto utilizou o Jira (http://www.atlassian.com/software/jira/overview), ferramenta já utilizada na empresa, para auxiliar no acompanhamento do projeto. Os três consultores foram os responsáveis por definir o processo de acordo com o planejamento inicial. Foram contratados para o projeto uma Líder da Qualidade e estagiários que acompanhavam e auxiliavam ao longo da definição do processo. A modelagem de todo processo foi realizada na ferramenta EPF Composer (http://www.eclipse.org/epf/) conforme a Figura 1. Parte das atividades que constam no processo mostrado da Figura 1 já faziam parte da rotina da empresa. As atividades Iniciar projeto, Definir requisitos, Planejar projeto, Construção, Implantação, Solicitar Correção de Bug ou implementação de Melhoria, Corrigir bug ou melhoria, Testar Correção de Bug/implementação de melhoria, Testar correção de Bug/implementação de melhoria, Elaborar Evidências de Teste e Encerrar projeto sofreram poucas alterações em relação ao que já vinha sendo executado na empresa o esforço dedicado na definição foi referente a documentação e padronização das atividades e artefatos relacionados nos projetos. As atividades Gerenciar Projeto e Gerenciar Requisitos abrigam a implementação do nível G do MPS.BR. O plano de ação de fatores culturais da região do semiárido e o plano de infraestrutura não estão presentes no processo, por tratar-se de artefatos extremamente dinâmicos, que tem atualização periódica. O plano de ação foi disponibilizado através da intranet e o acompanhamento das ações vem sendo realizado através do Jira. As ações executadas no plano de ações de fatores culturais e de infraestrutura estão relacionadas à melhoria da infraestrutura da filial da iFactory no interior de Quixadá, com inclusão de ferramentas e melhoria da rede da filial com a inclusão do projeto Cinturão Digital, que beneficia várias cidades do interior do Ceará, e também com a capacitação da equipe e intercâmbio dos colaboradores entre as filiais de Fortaleza e Quixadá. Já o plano de ação para o desenvolvimento distribuído de software envolveu a identificação de novas ferramentas para auxiliar a comunicação, gerenciamento e integração com a equipe de desenvolvimento de software distribuída entre as duas filiais. As ações afetaram o processo apenas na inclusão de ferramentas que auxiliaram nesses fatores. Após a definição do processo, o mesmo foi validado e revisado pela Alta Gerência através de uma reunião de validação, onde as atividades do processo foram avaliadas de forma a verificar se as práticas utilizadas realmente consistiam em melhoria em relação ao que já era utilizado pela empresa. Desde o início, o objetivo maior da Alta Gerência era aplicar práticas aos projetos que burocratizassem o mínimo possível e que contribuíssem com a padronização e da qualidade.

D. Disponibilização e Implantação dos Processos Após o processo proposto ter sido validado pela Alta Gerência e implementadas as correções necessárias, o processo foi disponibilizado em uma área específica da Intranet da empresa. Para implantação do processo definido, foram selecionados dois projetos pilotos e foi planejado o treinamento do processo padrão da ifactory, já com as práticas do nível G do MPS.BR definidas, para as equipes dos projetos. O treinamento foi realizado na matriz da iFactory e ministrado por um dos consultores do projeto. No decorrer da execução dos projetos, foram surgindo algumas dúvidas relacionadas ao projetos, em relação a como desenvolver algumas atividades, e sugeridas algumas melhorias, sendo executado assim, um ciclo de melhoria contínua dos processos. Por meio de novas práticas estabelecidas no processo, pôde-se observar uma redução significativa de bugs e um aumento da qualidade dos testes. Uma dessas práticas foi a execução dos casos de teste pelos desenvolvedores do projeto. Houve também um aumento da monitoração e controle dos projetos, que agora têm seus andamentos visualizados por meio de indicadores e de auditorias da Qualidade, as quais verificam a aderência dos processos executados e dos produtos gerados ao Processo Padrão iFactory, definido para a empresa, apesar de não ser exigido no nível G do MPS.BR. A princípio, houve um pouco de resistência por parte dos desenvolvedores em terem que apropriar suas horas nas atividades realizadas, diariamente e, quando não finalizadas, reestimando tais atividades. Isso permitiu um acompanhamento diário das atividades realizadas nos projetos. Os Scrum Masters também tiveram um acréscimo de suas atividades, mas entenderam que, toda a organização proposta no Processo Padrão, traz muitos benefícios e permite um controle bem maior dos projetos, o que acaba por influenciar diretamente nas tomadas de decisão. IV. RESULTADOS OBTIDOS E PRÓXIMOS PASSOS Com a implantação do processo nos projetos piloto, foram observados inúmeros ganhos, como: o aumento do controle e monitoração sobre os projetos, fornecendo uma maior visibilidade do andamento do projeto; padronização do processo, sendo que todos os projetos de escopo fechado passaram a seguir um mesmo fluxo, sendo controlados e monitorados da mesma forma; aumento na qualidade do produto entregue ao cliente, diminuindo as solicitações de mudanças e bugs identificados pelo cliente, o que resultou em uma maior satisfação por parte do cliente e aumento da motivação dentro do time. Estes foram os principais ganhos resultantes deste projeto de definição de um processo para iFactory. Além destes, foram identificados outros benefícios, tais como: • Abertura de parceria da UFC Quixadá com a indústria, possibilitando a viabilidade de submissão de outros projetos; • Capacitação dos bolsistas envolvidos e formação de mão de obra qualificada, por meio do desenvolvimento dos profissionais que participaram do projeto; • Acompanhamento e apoio dos pesquisadores, por meio do conhecimento especializado, necessário à implementação do projeto;


• Profissionais da iFactory e bolsistas do projeto adquiriram experiência com a execução do projeto e poderão dar continuidade à evolução do processo; • Aumento do investimento da iFactory, na filial de Quixadá, possibilitando maiores contratações e absorção de mão de obra formada pelos cursos de graduação do Campus Quixadá UFC; • Com o crescimento da iFactory na filial de Quixadá, vem havendo uma maior absorção dos alunos de graduação da UFC, como mão de obra qualificada para empresa, possibilitando o crescimento e fixação dos cursos de graduação da Universidade Federal, relacionados à Tecnologia da Informação; • Maior investimento no setor de Qualidade da empresa, aumentando o controle dos projetos, por meio da realização de auditorias e aumento da qualidade dos testes, melhorando o produto e elevando a satisfação dos clientes; • A empresa atingiu o nível G do MPS.BR no primeiro semestre de 2012. V. CONCLUSÕES E TRABALHOS FUTUROS Foi apresentado neste artigo um relato de experiência relacionado à documentação e melhoria do processo de uma empresa partindo de uma aproximação entre Universidade, Indústria e órgãos de fomento. Aproximações nestes moldes propiciam o desenvolvimento de projetos voltados à inovação aplicada na indústria, de modo que o ambiente acadêmico é beneficiado com a possibilidade de aplicar os conceitos e fornecer experiência prática aos alunos. Por outro lado, a indústria é beneficiada com um produto útil, o processo neste caso, que será utilizado na empresa de modo a dar mais qualidade aos produtos desenvolvidos e ao relacionamento entre os profissionais devido à abordagem de fatores culturais do semiárido. Já as empresas de fomento, cumprem seu papel de desenvolvimento regional (Estado do Ceará, neste caso). Por ser o primeiro projeto com este tipo de parceria que a equipe desenvolve, tanto a empresa, quanto a Universidade encontraram alguns desafios e dúvidas. O apoio necessário foi encontrado nas fundações associadas às Universidades, as quais viabilizam o desenvolvimento do projeto deste modelo. Como trabalhos futuros pretende-se estender o processo para o nível F do MPS.BR, melhorando as práticas de gerência de configuração para apoio no desenvolvimento distribuído e melhorar a qualidade do processo e do produto com as práticas de Garantia da Qualidade, além de se beneficiar com as práticas de Gerência de Portfólio e Medição. Como trabalho futuro é vislumbrado um estudo quantitativo utilizando abordagens estatísticas para quantificar e validar os resultados obtidos, este estudo será viável quando o processo for implantado em uma grande quantidade projetos e estes chegarem ao fim. Outro trabalho futuro é a continuação da parceria firmada entre UFC e iFactory através do desenvolvimento de novos projetos nos próximos anos. REFERÊNCIAS [1]

ANDRADE, R. M. C.; MAIA, P. H. M.; CASTRO, R. N. M.; DANTAS, V. L. L.; ANDRADE, T. C. (2011). Indústria é de Marte Academia é de Vênus (Short Paper). 25º Simpósio Brasileiro de Engenharia de Software

[2]

BECK, K. (1999) Extreme Programming Explained: Embrace Change. Addison-Wesley. [3] CATUNDA, E.; NASCIMENTO, C.; CERDEIRAL, C.; SANTOS, G.; NUNES, E.; SCHOTS, N. C. L.; SCHOTS, M.; ROCHA, A. R. (2011) “Implementação do Nível F do MR-MPS com Práticas Ágeis do Scrum em uma Fábrica de Software”. Simpósio Brasileiro de Qualidade de Software (SBQS). [4] CHRISSIS, M., KONRAD, M., SHRUM, S. (2011) “CMMI Guidelines for Process Integration and Product Improvement”. Addisson-Wesley, EUA, 3rd Edition. [5] ETKOWITZ, H. (2008). The Triple Helix of University, Industry and Government: Innovation in action. Nova York: Routledge. [6] LINDENSTEIN, P.; WALSHOK, M. (1990) “Technology transfer and university extension”. In: ROHFELD, R.W. (Ed.). Expanding access to knowledge—continuing higher education: NUCEA 1915–1990. Washington, DC: National University Continuing Education Association, p. 195-197. [7] SALGADO, A.; MELCOP, T.; ACCHAR, J.; REGO, P. A.; FERREIRA, A. I. F.; KATSURAYAMA, A. E.; MONTONI, M.; ZANETTI, D. (2010) “Aplicação de um Processo Ágil para Implantação de Processos de Software baseado em Scrum na Chemtech”. Simpósio Brasileiro de Qualidade de Software (SBQS). [8] SCHUGURENSKY, D; NAIDORF, J. (2004) “Parceria Universidadeempresa e mudanças na cultura acadêmica: análise comparativa dos casos da Argentina e do Canadá”. Revista Educação e Sociedade, Campinas, vol. 25, n. 88, p. 997-1022. [9] SCHWABER, K. (2004) “Agile Project Management With Scrum”, Microsoft Press, Redmond, Washington, USA. [10] SILVA, L. E. B.; MAZZALI, L. (2001) “Parceria tecnológica Universidade - empresa: um arcabouço conceitual para a análise da gestão dessa relação”. Revista Parcerias Estratégicas (Brasília), Brasília, v. 6, nº 11, ISSN: 2176-9729. [11] SILVA, T., MAGELA, R., SANTOS, G., SHOTS, N. C. L., ROCHA, A. R. (2011) “Implantação do Nível F do MR-MPS Combinando Características do Processo Unificado com Práticas SCRUM”. Workshop Anual do MPS (WAMPS), Campinas. [12] SOFTEX (2011) "MPS.BR: Melhoria de Processo do Software Brasileiro - Guia Geral", Disponível em: http://www.softex.br/MPS.BR.


Análise Comparativa de Ferramentas de Modelagem UML para Projeto Acadêmico* N. K. do P. Nakamura Departamento de Engenharia Elétrica Pontifícia Universidade Católica do Rio de Janeiro Rio de Janeiro, Brasil Resumo—Existem diversas ferramentas computacionais para construção de modelos UML hoje em dia, diferindo principalmente em termos de complexidade, portabilidade e custo, tornando, portanto, mais difícil determinar qual é melhor para cada projeto. Este artigo propõe uma análise de um grupo limitado, porém popular de ferramentas de modelagem UML, filtrando-as através de um processo seletivo específico para o desenvolvimento do projeto de aplicativo para celulares, Tradutor Libras Português (TraLP), cujo objetivo é assistir a comunicação com deficientes auditivos no Brasil. Palavras-chave—UML; mobile; aplicativo; comunicação; Libras Abstract—There are many computational tools to construct UML models nowadays, differing mainly in terms of complexity, portability and cost, therefore making it more difficult to determine which is best for each project. This article proposes an analysis of a limited, yet popular group of UML modeling tools, filtering them through a process of selection specific to the development of the mobile app project, Tradutor Libras Português (TraLP), which aims to assist communication with the impaired of hearing in Brazil.

Nestes diagramas observou-se sempre, em cada uma das ferramentas, a usabilidade, abrangência, presença de validação, liberdade de edição, presença de versionamento ou histórico de edições, possibilidade de compartilhamento de arquivos, formatos de exportação, preço e plataformas. Dentro de usabilidade, além da interface, estudou-se a presença ou não dos seguintes recursos oferecidos para uma criação mais completa, fácil e organizada de diagramas:  Tamanho do espaço para edição;  Diferenciação de cores dos objetos;  Redimensionamento dos objetos;  Alinhamento dos objetos;  Espessura da linha dos objetos;  Alinhamento de texto;  Formatação de texto;  Transparência ou opacidade dos objetos;  Ordenação dos objetos;  Disponibilidade de elementos específicos dos diagramas de comportamento;  Zoom para detalhamento. II.

Keywords—UML; mobile; app; communication; Libras

I.

INTRODUÇÃO

A modelagem de um projeto toma parte essencial na construção de um software de qualidade, pois representa a fase de planejamento e de detalhamentos que definem toda a sua estrutura, design e funcionamento. O projeto Tradutor Libras Português (TraLP) exigia uma ferramenta de modelagem UML que atendesse a, pelo menos, os seguintes requerimentos:  Confecção de desenho correto de diversas categorias de modelos comportamentais tanto em fase inicial quanto futura;  Possibilidade de compartilhamento dos diagramas entre os membros da equipe, permitindo-os visualizálos e editá-los;  Possibilidade de exportação dos diagramas para arquivos no formato PDF, formato de imagem e formatos posteriormente editáveis (vetores);  Preço razoável dentro do orçamento do projeto. Este conjunto de requerimentos compõe o primeiro filtro de seleção das ferramentas. O estudo foi feito por meio de uma leitura de todos os recursos oferecidos por cada ferramenta, testando-se cada uma delas por meio da confecção de diagramas similares e simples.

FERRAMENTAS ONLINE

As ferramentas a seguir são aquelas utilizadas somente por meio de acesso à Internet, tendo seu funcionamento por completo em seus respectivos endereços por meio de contas individuais. Têm por característica o armazenamento dos arquivos em nuvem ou servidor, ficando disponíveis para todos os usuários de qualquer local, além da colaboração mútua em tempo real. A. Cacoo Cacoo [1] é uma ferramenta de diagramação em geral, permitindo, portanto, a criação de diagramas UML, mas também de wireframes, por exemplo, que podem vir a ser úteis para a prototipação da interface e gráficos. Esta ferramenta pode ser usada de forma gratuita e limitada ou em outras versões pagas que oferecem mais recursos, a saber, as versões Plus ou Team. A comparação de preços e recursos entre a versão Team para 10 usuários e a versão gratuita é apresentada na tabela abaixo: TABELA I.

Preço

COMPARAÇÃO DE PLANOS CACOO.

1 mês 1 ano

Team Basic

Free

$24.50 $245.00

Gratuito

*Este trabalho foi desenvolvido com recursos do CNPq, oriundos da chamada MCTI-SECIS/CNPq No 84/2013 - Tecnologia Assistiva.


PDF, PPT, PS, SVG, PNG

PNG

Formatos de importação

Visio, SVG, JPEG, PNG, GIF, CDML

Disponível Ilimitado

Não disponível 25

Formatos de exportação

SVG, PDF, JPEG, PNG

Visio, SVG, JPEG, PNG, GIF, CDML SVG, PDF, JPEG, PNG

Pastas compartilhadas

Ilimitado

3

Administração de usuários

Disponível

Não disponível

Edição colaborativa

Ilimitado

15 usuários/diagrama 3 usuários/pasta

Administradores múltiplos

Disponível

Não disponível

Administração de usuários

Disponível

Não disponível

Administradores múltiplos

Disponível

Não disponível

Formatos de exportação Histórico de edição Folhas permitidas

Apesar de não apresentar a validação UML, Cacoo apresenta uma interface de usuário amigável, de forma que sua utilização pode ser rapidamente aprendida. A criação dos diagramas é feita de forma simples, com grande liberdade de edição, além de oferecer templates pré-montados, que facilitam o processo criativo. As versões completas desta ferramenta permitem armazenar e visualizar um histórico de edições, podendo-se acompanhar o desenvolvimento e tornando-se mais fácil a identificação e correção de erros. Os arquivos ou pastas de arquivos podem ser compartilhados com outros usuários que possuam uma conta no Cacoo, permitindo a visualização assim como a edição simultânea dos diagramas mesmo em ambientes distintos e distantes. Por meio do chat é possível discutir o projeto dentro do próprio ambiente de edição. Cacoo também possui integração com Google Drive, podendo-se fazer o download dos diagramas diretamente para sua pasta em nuvem. Cacoo é a ferramenta com a maior variedade de formatos de exportação dos arquivos dentre as opções estudadas, a saber, PDF, PPT, PNG, PS, SVG, sendo estes dois últimos editáveis após download. O plano a ser usado pela equipe seria do tipo Team Basic, que permite até 10 usuários. Existem planos acadêmicos que oferecem preços mais razoáveis.

A criação dos diagramas é feita de forma simples e ágil graças ao recurso 1-Click Create, que cria automaticamente o elemento com a conexão necessária no diagrama UML. Esta ferramenta apresenta grande liberdade de edição, além de oferecer muitos templates pré-montados e redimensionamento do espaço de edição. Creately também organiza os elementos de cada tipo de diagrama UML em diferentes seções, cobrindo mais tipos de diagramas do que Cacoo. Os elementos, chamados smart objects, foram pré-programados para ter um comportamento específico, que facilitam ainda mais a edição dos objetos. Não é necessário ter a versão completa para poder visualizar o histórico de edições, nem para exportar os arquivos para os diversos formatos disponíveis, que são SVG, PDF, JPEG, PNG. Também permite vários formatos de importação, entre eles Visio, SVG, JPEG, PNG, GIF, CDML (Creately File). Os arquivos ou pastas de arquivos podem ser compartilhados com outros usuários, podendo-se administrar o nível de acesso - apenas visualizadores ou também editores. Não possui chat, mas uma seção lateral para comentários e anotações. Creately é a ferramenta mais completa em termos de abrangência e edição. O plano a ser usado pela equipe seria do tipo Team 5, que permite até 5 usuários. Existe um desconto de cinquenta por cento para organizações educacionais e não lucrativas, podendo ser estendido dependendo do número de usuários. Também possui uma versão off-line (desktop) que funciona em conjunto com a online.

B. Creately Creately [2] é uma ferramenta de diagramação em geral, mais completa do que a Cacoo. Não possui validação UML, mas apresenta interface simples e amigável, tornando-se de rápido aprendizado. Esta ferramenta pode ser usada de forma gratuita e limitada ou em outras versões pagas que oferecem mais recursos, a saber, a versão Personal ou Team. A comparação de preços e recursos da versão Team para 5 usuários e a versão gratuita é apresentada na tabela abaixo: TABELA II.

COMPARAÇÃO DE PLANOS CREATELY. Team 5 Public $25.00 1 mês Gratuito Preço $249.00 1 ano 5 1 Número de usuários Ilimitado 5 Diagramas públicos Ilimitado Nenhum Diagramas privados Ilimitado 1 Projetos Compartilhamento de Completo Nenhum projetos Ilimitado 3 Colaboradores

C. GenMyModel GenMyModel [3] é uma ferramenta de diagramação UML somente, sendo a única dentre as estudadas que possui validação de modelo UML, isto é, que não apenas desenha diagramas, mas os cria dentro de uma arquitetura de software. A ferramenta ainda está em fase Beta, de modo que faltam alguns recursos e os tipos de diagramas que podem ser criados são limitados, sendo, contudo, gratuita. Apresenta uma interface de usuário simples, amigável, portanto, de rápido aprendizado. Também disponibiliza templates pré-montados. A edição, porém, ainda é limitada, não disponibilizando sequer manipulação de cores para os elementos, um recurso importante para identificação. A ferramenta apresenta restrições para outros membros colaboradores do projeto, podendo torná-los apenas visualizadores ou também editores.


GenMyModel é ferramenta com menor variedade de formatos de exportação, a saber SVG e JPEG. Suas limitações a tornam a opção menos favorita. D. Gliffy Diagrams Gliffy Diagrams [4] é uma ferramenta de diagramação em geral. Possui uma versão gratuita muito limitada e diversas pagas, individuais ou de equipe, que oferecem mais recursos, a saber, as Standard e Pro. A comparação de preços e recursos entre estas versões e a gratuita é apresentada na tabela abaixo: TABELA III.

COMPARAÇÃO DE PLANOS GLIFFY DIAGRAMS. Standard Pro Pack Free Pack $24.75 $49.75 1 mês Gratuito Preço $239.40 $479.40 1 ano 5 5 1 Número de usuários 200 Ilimitado 5 Número de diagramas Espaço de 200 MB Ilimitado 2 MB armazenamento Disponível Disponível 1 Importação Visio Integração com o Disponível Disponível Não disponível Google Drive Não Diagramas UML Disponível Não disponível disponível aperfeiçoados Não Diagramas de interface Disponível Não disponível disponível aperfeiçoados Número de diagramas 200 Ilimitado Não disponível privados

Assim como a maioria das ferramentas online estudadas, não apresenta validação UML. Possui, porém, uma interface amigável e boa liberdade de edição, com diversos elementos de diagramação que podem ser editados de várias formas e também alinhados. Também dispõe de alguns templates prémontados. A disponibilidade de chat facilita a comunicação entre usuários enquanto desenvolvem um diagrama. Gliffy guarda os diagramas em projetos que podem ser compartilhados com outros membros, sem gerenciamento de privilégios. A ferramenta exporta arquivos para os formatos SVG, JPEG, PNG e Gliffy, além de importar arquivos Visio. Comparada às outras ferramentas, destaca-se apenas em relação ao GenMyModel, pois apresenta poucos recursos. A versão gratuita tem um prazo de trinta dias, travando o início de trabalho do grupo, que depende da entrada dos recursos financeiros. Além disso, Gliffy não apresenta resposta em tempo ágil no atendimento ao usuário. Caso fosse adquirida, a versão escolhida seria a Pro Pack para cinco usuários durante um ano. Há, contudo, um plano com desconto de cinquenta por cento para instituições acadêmicas. E. Lucid Chart Lucidchart [5] é uma ferramenta de diagramação em geral. Possui uma versão gratuita limitada e várias versões pagas, individuais ou de equipe, que oferecem mais recursos, a saber, as versões Basic, Pro e Team. A comparação de preços e recursos entre a versão Team para 10 usuários e a versão gratuita é apresentada na tabela abaixo:

TABELA IV.

COMPARAÇÃO DE PLANOS LUCID CHART. Team Free $25.00 1 mês Gratuito Preço $21.00/mês 1 ano 5 1 Número de usuários Ilimitado 60 Objetos por documento 5 GB 25 MB Espaço de armazenamento Biblioteca extensiva de Disponível Disponível objetos Backup local

Disponível

Não disponível

Suporte web e e-mail

Disponível

Não disponível

Wireframing e mockups

Disponível

Não disponível

Importação e exportação Visio

Disponível

Não disponível

Histórico e revisão

Disponível

Não disponível

Templates e imagens compartilhadas

Disponível

Não disponível

A ferramenta não possui a validação UML, assim como grande parte das outras ferramentas online estudadas. Sua interface, contudo, é uma das mais atrativas, sendo não apenas bastante amigável, mas também moderna. Há grande liberdade de edição nesta ferramenta, que confere todos os recursos de usabilidade, além de outros, como a criação de layers, semelhante ao Adobe Photoshop. A disponibilidade de templates pré-montados facilita a criação de novos diagramas. É possível compartilhar arquivos e pastas com outros usuários, permitindo visualização e colaboração, com espaço para comunicação por meio de um chat. Formatos de exportação incluem PDF, JPEG, PNG e Visio. Caso fosse a ferramenta final a ser utilizada, seria selecionada a versão Team anual. Também oferece versão com desconto acadêmico.

III.

FERRAMENTAS OFF-LINE

As ferramentas a seguir são aquelas utilizadas apenas localmente, exigindo instalação e tendo seu funcionamento independente de conexão à Internet. Têm por característica o armazenamento dos arquivos em máquina, ficando disponíveis apenas para o usuário, exceto em casos de pastas compartilhadas em rede local. A. Astah Astah [6] é uma ferramenta multi-plataforma específica para modelagem UML, tendo, portanto, como característica a validação UML. Foi a ferramenta local que apresentou melhor custo/benefício, graças à sua oferta de descontos acadêmicos que chegam a U$ 40 por ano para acadêmicos e custo zero para estudantes. Astah apresenta uma interface pouco complexa, levando algum tempo até que o usuário consiga aprender a utilizar os elementos básicos de modelagem. Há pouca liberdade de edição, havendo alinhamento dos objetos, porém faltando em disponibilidade de cores e alinhamento do texto, o que pode deixar a apresentação do diagrama menos organizada.


No site da ferramenta é possível baixar diversos plug-ins, que vão desde integração com outras ferramentas a extensões, que incluem reversão de código em diversas linguagens para diagramas, inserção de calendários e Hot Keys. É possível também criar seu próprio plug-in. O site também apresenta diversos tutoriais para se aprender a utilizar a ferramenta. É possível manter o versionamento dos diagramas, mas isto deve ser feito de determinada forma pré-definida pelos desenvolvedores, uma forma não muito prática. Pode-se também compartilhar os arquivos pelo Astah Share [7], que permite colocar os diagramas online, permitindo a outros membros apenas a visualização e comentário. A ferramenta Astah apresenta duas versões principais de mercado: Community, uma versão completamente gratuita, mas apenas para diagramação UML e com menos plug-ins, e Professional, uma versão paga com diversos planos, individuais e para equipes, assim como de compra ou aluguel, sendo esta versão a que permite a criação de outros tipos de diagramas que não UML. No caso da equipe TraLP, se utilizaria a versão Professional com o desconto acadêmico. B. Enterprise Architect Enterprise Architect [8] é uma ferramenta multi-plataforma específica para modelagem UML, a mais completa e profissional dentre todas as estudadas. Por completa entendese que, além de permitir uma diagramação com validação, existem muitos outros recursos complementares na criação de um projeto, tais como: geração de código/engenharia reversa para diversas linguagens no mesmo ambiente, simulação dinâmica do modelo, geração de documentação, administração de requerimentos. Por ser uma ferramenta mais robusta, Entreprise Architect apresenta uma interface bastante complexa, com a desvantagem de não disponibilizar tutoriais para auxiliar no aprendizado da ferramenta. A ferramenta não apresenta versionamento próprio, permitindo, todavia, integração com outras ferramentas de versionamento. Também não disponibiliza o compartilhamento de arquivos. Os possíveis formatos de exportação incluem BMP, PNG, JPEG, PDF, entre outros. Entreprise Architect oferece diversos pacotes com mais ou menos recursos, todos pagos, desde o básico, somente de modelagem UML, de U$ 135, até o mais completo de U$ 699. Oferece também descontos acadêmicos para todos estes pacotes. C. Visual Paradigm Visual Paradigm [9] é uma ferramenta multi-plataforma que inclui em suas tecnologias a ferramenta de modelagem UML. Oferece diversos recursos complementares à diagramação UML, que variam de acordo com a versão selecionada. Das ferramentas locais analisadas, Visual Paradigm é a que apresenta melhor interface de usuário, não tão amigável como as ferramentas online, mas certamente mais intuitiva e simplificada. Possui também uma maior liberdade de edição

em comparação às outras. Além da validação UML, disponibiliza geração de código e engenharia reversa em diversas linguagens, geração de relatório para algumas versões e wireframes para modelagem de UX. Esta é a única ferramenta off-line que apresenta um sistema próprio de versionamento, que é feito pelo VPository [10]. Este repositório permanece gratuito até 1 GB de armazenamento, podendo aumentar tal capacidade com outros planos de pagamento. Diferente do Astah Share, os arquivos ficam disponibilizados a todos os usuários em nuvem, podendo não apenas ser visualizados e comentados, mas também modificados por outros membros. Formatos de exportação dos arquivos se restringem a JPEG, PNG, SVG e EMF. Existe uma versão gratuita e diversas versões pagas da ferramenta, com preços correspondentes à quantidade de recursos oferecidos em cada versão, variando de U$ 99 a U$ 1399. A versão gratuita não supre as necessidades básicas da equipe, selecionando-se, portanto, a primeira versão paga com o mínimo de recursos que cobrem os pontos necessários de seleção de ferramenta, por U$ 99. IV. CONCLUSÕES Fez-se uma comparação inicial das vantagens e desvantagens de cada modo de ferramenta. As ferramentas offline são mais robustas, apresentando recursos complementares à modelagem, como documentação e geração de código a partir dos modelos. Além disto, todas apresentam a validação UML, que garante uma construção mais segura dos diagramas. Estas ferramentas, porém, apresentam diversas desvantagens. Por serem mais robustas, suas interfaces podem parecer bem complexas e todas têm preços mais elevados. Os arquivos seriam armazenados em máquinas individuais, tornando-se necessário a instalação em cada máquina dos membros. Por fim, o versionamento deve ser feito manualmente ou por meio de ferramentas externas. Estas desvantagens afetam o tempo e, por consequência, o custo de produção dos modelos. A opção, portanto, deu-se pelas ferramentas online, que, mesmo não oferecendo validação UML e nem tantos recursos, em sua maioria atendiam aos requerimentos básicos antes definidos. Para maior esclarecimento, este modo de ferramenta foi selecionado por armazenar os arquivos em nuvem ou servidor, permitindo trabalho em laboratório ou em casa, além de possibilitar a visualização e cooperação múltiplas da criação dos diagramas em tempo real. Suas interfaces são muito mais amigáveis, além de terem um versionamento automático dos arquivos. Dentro do prazo do projeto, seus preços apresentaram-se mais acessíveis. Tais conclusões juntas aos requerimentos iniciais selecionaram Cacoo, Creately e Lucid Chart. A fim de chegar a uma decisão final por qual seria a melhor para o projeto TraLP, estabeleceu-se um segundo filtro, que pesava, entre elas, a comparação dos preços ao longo de um ano de projeto, a disponibilização de recursos extras e a preferência pessoal quanto à usabilidade, isto é, quanto à interface gráfica.


TABELA V.

Cacooa Createlya Lucid Charta

COMPARAÇÃO DE PLANOS DAS FERRAMENTAS FINAIS Preço por mês Preço por 1 ano Todosb Todosb 5 membros 5 membros $24.50 $24.50 $245.00 $245.00 $25.00 $45.00 $249.00 $449.00 $25.00 $49.00 $252.00 $504.00 a. b.

Estes preços não estão com desconto acadêmico. A equipe é formada por um total de dez membros.

Com preços próximos, a preferência pessoal teve mais peso, na qual Lucid Chart demonstrou ser a menos interessante. Os primeiros diagramas do projeto já vinham sendo desenvolvidos por meio da ferramenta Cacoo, além de esta apresentar um custo menor em longo prazo. Apesar disto, compreendeu-se que Creately facilitaria a produção dos novos diagramas devido aos seus recursos a mais, que ajudariam na construção dos novos diagramas.

A seleção final, portanto, deu-se pela ferramenta Creately para cinco membros ao longo de um ano, com posterior desconto acadêmico.

[1]. [2]. [3]. [4]. [5]. [6]. [7]. [8]. [9]. [10].

V. REFERÊNCIAS http://www.cacoo.com http://creately.com http://www.genmymodel.com http://www.gliffy.com http://www.lucidchart.com http://astah.net http://astah.net/editions/share http://www.sparxsystems.com/products/ea/index.html http://www.visual-paradigm.com/product/vpuml http://www.vpository.com/


INOVAÇÃO E TECNOLOGIA NA SAÚDE: promoção de ações educativas sobre métodos contraceptivos em ambiente virtual com os jovens nas escolas Raimundo Augusto Martins Torres1; Daniele Vasconcelos Fernandes Vieira2; Gislene Holanda de Freitas3; Samuel Ramalho Torres Maia4 RESUMO - As tecnologias educacionais são possibilidades pensadas por educadores das diversas áreas do saber que atuam com a dinâmica de ensinar e aprender. Na formação do (a) enfermeiro (a), que, por vezes, constitui - se educador (a), as práticas educativas são estratégias de cuidado que primam pelo aprendizado dos sujeitos sobre as questões preventivas e terapêuticas acerca dos agravos e adoecimentos. Trata-se de uma pesquisa-intervenção, resultado de um recorte de monografia, possibilitada pela participação e pertencimento a um projeto de extensão, formação e pesquisa que desenvolve experiência continua de formação de educandos e educandas de enfermagem, da medicina, da computação, da educação física e do serviço social, tanto da graduação como do mestrado acadêmico, que utiliza uma web rádio como ambiente virtual para criar e resignificar as práticas educativas de cuidar em saúde nesses territórios. O recorte foi realizado com base na comunicação dialógica da equipe que facilita os programas virtuais, com os jovens das escolas públicas do estado do Ceará, mediados no ambiente virtual Web Rádio AJIR, tendo como pauta de debate os métodos contraceptivos e o cuidado preventivo com a saúde dos jovens. Utilizou-se as tecnologias digitais (Skype, mural de recados, Twitter) para a interatividade com o público das escolas, de onde elaboraram suas perguntas discursos, com base nas suas inquietações, curiosidades, percepções e vivências relativas ao tema. Palavras-chave: Tecnologias Digitais da Informação e Comunicação; Formação em Enfermagem; Saúde dos Jovens Escolares; Métodos Contraceptivos. ABSTRACT – The educational technologies are possibilities thought by educators from different areas of knowledge that works with the dynamic of teaching and learning. In the nurse formation, which an educator sometimes conducts it, the educational practices are strategies of caring that excel for the learning about the subject of preventive and therapeutic about the injuries and illnesses issues. This is a research intervention, being a result of a cut monograph, made possible by the participation and membership of an extension project, which develops training and research experience continues training with nursing, medicine, computing, physical education and social services students, both graduation and the academic master, which uses a web radio as a virtual environment to create and reframe the educational practices of health care in those areas. The clipping was based on dialogic communication team that facilitates virtual programs with youth in public schools, located in the state of Ceará, in the virtual environment mediated AJIR Web Radio, with the theme of debate contraception and preventative care with the youth health. We used digital technologies (Skype, the message boards, Twitter) for interactivity with the public schools, where their prepared questions - speeches based on their concerns, curiosities, insights and experiences about the topic.

Keywords: Digital Technologies of Information and Communication; Training in Nursing; Health of Young Students; Contraceptive Methods.

I. INTRODUÇÃO As tecnologias educacionais são possibilidades pensadas por educadores das diversas áreas do saber que atuam com a dinâmica de ensinar e aprender. Na formação do (a) enfermeiro (a), que, por vezes, constitui - se educador (a), as práticas educativas são estratégias de cuidado que primam pelo aprendizado dos sujeitos sobre as questões preventivas e terapêuticas acerca dos agravos e adoecimentos. Há, também, a visão, no âmbito dessas práticas, da promoção de saúde, no sentido de conhecer o que os sujeitos já realizam, produzem e vivenciam em seus territórios em prol de melhorar sua qualidade de vida e de promover cura, terapias, entre outros saberes que são populares e, portanto, aprendidos e resignificados nas gerações e na transculturalidade. Assim, com o propósito de experimentar os percursos do aprendizado por meio de tecnologias educativas solidárias, construídas pela dialogicidade, pela importância do outro como sujeito que também produz o cuidado e que não apenas se objetiva nele, a inovação na área da saúde lança-se ao encontro dos desafios que a sociedade contemporânea “cobra”, impulsionando os profissionais à tessitura de planos que atendam as demandas dos mais diversos territórios, fissurando as barreiras físicas, geográficas, partindo em direção aos múltiplos brasis e diferentes culturas, desterritorializando. Diante das demandas sociais que imbuem os sujeitos a interagir e produzir vida nos territórios virtuais, conhecidos como ciberespaços [1], vale relacionar as tendências desses sujeitos nas suas buscas por informação sobre saúde, prevenção, terapias, tratamentos, espaços e ambientes que frequentam na internet e, desse modo, relacionar ao que os profissionais contemporâneos da área da saúde podem oferecer para promoção da saúde permeada na informação qualificada e especializada. A inovação se consiste, então, nesse estudo, considerando o teor da discussão na área da educação em saúde e tecnologias da informação e comunicação, na realização do mapeamento virtual, cartografando os desejos e as necessidades dos sujeitos relativos à informações de relevância para saúde coletiva e singular. Conhecer essas demandas é uma forma de pensar intervenções que gerem processos reflexivos nos sujeitos e possibilidades para repensar como vem realizando o cuidado com seu corpo, com sua mente, o cuidado espiritual, o cuidado com seus laços afetivos e sociais como todo, que visem à preservação e melhoria de vida e prazer no viver.

1 Mestre em Enfermagem. Doutor em educação. Professor do Curso de Pós - Graduação em Cuidados Clínicos em Enfermagem e Saúde da Universidade Estadual do Ceará (PPCCLIS/UECE). Pesquisador do grupo de pesquisa POLÍTICAS, SABERES E PRÁTICAS EM ENFERMAGEM E SAÚDE COLETIVA (LAPRACSE/CNPQ). 2 Mestranda do Curso de Pós-graduação Cuidados Clínicos em Enfermagem e Saúde da Universidade Estadual do Ceará(UECE). Estudante do grupo de pesquisa POLÍTICAS, SABERES E PRÁTICAS EM ENFERMAGEM E SAÚDE COLETIVA (LAPRACSE/CNPQ). Bolsista Pós-Graduação FUNCAP. 3,4 Mestrandos do Curso de Pós-graduação Cuidados Clínicos em Enfermagem e Saúde da Universidade Estadual do Ceará(UECE). Estudantes do grupo de pesquisa POLÍTICAS, SABERES E PRÁTICAS EM ENFERMAGEM E SAÚDE COLETIVA (LAPRACSE/CNPQ).


Segundo [2], a educação, hodiernamente, está balizada por diversos elementos pedagógicos. Reconhecem - se, de acordo com os autores, forças inovadores nos processos de ensinar e de aprender que objetivam quebras de paradigmas que estão delineados nos métodos de ensino tradicionais. Reforçam que é preciso descentralizar e fissurar esses modelos, com o uso da comunicação digital, deslocando para uma forma de acolher as novas demanda por parte dos (as) educandos (as). Os autores percebem como relevante e significativo, portanto, a importância de se aprender a manusear as tecnologias, conhecendo as inovações, os computadores, na configuração do que entendem como o futuro enfermeiro, tendo em vista que ainda estão no processo da formação acadêmica. Assim, instigam, nesse olhar, que a prática de utilização de uma web rádio como experiência de formação contribuem para pensarmos em um profissional resolutivo, criativo, atualizado e versátil [2]. Assim, esta experiência de formação de educandos e educandas de enfermagem, da medicina, da computação, educação física, serviço social, tanto da graduação como do mestrado acadêmico, que utiliza uma web rádio como ambiente virtual para criar e resignificar as práticas educativas de cuidar em saúde nesses territórios, lança olhares diferenciados para essa realidade, uma vez que o virtual é real e diferenciam - se entre si pelas atualizações na relação do “encaixe espaço-tempo” [1]. II. MÉTODO Trata-se de uma pesquisa - qualitativa, do tipo pesquisa-intervenção, na qual a autora [3] destaca dois aspectos que a orientam a) A consideração das realidades sociais e cotidianas; b) O compromisso ético e político da produção de práticas inovadoras. A autora [3] enfatiza algumas características a serem consideradas: 1ª - Deve acontecer dentro do contexto pesquisado; 2ª - É desencadeada pela demanda, contribuindo na solução de problemas; 3ª- O pesquisador atua como mediador que articula, organiza encontros, sistematiza as vozes e os saberes produzidos pelos sujeitos envolvidos na pesquisa, agindo num processo de escuta ativa; 4ª - Interação entre o pesquisador e os sujeitos da pesquisa; 5ª – As experiências cotidianas e práticas do coletivo, sistematizadas, permitem descobertas e elaborações teórico - metodológicas. O estudo é resultante de um recorte de monografia realizada a partir do projeto de extensão, formação e pesquisa “Em Sintonia com a Saúde - S@S”, um canal virtual de comunicação dialógica com os jovens nas escolas públicas do Ceará, veiculado pela Web Rádio AJIR, por meio do qual se extraiu, da série saúde reprodutiva e sexual, exibida nos anos de 2011, 2012, e, totalizando 03 Programas sobre Métodos Contraceptivos, as demandas dos (as) jovens escolares, demarcadas como perguntas - discursos, pertinentes à pauta do programa. Os programas com enfoque na temática em questão computaram o total de 3 horas de diálogos ao vivo, uma vez que cada programa semanal se constrói com 1h/transmissão. Gerou - se, a partir desse tema métodos contraceptivos que compõe a série saúde sexual e reprodutiva, o material

empírico, com estratos discursivos para a produção de categorias discursivas e análise dos dados a respeito das inquietações dos jovens sobre métodos contraceptivos. Os sujeitos selecionados para o estudo foram 39 jovens (alunos e alunas), do 1º ao 9º ano, de faixa etária entre 13 e 16 anos, do Ensino Fundamental e Médio, de 5 escolas públicas (A, B, C, D, E) do município de Hidrolândia, a 240km da capital cearense. O vínculo dos (as) jovens das escolas públicas do Ceará se dá pela participação ativa e frequente nestes programas, por meio da articulação da equipe facilitadora dos mesmos (enfermeiros (as), educandos (as) de enfermagem, medicina, computação, entre outros) com os (as) gestores (as) dessas escolas, os (as) quais são convidados (as) a fazer parceria por um canal de comunicação digital da extensão universitária, a Web Rádio AJIR (www.uece.ajir.com.br). A Web Rádio AJIR é uma emissora vinculada ao Laboratório de Práticas Coletivas em Saúde - LAPRACS da Universidade Estadual do Ceará - UECE e da Associação dos Jovens de Irajá - AJIR, como um canal de promoção da saúde do jovem permeada pelas práticas educativas de cuidar no ambiente virtual. A produção dos programas foi realizada em um estúdio-sala da UECE e todo o material é editado e postado em um blog no link: <http://www.saudeuece.ajir.com.br>, assim como, os áudios no ícone: Arquivos Multimídias, hospedados no website <www.uece.ajir.com.br>, para acesso coletivo, bem como na grade de programação da emissora são garantidas às reprises das entrevistas realizadas na semana. As dúvidas e inquietações dos participantes são discutidas por meio dos canais dialógicos da emissora digital disponíveis na internet (Facebook, mural de recados, Twitter, Skype) e também pelo mural de recados da Web site da emissora. Mesmo sendo os jovens escolares o público alvo, conta-se também com a participação dos internautas que trafegam nas infovias do mundo virtual. O estudo obedece aos aspectos Éticos da Pesquisa, emanados da Resolução 196/96 do Conselho Nacional de Saúde [4], tendo em vista a aquiescência do parecer liberada em 2011, com registro no Comitê de Ética da Universidade Estadual do Ceará - UECE, FR 4248380/2011. III. RESULTADOS E DISCUSSÕES Com o uso da internet, por meio da Web Rádio AJIR, ampliaram-se as possibilidades e a capacidade de interação entre os (as) facilitadores (as) das práticas educativas em saúde e os sujeitos nos territórios escolares, favorecendo a interconexão dos mesmos, mediada nos computadores de suas escolas, nos diferentes municípios e nas diferentes realidades culturais, promovendo a reflexão acerca das demandas em métodos contraceptivos, que os/as jovens apresentam em suas perguntas que foram discutidas com os especialistas convidados para o debate. O debate não tem um fundo de perguntas e respostas, mas, sim, de gerar informações que toquem os/as jovens e levem a um repensar e a uma ressignificação de suas práticas de cuidado e de vivências. As informações adquiridas no diálogo convidam o sujeito a assumir a autoria por seu cuidado, passando a conquistar o centro da prática clínica do enfermeiro, ou seja, a


clínica onde o sujeito é participante dos processos que fazem a linha tênue da saúde - doença.

8.

Quais são os métodos contraceptivos?

9.

Nulíparas podem usar o DIU? O que é nulípara?

Quadro 1. Perguntas dos jovens realizadas na série Saúde Reprodutiva e Sexual do Programa Em Sintonia com a Saúde no ano de 2011. Categoria: Métodos contraceptivos. Categorias Perguntas Discurso emitidos pelos jovens Discursivas 1. O diafragma é apropriado para um casal que está junto há muito tempo?

10. Um método que deve estar sempre presente em sua escolha, principalmente com os garotos, é o preservativo? Fonte: dados da pesquisa

2. 3. Métodos Contraceptivos

Como a camisinha feminina funciona? Quando você pratica sexo oral, é necessário o uso da camisinha, mesmo você não ejaculando? O que pode acontecer?

4.

Uso da camisinha pode trazer algum problema fora a segurança e proteção das doenças? Fonte: dados da pesquisa

Os Quadros com os dados empíricos, evidenciam as elaborações das perguntas realizadas nos programas Em Sintonia com a Saúde, durante a série Saúde Reprodutiva e Sexual, através da web rádio Ajir, com a temática métodos contraceptivos, no ano de 2011, 2012 e 2013. As perguntas foram organizadas em categorias, de acordo com a semelhança do eixo central das perguntas discursos dos jovens escolares e agrupadas em 01 quadro por ano, totalizando 03 quadros apenas sobre o foco da discussão. Quadro 2. Perguntas dos jovens realizadas na série Saúde Reprodutiva e Sexual do Programa Em Sintonia com a Saúde no ano de 2012. Categoria: Métodos Contraceptivos. Categorias Perguntas Discurso emitidos pelos jovens Discursivas 1.

Antes de escolher um método contraceptivo, a mulher precisa levar em consideração suas características pessoais e sociais e fazer uma visita ao seu ginecologista? Qual o novo método contraceptivo? O que fazer para prevenir a gravidez? Porque a maioria dos métodos contraceptivos são para as mulheres? E a reponsabilidade é maior? Uma pessoa que não tem parceiro ou namorado, mas que já teve relação sexual ativa pode fazer uso de métodos contraceptivos? A mulher que usa a pílula do dia seguinte pode desregularizar a menstruação? A pílula anticoncepcional aumenta os hormônios? Esses métodos contraceptivos visa mas as DST’s ou as gravidezes? Fonte: dados da pesquisa

2. 3. 4. Métodos Contraceptivos

5.

6. 7. 8.

Quadro 3. Perguntas dos jovens realizadas na série Saúde Reprodutiva e Sexual do Programa Em Sintonia com a Saúde no ano de 2013. Categoria: Métodos Contraceptivos. Categorias Perguntas Discurso levantadas pelos jovens Discursivas 1. É possível usar a camisinha na hora do sexo? 2. Quais são os métodos contraceptivos mais eficazes? 3. Pode ser que as tubas uterinas sejam apenas amarradas (processo reversível) ou elas podem ser cortadas (provavelmente irreversível)? 4. A vasectomia é um processo irreversível? 5. Métodos Contraceptivos 6. 7.

A camisinha é um método contraceptivo mais seguro chegando a oferecer 90% de segurança em relação a gravidez? Existe possibilidade de engravidar usando todos os métodos contraceptivos? A adolescente pode usar o DIU?

As juventudes, na composição desse estudo, são referenciadas pela perspectiva cultural, ou seja, pela abordagem centrada nas construções teórica que consideram as produções culturais dos jovens [5], pois entendemos que estes sujeitos estão imersos em contextos culturais diversos, portanto, produzindo suas vidas mediadas pelos cotidianos de suas experimentações e vivências em grupos, nas escolas, nas ruas, nas igrejas, entre outros territórios de produção de vida. As culturas juvenis que racharam o molde da prática convencional de se fazer educação em saúde vazaram, na virtualidade, outras formas de racionalidades que não se constroem no saber pronto, mas nos saberes que partem de uma curiosidade, de uma vontade, de uma experiência, de uma tradição familiar. Consoante aos métodos contraceptivos, pode - se perceber que os (as) jovens escolares buscam e indagam sobre a gama de métodos contraceptivos existentes. Esse é um marcador de que o tema os (as) afetam, os (as) tocam e os movem para aquisição de um saber, o saber do enfermeiro e dos (as) educandos (as) que se transversalizam com os (as) mesmos (as). Os marcadores são visualizados nos questionamentos desses sujeitos quanto à utilização correta do método, qual é o melhor/mais seguro/mais eficaz, que danos/modificações o método pode interferir no usuário, se é reversível ou não, se previne quanto à gravidez e/ou às DSTs, qual e quando iniciar o uso do método, como ele age/funciona, quando deve ser colocado, se há necessidade de escolha junto ao médico ginecologista, levando em conta as características e preferências de cada sujeito. IV. CONSIDERAÇÕES FINAIS A inclusão das tecnologias da informação e da comunicação para a promoção de práticas educativas de cuidado em saúde com os (as) jovens escolares, no tocante à saúde reprodutiva e contracepção, está sendo contemplado e efetivado, inicialmente, na formação dos educandos, futuros profissionais de saúde e, desse modo, contribuindo para as mudanças e transformações nas estratégias de comunicação e de circulação da informação qualificada em saúde, mediante apostas para empregos de metodologias ativas de ensinoaprendizagem, segundo recomendação expressa nas Diretrizes Curriculares Nacionais das 14 carreiras da saúde. Sistematizar, no sentido, de organizar e publicar as experiências à medida em que acontecem, repetem-se ou se apresentam inéditas visa ao fortalecimento da formulação e do fluxo de políticas públicas de saúde e de educação em torno de objetivos em comum, como, no caso da prevenção de gravidez indesejada nas juventudes escolares, nos territórios em que habitam e vivenciam os prazeres e as sexualidades, bem como à prevenção das DST. Em concordância com a finalidade dessas experiências de fortalecer a comunicação que gera um cuidado preventivo e a circulação segura das informações, objetivando por meio


delas conhecer as reais demandas e os desejos de saber dos jovens que participam das mesmas, o uso da web rádio tem se caracterizado como um cenário que tece linhas de pensamentos, a partir da difusão de diferentes sujeitos, múltiplos territórios, pluralidade cultural, realidades de controle do acesso à informação que se diferenciam em cada espaço onde esses jovens se encontram. REFERÊNCIAS [1] [2]

[3]

[4]

[5]

LÉVY, P. Cibercultura. São Paulo: Editora 34, 1999. TORRES, R.A.M.; FREITAS, G.H. de.; VIEIRA, D.V.F.; TORRES, A.L.M; SILVA, L.M.S. Tecnologias digitais e educação em enfermagem: a utilização de uma webrádio como estratégia pedagógica. J. Health Inform. 2012 Dezembro; 4(Número Especial SIIENF 2012): 152-6. MOREIRA, M. I. C. Pesquisa-intervenção: especificidades e aspectos da interação entre pesquisadores e sujeitos da pesquisa. In: CASTRO, L. R de e BESSET, V. L. (Orgs.). Pesquisa-intervenção na infância e juventude. NAU: Rio de Janeiro, 2008. BRASIL. Conselho Nacional de Saúde. Resolução nº 466 de 12 de dezembro de 2012. Brasília: Conselho Nacional de Saúde/Ministério da Saúde, junho, 2013. PAIS, J. M. Culturas Juvenis. Lisboa: imprensa Nacional/Casa da Moeda, 1993.


1 de 5

PRÁTICAS DE ENGENHARIA DE REQUISITOS UTILIZADAS POR PROFISSIONAIS NAS EMPRESAS DE DESENVOLVIMENTO DE SOFTWARE DO CEARÁ Juarez de Lima Meneses Filho, Camilo Camilo Almendra Universidade Federal do Ceará (UFC) - Campus de Quixadá Av. José de Freitas Queiroz, Nr. 5.003, Cedro Quixadá/CE, Brasil, 63900-000 juarezlmfilho@gmail.com, camilo.almendra@ufc.br

Resumo – Estudos primários são a base da Engenharia de Software

primários servem dessa forma para estabelecer dados factuais

Experimental. Este artigo apresenta um estudo primário das principais

fundamentais

para

outros

estudos

empíricos,

sendo

práticas de Engenharia de Requisitos em uso pelos profissionais nas empresas de desenvolvimento de software do Estado do Ceará. Através

importante passo inicial de investigação do escopo do

da realização de survey online e análise descritiva, o estudo buscou

problema quando se inicia um novo ciclo de pesquisa em

estabelecer o cenário local de uso das práticas de Engenharia de

engenharia [4].

Requisitos pelos profissionais do Ceará.

Este artigo apresenta um estudo primário realizado com a finalidade de identificar as práticas da ER mais comumente

I. INTRODUÇÃO

utilizadas pelos profissionais de desenvolvimento de software Software cada vez mais se caracteriza como um setor

nas empresas do Estado do Ceará. Dessa forma, o estudo

estratégico nas empresas e como uma indústria altamente

supre a necessidade de conhecimento a cerca do estado da

competitiva.

precisam

prática, estabelecendo um cenário local de uso da Engenharia

constantemente revisitar e investir na qualidade dos seus

de Requisitos. Espera-se que esse estudo favoreça um maior

produtos e processos como um todo. A Engenharia de

diálogo entre academia e indústria no contexto local e

Requisitos (ER) é uma das disciplinas que pode ajudar as

regional, servindo como base para estudos posteriores.

Empresas

e

profissionais

organizações de software a lidar com este cenário crescente e II. ENGENHARIA DE REQUISITOS

de alta complexidade [1]. A fim de estreitar o relacionamento entre academia e

Engenharia de Requisitos compreende várias práticas que,

indústria, de forma a promover o uso de melhores práticas e o

se realizadas adequadamente, tendem a ajudar e otimizar o

desenvolvimento de novas técnicas e processo, pesquisadores

desenvolvimento de software como um todo. As práticas que

e profissionais podem se utilizar de diversas estratégias de

compõem a ER podem ser organizadas em dois grupos

estudos empíricos [2]. Estudos empíricos são uma forma de

principais:

realizar a análise e validação de pesquisas em Engenharia de

Gerenciamento de Requisitos. O Desenvolvimento de

Software de forma mais sistemática, seguindo preceitos do

Requisitos

método científico já popularizados em outras áreas do

Especificação e Validação, enquanto que o Gerenciamento

conhecimento tais como ciências sociais e ciências da saúde.

envolve Acompanhamento do Status, Controle de Mudanças

Um tipo de estudo empírico são os chamados Estudos

e Rastreabilidade. O corpo de conhecimento em Requisitos é

Primários,

determinada

vasto, e composto por uma grande quantidade de práticas,

tecnologia em uso em determinado contexto. Encontram-se

técnicas e processos que podem ser usados nos mais variados

nesta categoria os estudos experimentais, por meio de

contextos [5].

que

visam

caracterizar

uma

experimentos, estudos de caso e surveys [3]. Estudos

o

Desenvolvimento

envolve

práticas

de

de

Requisitos

Elicitação,

e

o

Análise,


2 de 5

O corpo de conhecimento da ER não induz um processo

A. Elaboração do Questionário

geral, mas sim organização e catalogação de práticas. Os

Por ser o corpo de conhecimento da ER vasto, é

mais diferentes tipos de processos e modelos de processo vão

impraticável realizar um survey baseado em um conjunto

combinar as práticas ao longo do seus respectivos ciclos de

extenso de perguntas e opções. As práticas selecionadas para

vida. Assim, a identificação de práticas em uso pode ser feita

serem listadas foram extraídas principalmente dos trabalhos

sem associação com processos ou modelos específicos, como

de [6] [7] [9], e de um livro de referência na área [5]. A

já é feita em outros estudos [6] [7].

priorização de práticas para composição do questionário refletiu a ocorrência das práticas nos levantamentos

III. SURVEY O estudo primário para levantamento do estado da prática

analisados, assim como o grau de uso das práticas nos resultados obtidos pelos estudos.

foi realizado através de um survey baseado em um

O público alvo identificado foram os profissionais das

questionário online. Survey é uma das formas de condução

empresas de desenvolvimento de software do Ceará, não

experimental que pode ser utilizada para obtenção de

limitados aos papéis de analistas de requisitos ou de

informações sobre características, ações ou opiniões de

negócios. A intenção foi elaborar uma pesquisa abrangente,

determinado grupo de pessoas [8]. Visto que uma pesquisa

que refletisse o estado da prática percebido através dos vários

bibliográfica não encontrou estudos primários dessa natureza

papéis e cargos que uma organização que desenvolve

no contexto do Estado do Ceará, o método survey possibilita

software pode possuir.

a identificação e organização de dados primários e básicos

As práticas selecionadas foram organizadas, de acordo

sobre a área de estudo.

com a taxonomia sugerida por Wiegers [5], nos seguintes

Para este trabalho realizamos um levantamento bibliográfico

grupos:

de pesquisas similares sobre práticas de engenharia de

Elicitação: Workshop, Brainstorming, Protótipos,

requisitos e delas foram extraídas quais práticas a serem

Modelos de caso de uso, Estórias de usuário,

investigadas quanto a adoção nas empresas de software do

Modelo de características, Entrevista, Especificação

Ceará.

funcional, Questionários e Análise de documentos;

Alguns trabalhos relacionados foram encontrados [6] [7]

Análise/Especificação: Modelos de documentos,

[9], os quais retratam levantamentos do estado da prática

Inspeção de documentos/artefatos, Especificação de

especificamente da Engenharia de Requisitos, mostrando

caso de uso e Listas de verificações (checklists);

interesse na motivação e organização das principais práticas

Validação: Reunião entre equipe e cliente para

utilizadas nas empresas de desenvolvimento de software,

validar requisitos, Participação do cliente/usuário

porém tais estudos não podem ser generalizados.

nas revisões das iterações, Priorização de requisitos

O survey foi planejado como um questionário misto

pelo

apresentando tanto uma listagem de práticas para serem apontadas pelos respondentes, como espaços livres para os respondentes fazerem ressalvas ou citarem práticas nãolistadas. Buscou-se dessa forma tornar o questionário de fácil compreensão, não exaustivo, mas ainda assim aberto para receber contribuições não-planejadas.

cliente

e

Participação

do

cliente

no

planejamento das iterações. 

Processo: Política de gerenciamento de requisitos e Processo de engenharia de requisitos.

As questões foram estruturadas em questões de múltipla escolha, com o uso de uma escala Likert que gradua o grau de utilização das práticas, na percepção do respondente: Largamente

Aplicada,

Normalmente

Eventualmente Aplicada e Nunca Aplicada.

Aplicada,


3 de 5

B. Aplicação do instrumento O instrumento foi divulgado através de listas de discussão, fóruns e lista de contatos pessoais dos pesquisadores.

de discussão e fóruns. Esse tipo de escolha da população prejudica a generalização de resultados, mesmo determinados percentuais da população total tenham sido atingidos.

Alcançar um Inicialmente foi aberto seguindo os critérios

Em relação a possíveis poluições com a amostra, teve-se o

pré-estabelecidos do público alvo, apenas para profissionais

cuidado de identificar quem realmente se propôs a responder

em empresas de desenvolvimento de software, que possuíam

ao questionário à aqueles que queriam apenas ver até onde o

perfis de Analistas de Requisitos. Foi realizado o contato

questionário iria chegar, então foram excluídos da amostra

inicialmente com profissionais da própria rede contatos que

todas as respostas incompletas como também as respostas

atuam em empresas, a finalidade desses contatos iniciais era

completas que verificamos todas as respostas em um mesmo

pegar pessoas de suas empresas que possuíam tal perfil

item, ou que em alguma das respostas de sugestão o

exigido pela pesquisa. Por meio desse contato inicial, foi

respondente escreveu algo totalmente fora do contexto.

encontrado vários interessados em participar, com o perfil

Este trabalho é apenas um ponto inicial bem dado para

que foi proposto, na medida que foi obtido esse retorno por

pesquisas futuras, onde conseguimos de forma sólida agrupar

parte dos interessados, foi sendo enviado via e-mail o link da

um bom número de questões e estruturá-las de forma simples

pesquisa online, junto com o link seguia uma devida

possibilitando um rápido preenchimento, valendo ressaltar

apresentação do autor do trabalho e da pesquisa, explicando

que também obtivemos um bom número de respostas válidas.

seu objetivo.

Em trabalhos futuros deve ser buscado um melhor

A pesquisa foi realizada dos dias 08/11/2013 até o dia

refinamento dos dados e aperfeiçoamento da pesquisa.

11/12/2013. Divulgada inicialmente por meio da própria rede de contatos e posteriormente nas listas (número entre

IV. RESULTADOS

parênteses indica membros dos grupos): scrum-fortaleza

Por questões de escopo para o artigo, são mostrados apenas

(219), xpce (428), javace (1424) e cejug (1193). É difícil

as consolidações dos resultados. Um primeiro ponto que vale

estimar a quantidade de pessoas distintas em cada grupo. Ao

salientar é a pureza do nicho proposto pelo estudo, que visava

todo foram consideradas 45 respostas completas para esse

como público alvo profissionais do Estado do Ceará e obteve

texto.

esse atendimento com todas as respostas analisadas sendo

C. Ameaças à validade

deste. E um segundo ponto a ser evidenciado no trabalho são

Mesmo com a facilidade de uso da Internet, alcançar um

as práticas que estão em alto uso pelos profissionais, então

percentual significativo do público alvo é um desafio

pode-se analisar por meio da tabela a seguir, quais foram as

constante para levantamentos com usuários. A principal

práticas que receberam mais de 50% das respostas seguindo o

ameaça a esse estudo está relacionado a amostra ser

seguinte critério: somatório das respostas nas opções

possivelmente considerada baixa, e como apenas foi feita

Largamente Aplicada (LA) e Normalmente Aplicada (NoA)

uma análise descritiva, não foi calculado qual seria o total da

deve ser maior que o somatório das opções Eventualmente

amostra válida para essa pesquisa, então cabe atenção nesse

Aplicada (EA) e Nunca Aplicada (NuA). A Tabela I a seguir

ponto que fica para ser analisado em um trabalho futuro.

mostra o resultado para esse fechamento:

Algumas tentativas de contornar a baixa amostra foram realizadas: organização da pesquisa e página do grupo, divulgação em vários locais e fóruns na Internet. Contamos ainda com um problema bastante comum, que é o de escolher a população do estudo por conveniência [10], como foi feito na divulgação do questionário por meio listas


4 de 5 TABELA I – PRÁTICAS EM ALTO USO NO MERCADO

estes atuam tal como itens relacionados ao processo que seguiam.

Práticas e respectivo grupo Entrevistas com clientes e usuários

Respostas LA e NoA

Estão ausentes desse levantamento as práticas relacionadas com gerenciamento de requisitos. A fim de que o survey não ficasse muito extenso, o escopo foi restrito às práticas de

69%

Desenvolvimento de Requisitos, de acordo com a taxonomia

Grupo: Elicitação

proposta por Wiegers [5]. Participação do cliente/usuário nas revisões das iterações/sprints/entregas

Pode-se identificar o estado da prática da Engenharia de Requisitos

64%

por

meio

da

aplicação

do

questionário

Grupo: Validação (Envolvimento de

reformulado após o pré-teste, e por meio das respostas

Stakeholders)

recebidas e analisadas dos profissionais das empresas de desenvolvimento de software do Ceará, atingindo o objetivo

Priorização de requisitos pelo cliente Grupo: Validação (Envolvimento de

principal proposto por esse trabalho, que era identificar as

62%

principais práticas de Engenharia de Requisitos que estavam

Stakeholders)

sendo utilizadas pelos profissionais nas empresas de desenvolvimento de software do Ceará.

Inspeção de documentos/artefatos pela equipe ou cliente

Outro ponto bastante importante são as oportunidades de

60%

trabalhos futuros permitidas por este trabalho. A partir desse Grupo: Análise/Especificação Modelos (templates) de documentos

podem ser feitos vários outros trabalhos, tais como outros surveys, outras levantamentos com diferentes técnicas de

56%

obtenção de dados (grupos de foco, etnografia, entrevistas,

Grupo: Análise/Especificação

etc), extensão dos indicadores para tratar aspectos de gerência Protótipos de tela/interface, storyboards, para elicitar e analisar os requisitos

de requisitos, e por fim pesquisas secundárias baseadas em 56%

algum resultado específico deste levantamento.

Grupo: Elicitação

É válido ressaltar a contribuição deste trabalho para a academia, onde pode ser visto em detalhes o grau de

Estórias de usuário

51%

utilização das práticas de ER englobadas por este, pelos

Grupo: Elicitação

profissionais de empresas de desenvolvimento de software do Ceará, que pode ser feito um estudo mais específico e

Dessa forma conseguimos atingir o objetivo principal o

analisar se tem alguma prática em alto uso que não é vista no

qual era evidenciar as práticas de Engenharia de Requisitos

meio acadêmico ou até então dava-se pouca importância. Em

que estavam em alto uso.

contrapartida também é válido ressaltar e estimular o interesse pela indústria em explorar mais técnicas as quais

IV. CONCLUSÃO

podem a vir a utilizar este trabalho como referencial as Como pode-se identificar por meio deste trabalho, foram

práticas de ER e seu uso no contexto regional.

verificadas na literatura práticas de engenharia de requisitos, as quais foram sintetizadas e estruturadas em Elicitação, Analise/Especificação

e

Validação,

também

REFERÊNCIAS

foram

[1] L. Vale, A. B. Albuquerque, P. V. Beserra, “The Importance of

verificadas questões relacionadas a identificação do perfil de

Professional Quality of Requirements Analysts for Success of

respondente e também formas de identificar a empresa onde

Software Development Projects: a Study to Identify the Most


5 de 5 Relevant Skills”. 25th Brazilian Symposium on Software Engineering, Fortaleza, Brasil, 2011. 253-262. [2] C. Wohlin, P. Runeson, M. Höst, M. C. Ohlsson, B. Regnell,

[7] A. Quispe, M. Marques, L. Silvestre, S. F. Ochoa, R. Robbes. “Requirements Engineering Practices in Very Small Software Enterprises:

A

Diagnostic

Study”.

XXIX

International

A. Wesslén. “Experimentation in Software Engineering”. [S.l.]:

Conference of the Chilean Computer Science Society,

Springer, 2012.

Santiago, Chile, 2010.

[3] S. N. Mafra, G. H. Travassos. “Estudos Primários e

[8] H. Freitas, M. Oliveira, A. Z. Saccol, J. Moscarola. “O método

Secundários apoiando a busca por Evidência em Engenharia de

de pesquisa survey”. Revista de Administração, São Paulo,

Software”. Programa de Engenharia de Sistemas e Computação

Brasil, 2000.

- COPPE/UFRJ. Rio de Janeiro, p. 32. 2006. [4] R. Wieringa, N. Maiden, N. Mead. “Requirements engineering paper classification and evaluation criteria: a proposal and a discussion”. Springer-Verlag London Limited 2005. [5] K. E. Wiegers, J. Beatty. “Software Requirements”. 3ª. ed. Washington: Microsoft Press, 2013. [6] U. Nikula, J. Sajaniemi, H. Kalviainen. “A State-of-thePractice Survey on Requirements Engineering”. Telecom Business Research Center Lappeenranta. Lappeenranta, p. 20. 2000.

[9] L. Liu, T. Li, F. Peng. “Why Requirements Engineering Fails: A Survey Report from China”. 18th IEEE International Requirements Engineering Conference, 2010. [10] R. M. de Mello, G. H. Travassos. “An Ecological Perspective Towards the Evolution of Quantitative Studies in Software Engineering”. 17th International Conference on Evaluation and Assessment in Software Engineering, Porto de Galinhas, Brasil, 2013.


Uma Solução Integrada para Suporte ao Aprendizado em Gestão de Fábricas de Software Ferraz, J., Lins, W.

Esmeraldo, G., Duarte, D., Abreu, J.

CESAR.EDU Centro de Estudos Avançados do Recife (CESAR) Recife-Pernambuco, Brasil

Laboratório de Sistemas Embarcados e Distribuídos (LEDS) Instituto Federal do Ceará (IFCE) – campus Crato Crato-Ceará, Brasil

Resumo—Em fábricas de software, o gerenciamento de informação e o trabalho coletivo podem conduzir a decisões estratégicas que poderão impactar no processo de desenvolvimento de software e, consequentemente, na qualidade do produto final. Este artigo apresenta uma nova ferramenta, chamada de PCFSWeb, utilizada para apoiar e avaliar o aprendizado em gerenciamento de informações em fábricas de software. O sistema proposto embutiu recursos de diversas ferramentas de apoio ao gerenciamento de fábricas de software, dispondo assim de um ambiente integrado para a gestão de projetos, alem de permitir avaliar e conduzir individualmente o processo de ensino-aprendizagem dos alunos participantes. Palavras-chave—Fabricas de Software; Gerenciamento de Informação; Solução Integrada; Apoio Pedagógico.

I. INTRODUÇÃO Programas de computador têm um papel fundamental em todas as áreas. Em [17], afirma-se que softwares não são apenas programas de computador, são também artefatos resultantes das atividades de levantamento e análise de requisitos, projeto, codificação, testes e outras dentro do seu ciclo de vida. A engenharia de software fornece técnicas para construção de sistemas [16], focando no desenvolvimento de software com custos adequados e com alto desempenho. Desta forma, foi necessário criar novas técnicas para controlar a complexidade dessa tecnologia, entendendo melhor as atividades envolvidas [13]. Utilizando-se as estruturas da engenharia de software, desenvolvedores de sistemas uniram-se fornecendo soluções para várias empresas, assegurando-as da continuidade do sistema que desenvolviam, surgindo assim a ideia de fábricas de software [14]. Desde então, varias empresas desenvolvedoras de sistemas organizaram-se como fábricas de software, utilizando o conjunto de processos, recursos e conhecimentos compreendidos no ciclo de vida do software [9]. Esta concepção de fábrica de software está em definir papeis e responsabilidades para uma equipe, adotando metodologia de desenvolvimento de software como um processo planejado que relaciona atividades e papeis [8]. Uma fábrica tem então como objetivo a criação de soluções que

atendam às exigências e resolvam os problemas dos clientes, controlando os custos e os prazos [18]. Estudantes de cursos de informática necessitam de experiências práticas para desenvolver o seu aprendizado, deixando a teoria em segundo plano e partindo para o trabalho em si, capacitando-se para o mundo do trabalho [19]. Diante desse contexto, implementam-se fábricas de software com grupos de alunos, através da aplicação de cenários práticos com avaliação do trabalho coletivo e do gerenciamento de informação de toda a fábrica. Para [4], a cooperação e os fluxos de informação impactam diretamente na eficiência do trabalho coletivo de desenvolvimento de software, e são essenciais ao planejamento e tomada de decisão para a efetiva conclusão de um projeto. Segundo [10], gerenciamento de informação é um termo utilizado no mundo corporativo de forma a enfatizar um novo papel da informação e das Tecnologias da Informação (TIs), para a sobrevivência e vantagem competitiva das empresas. A aplicação e o desenvolvimento das TIs têm como propósito primário o uso e o tratamento da informação, de forma que seu processamento, armazenamento, disseminação e transmissão tomaram dimensões estratégicas nas organizações [5]. Desta forma, os dados se tornam informações úteis se combinados em uma estrutura compreensível, de forma que possam ser utilizados para tomada de decisões através de previsões [12]. Vários estudos mostram que é necessário utilizar mais de uma ferramenta para apoio na gestão das informações envolvidas uma fábrica de software [8, 13, 15]. Assim, necessita-se de uma ferramenta que possa abranger funcionalidades capazes de gerenciar uma fábrica de software e que seja voltada à educação, para que os usuários possam aprender como participar e gerenciar os projetos de uma fábrica e respectivas atividades. Nesse contexto, este artigo apresenta uma nova ferramenta, chamada de PCFSWeb (Planejamento e Controle de Fábrica de Software na Web), a qual foi concebida para apoiar o aprendizado em gerenciamento de informação em fábricas de software. A ferramenta proposta embute recursos de diferentes aplicações, permitindo assim gerenciamento integrado de informações relacionadas aos clientes, projetos, atividades, participantes, interações e documentação, além de permitir acompanhar e avaliar o desempenho dos participantes.


A próxima seção apresenta os trabalhos relacionados. A Seção 3 detalha a ferramenta proposta neste artigo. Para avaliar a ferramenta proposta, a Seção 4 apresenta um estudo de caso e na Seção 5, são apresentados os resultados. Por fim, a Seção 6 apresenta as conclusões e demarca os trabalhos futuros. II. TRABALHOS RELACIONADOS O trabalho em [13] descreve uma categoria de ferramentas, conhecida como CASE (Computer-Aided Software Engineering), Engenharia de Software Auxiliada por Computador. As ferramentas CASE são utilizadas para apoiar as atividades de processos de software, fornecendo automação de algumas atividades e, de acordo com [13], classificam-se em três categorias: 1) Ferramentas que apoiam tarefas individuais de processo; 2) Workbenches, que apoiam as fases ou atividades de processo; e 3) Ambientes que apoiam todo ou pelo menos uma parte substancial do processo de software. Em [8], são listados diversos tipos de ferramentas para apoio ao desenvolvimento das atividades em uma fábrica de software. No contexto de gerenciamento de informação, podemos destacar aquelas para: 1) disseminação do conhecimento e suporte para comunicação com o cliente e entre os participantes; 2) rastreamento de incidentes durante o desenvolvimento (issue trackers); e 3) gerenciamento de projetos. Em [15] reforça-se que são necessários dois tipos de ferramentas: um tipo para suporte de planejamento de atividades, bem como outro para comunicação entre participantes de uma fábrica de software. As ferramentas de comunicação são importantes também para interação com o cliente, desde o estabelecimento dos requisitos até a apresentação dos resultados. Entre os membros de uma equipe, as ferramentas de comunicação são necessárias para acompanhamento e alinhamento das atividades, solução de problemas ou discussões acerca de codificação [3]. De forma complementar, as issue trackers são relacionadas às atividades de correção de bugs ou implementação de novas funcionalidades e até em atividades que não envolvem codificação, por exemplo, geração do documento de requisitos. [2].

Environment (Moodle). No entanto, tais ambientes não são produtos para a gestão de fábricas de softwares e, nesse sentido, não são uma opção recomendável para a orientação de aprendizes na gestão dessas fábricas. Para o desenvolvimento de PCFSWeb agregou-se características de cada uma dessas categorias para disponibilizar uma solução integrada para gerenciamento de informação em fábricas de software. A próxima seção detalha suas principais características. III. DESCRIÇÃO DA SOLUÇÃO O PCFSWeb é um sistema web com proposta de integração de recursos das principais ferramentas utilizadas para o gerenciamento de informação em fábricas de software. Entre os recursos, estão compreendidos no PCFSWeb: 

Usuários: gerenciamento de informações dos participantes de uma fábrica de software, como: login, senha, nome completo, e-mail, papel dentro da fábrica, foto, departamento, endereço e contatos;

Empresas: gerenciamento de informações dos clientes, como: nome da empresa, descrição, informações de contato e endereço;

Projetos: gerenciamento de informações de projetos, como: nome, descrição, empresa contratante, datas de início e finalização, prioridade e o status atual.

Tarefas: gerenciamento de informações de tarefas, como: nome, projeto, descrição, data de início, estimativa do total de horas necessárias para finalização, status, porcentagem de desenvolvimento, responsável e participantes.

Calendário: permite visualizar o progresso das tarefas de um determinado projeto em função do tempo alocado e o tempo total do projeto através de um Gráfico de Gantt. A Fig. 1 mostra um Gráfico de Gantt no PCFSWeb, onde é possível visualizar barras dispostas em linha temporal, com o tempo alocado para cada tarefa ser concluída e o respectivo percentual completado.

No gerenciamento de projetos atualmente as ferramentas focam na organização de recursos, de relocação de times e responsabilidade, de ciclo de vida do software e suporte a alguma metodologia de desenvolvimento de software [1]. O DotProject é uma ferramenta gratuita, baseada na web, que permite o gerenciamento de projetos com uma série de módulos que integram outras aplicações [7] e o ClockingIT pode cadastrar diversos projetos e colaboradores, com tarefas que possuem diferentes graus de prioridade, estimativas de tempo, oferecendo varias perspectivas de visualizações como o timeline [6]. No âmbito educacional, Ambientes Virtuais de Aprendizagem (AVA’s) são, de uma forma geral, programas que gerenciam a aprendizagem através da centralização de mídias e informações. Neles, o professor disponibiliza materiais didáticos, exercícios, quizzes, avaliações, dentre muitos outros recursos didáticos [20]. Um dos AVA’s mais utilizados é o Modular Object Oriented Dynamic Learning

Fig. 1. Gráfico de Gantt no PCFSWeb.


Fórum: disponível para comunicação assíncrona e em grupo. Permite a criação de novos tópicos relacionados a um projeto;

estabelecer e sistematizar critérios de qualidade e indicadores de avaliação para os produtos demonstrados pelos alunos, buscando assim reduzir a subjetividade do processo.

Wiki: construção colaborativa relacionados aos projetos e tarefas;

Docs: criação e controle da informação dos artefatos gerados durante as atividades da fábrica. Inclui um editor de textos, o qual permite exportar os documentos em formato pdf com formatação (cabeçalho, rodapé, margens, tabulação, etc.) predefinida a partir de templates. Inclui ainda um subsistema para o controle de versões dos artefatos;

Chat: lista os participantes de uma fábrica de software, separando aqueles que estão online dos que estão offline. Nessa relação de participantes, ao se clicar em algum deles, é possível enviar mensagens de chat (síncronas), para aqueles que estiverem online, e assíncronas para os offline.

O PCFSWeb possui um subsistema para criação de rubricas, onde o avaliador poderá definir as categorias, que são os critérios de qualidade, e os respectivos desempenhos, organizados em níveis. Com isso, o processo de avaliação se dá através da seleção de um aluno participante da fabrica de software e uma rubrica, criando-se assim um contexto de avaliação. No contexto, o PCFSWeb disponibiliza um formulário a ser preenchido, o qual contem as categorias e níveis de desempenho, definidos na rubrica. A Fig. 2 mostra um formulário com 4 categorias, que são: Confiança e compartilhamento de responsabilidades; Foco na tarefas e participação; Hábitos de trabalho; e Ouvir, questionar e discutir.

Issues: é um subsistema para registros de incidentes. Permite a criação de registro de incidente, dispondo de título, descrição, status, usuário responsável pela submissão e data da última atualização. É possível ainda visualizar, editar e excluir incidentes.

Logs: Registros de eventos em cada um dos recursos embutidos no PCFSWeb.

de

conteúdos

Na medida em que o PCFSWeb é utilizado pelos participantes de uma fábrica de software, diversas informações são coletadas e contabilizadas para a geração de diferentes tipos de estatísticas. Entre estas estão: 

Informações Gerais: mostram as quantidades totais de: usuários, empresas, projetos, tarefas, fóruns e documentos.

Atividades Recentes: apresentam as últimas atividades desenvolvidas pelo usuário utilizado para o acesso e de todos os usuários cadastrados.

Tarefas Atrasadas e Iniciadas: apresentam o nome, data de início e a porcentagem de cumprimento das tarefas mais atrasadas e as mais recentes, respectivamente.

Últimos Acessos: são listados os usuários, que tiveram acessos recentes, por nome, data e hora do último acesso e o tempo de duração do acesso.

Registro de Chats: disponibiliza o histórico e conteúdos de conversações com demais usuários do sistema.

Últimas Atualizações: lista todos os eventos no sistema, ordenados temporalmente, desde o registro de um novo usuário à postagem de uma nova mensagem em algum dos fóruns.

No PCFSWeb, o suporte pedagógico se faz pelo uso de instrumentos que podem ser utilizados para mensurar a competência adquirida pelo aluno avaliado. Propôs-se assim o uso de Rubricas [21] por possibilitar aos avaliadores

Fig. 2. Formulário de avaliação de participantes de uma fabrica de software no PCFSWeb.

Além do formulário, no contexto é disponibilizado ainda atalhos para o histórico de interações do aluno em avaliação com o sistema proposto. Com esses atalhos, o avaliador poderá consultar, por exemplo, os números de postagens no fórum, a qualidade das informações alimentadas no sistema, as interações positivas e negativas com demais participantes, profissionalismo, cumprimento de prazos, entre outros. A Fig. 3 ilustra as interações entre os diferentes recursos do PCFSWeb por um participante.

Fig. 3. Histórico de interações para apoio na avaliação no PCFSWeb.


O PCFSWeb foi projetado a partir do modelo de arquitetura MVC (Model View Controller) [11], com suporte ao modelo cliente/servidor, utilizando banco de dados relacional MySQL, servidor Apache, linguagens PHP, CSS, Javascript (Jquery), XHTML, com reutilizações dos seguintes componentes: calendário (dhtmlxgantt), gerador de PDF (htmlpdf), editor de texto (ckeditor) e manipulação de imagens (canvas). A camada Model contém as classes responsáveis pela comunicação com o banco de dados, armazenamento e validação de dados, é onde se executa a lógica de negócios. Já na View, o usuário vê HTML, CSS, Javascript e JSON. Por fim, no Controller, é realizada a análise dos pedidos dos usuários e entrega dos dados à camada View. IV. ESTUDO DE CASO O estudo de caso teve como objetivo avaliar o uso da ferramenta proposta no acompanhamento de projetos em fábricas de software de uma turma da disciplina de Engenharia de Software I, de um curso de Sistemas de Informação, durante um semestre letivo. Foi proposto, às fábricas, o uso do PCFSWeb como ferramenta de apoio ao gerenciamento de suas atividades. Os alunos foram cadastrados no PCFSWeb, divididos em duas fábricas de software, uma com cinco e outra com seis participantes e cada equipe propôs um projeto de desenvolvimento de software, o qual deveria ser entregue no final do semestre. Os alunos fizeram reuniões para definição de seus papéis na fábrica, bem como para elaboração de artefatos documentais, como, por exemplo, Documento de Abertura, Documento de Requisitos e Documento de Arquitetura. A ferramenta PCFSWeb foi utilizada para tentar atender as seguintes necessidades: 

Ouvir, questionar e discutir, 4) Pesquisa e compartilhamento de informação, 5) Resolução de problemas e 6) Trabalho em equipe e parceria. V. RESULTADOS EXPERIMENTAIS A primeira equipe desenvolveu um sistema para web denominado SISCP (Sistema de Controle de Patrimônio) com a proposta de informatizar a gestão patrimonial do IFCE – campus Crato. O programa teve como objetivo principal informatizar o processo de requisição e respostas às solicitações de materiais, sendo possível localizar e remanejar quaisquer itens a partir da necessidade do setor solicitante. Já a segunda equipe, desenvolveu parte de um software para criação e aplicação de avaliações online, chamado de SYSPROVA (Sistema de Prova). A proposta para este sistema foi permitir a elaboração de provas com questões dissertativas e/ou de múltipla escolha, com inclusão das respectivas respostas, agilizando assim a aplicação e correção dos testes, pelos professores. Entre os recursos propostos, estão: cadastro de alunos, professores, disciplinas, provas, questões, níveis, turma, cursos e conteúdos, acesso e autenticação com criptografia, elaboração de provas pelo professor, resolução das provas pelos alunos, e correção automática com exposição do resultado. As duas fábricas desenvolveram seus sistemas utilizando a linguagem de programação para web PHP com CSS, HTML e Javascript, além do gerenciador de banco de dados MySQL. A Tabela 1 apresenta os números de interações em cada recurso do PCFSWeb, por cada um dos projetos. TABLE I.

RECURSOS UTILIZADOS NO PCFSWEB. Projetos

Recursos Utilizados

SISCP

SYSPROVA

8

8

Gerenciamento das atividades durante o processo de desenvolvimento do software;

Seções de Chat

Permitir a adaptar o desenvolvimento das atividades aos horários dos respectivos participantes da fábrica;

Adicionados

3

3

Editados

7

9

Dispor diferentes modelos comunicação (síncrono e assíncrono), como chat, fórum e wiki, para otimizar a comunicação entre participantes;

Adicionadas

7

14

Editadas

4

23

Adicionados

3

0

Editados

9

0

Adicionados

5

6

Respondidos

12

14

Adicionados

1

1

Resolvidos

0

1

Modelos de Documentos

1

0

Monitorar e avaliar a participação dos alunos no desenvolvimento do software e nas discussões para tomadas de decisões.

Durante o decorrer da disciplina houve três encontros presenciais com os representantes de cada fábrica e os respectivos clientes. Nesses encontros, foram estabelecidos os requisitos dos sistemas, esclarecimentos de dúvidas e apresentação de protótipos. Todas as outras interações com os clientes se deram através de e-mail. A avaliação dos alunos se deu através do uso de uma rubrica, a qual tratou de duas dimensões: cumprimento e participação nas tarefas e trabalho coletivo. A rubrica incluiu as seguintes seis categorias: 1) Foco na tarefa e participação, 2) Confiança e Compartilhamento de responsabilidades, 3)

Documentos

Tarefas

Wiki

Fóruns

Issues


Na Tabela I podemos ver que os recursos de planejamento de atividades foram os mais utilizados, totalizando a adição de 7 e 14 tarefas, com 4 e 23 edições, nos projetos SISCP e SYSPROVA, respectivamente. Já entre os recursos de comunicação, o fórum foi o mais utilizado - com a adição de 5 e 6 tópicos, os quais foram editados 12 e 14 vezes, respectivamente para os projetos SISCP e SYSPROVA seguido pelos chats, estes com 8 seções de bate-papo, para cada projeto. Entre os recursos menos utilizados, estão o Issue, sendo registrado apenas um incidente, e o wiki, onde os participantes do projeto SISCP adicionaram apenas 3 entradas, com 9 edições. Por fim, os participantes do projeto SISCP criaram um modelo de documento que foi utilizado em todos os artefatos gerados. A rubrica utilizada trouxe um modelo mais preciso de avaliação, uma vez que permitiu ao professor o acompanhamento do desempenho dos estudantes, durante todo o processo avaliativo. Assim, o mesmo pode identificar as maiores dificuldades de cada um deles e, consequentemente, direcionar individualmente o processo de ensinoaprendizagem. Para avaliação da ferramenta proposta, ao final do experimento, cada participante das duas fabricas respondeu a um questionário composto por 10 questões, das quais 7 deveriam informar uma nota de 0 a 10. A pontuação a ser informada deveria seguir a seguinte medida: Plenamente satisfatório (pontuação de 6 a 10); Satisfatório (pontuação 5); e Não satisfatório (pontuação de 0 a 4). Essas questões versaram sobre os seguintes aspectos: usabilidade, suporte ao gerenciamento de fabrica de software, acessibilidade, comunicabilidade, desempenho, suporte ao aprendizado em gestão de fábricas de software e gerenciamento de informação. As outras 3 questões tiveram respostas livres, as quais abordaram características positivas e negativas, bem como sugestões de novas funcionalidades para o PCFSWeb. A Tabela II sumariza as médias das 7 questões com pontuação. TABLE II.

RESULTADOS DA APLICAÇÃO DO QUESTIONÁRIO. Aspecto

Nas questões de respostas livres, entre os pontos positivos prevalecerem como respostas o layout do sistema, facilidade de uso e suporte para comunicação. Já para os negativos, citou-se a ausência de chat de grupo e problemas com a geração de documentos. Entre as sugestões de novas funcionalidades, predominaram a adição de suporte a chat em grupo, dicas de ajuda nas aplicações do sistema e modelos diversificados de documentos. VI. CONCLUSÕES O gerenciamento de informação em fábricas de software pode conduzir a decisões estratégicas que poderão impactar no processo de desenvolvimento de software e, consequentemente, na qualidade do produto final. Este trabalho apresentou o PCFSWeb, um sistema para apoio ao aprendizado em gerenciamento de informações em fábricas de software. O sistema proposto embutiu recursos de diversas ferramentas de apoio, dispondo assim de um ambiente integrado para a gestão de informação, alem de permitir avaliar e conduzir o processo de ensino-aprendizagem dos alunos participantes. Como trabalhos futuros, propõe-se o uso do PCFSWeb em diferentes cenários para o aprendizado de técnicas da engenharia de software e gerenciamento de fabricas de software. Planeja-se também a inclusão de modelos para gestão de conhecimento e novas métricas de avaliação de desempenho de projetos. REFERÊNCIAS [1]

[2]

[3]

Média

Usabilidade

8

Suporte ao Gerenciamento

7

Acessibilidade

8

Comunicabilidade

8

Desempenho

9

Suporte ao Aprendizado

8

Gerenciamento de Informação

7

[4]

[5]

[6]

[7]

De acordo com os resultados apresentados na Tabela II, de uma maneira geral, a ferramenta foi bem avaliada para o contexto estudado. As médias indicam a satisfação dos alunos na sua utilização, indicando que ela foi útil no aprendizado e gerenciamento de uma fábrica de software.

[8]

J. BERROCAL, J. M. G. ALONSO, J. M. MURILLO, “Engineering Automating the Software Process Management”, In: 13th Conference on Software Engineering and Databases, 2008, p. 15-26. R. BRITO et al., “Uma Experiência na Implantação de Processo em uma Fábrica de Software Livre”, In: VI SIMPÓSIO INTERNACIONAL DE MELHORIA DE PROCESSO DE SOFTWARE, São Paulo, 2004. C. COSTA, R. ROCHA, J. FIGUEIRÊDO, M. DUARTE, S. MEIRA, R. PRIKLADNICKI, “Ensino da Engenharia de Software por meio de Fábricas de Software no contexto Distribuído: Um Relato de Experiência”, In: III Fórum de Educação em Engenharia de Software, Salvador, Bahia, 2010. E. H. O. ECHTERNACHT, I. CASTRO, I., “Sistemas sócio-técnicos cooperativos e adequação espacial: uma aplicação da teoria da complexidade ao estudo da atividade de concepção de softwares”, Ação Ergonômica, Rio de Janeiro. v. I, n. 4, 2003, p. 46-62. M. V. A. F. GUIMARÃES, “Compartilhamento de Informação e Conhecimento em Equipes de Desenvolvimento de Software”, Dissertação (mestado em Ciência da Informação) - Universidade de Brasília, 2009. M. T. KOSCHEVIC, “Gerenciamento de processos com metodologias ágeis”, 35 f. Trabalho de Conclusão de Curso (Especialização) – Universidade Tecnológica Federal do Paraná, Medianeira, 2011. R. MARGEA, C. MARGEA, “Open Source Approach to Project Management Tools”, In: Informatica Economica; Vol. 15 Issue 1, Romania, 2011, p. 196. V. N. MEDEIROS, C. A. R. ANDRADE, E. S. ALMEIDA, J. ALBUQUERQUE, S. MEIRA, S. “Construindo uma Fábrica de Software: da Concepção às Lições Aprendidas”, In: CLEI2004 - XXX Latin-American Conference on Informatics, Arequipa, Peru, 2004.


[9]

[10]

[11] [12]

[13] [14]

[15]

[16] [17] [18]

[19]

[20] [21]

R. PANIGASSI, “Método para definição e modelagem de processos de fábrica de software usando RM-ODP e BPM”, Dissertação (mestrado em Engenharia Elétrica) - Universidade de São Paulo, 2007. PIMHE, Programme on Institutional Management in Higher Education., & Organisation for Economic Co-operation and Development, “Managing information strategies in higher education”, Paris, France: Organisation for Economic Co-operation and Development, 1996. K. QUIAN, “Software architecture and design illuminated”, Jones & Bartlett Learning, 2010. S. L. da SILVA, “Gestão do conhecimento: uma revisão crítica orientada pela abordagem da criação do conhecimento”, Ciência da Informação, Brasília, v. 33, n.2, 2004, p. 143-151. I. SOMMERVILLE, “Engenharia de software’. 9. ed. São Paulo: Pearson, 2011. A. M. VASCONCELOS, “Introdução à Engenharia de Software e à Qualidade de Software.” Monografia (Especialização). Universidade Federal de Lavras, Lavras, 2006. J. F. R. OLIVEIRA, “Utilização de ferramentas informáticas na gestão de projetos: enfoque na gestão colaborativa”, Dissertação (Mestrado) Curso de Engenharia Industrial, Universidade do Minho, Braga, 2013. Disponível em: <http://repositorium.sdum.uminho.pt/handle/1822/27266>. Acesso em: 10 maio 2014. R. S. PRESSMAN, “Software Engineering:: A Practitioner's Approach”. 7. ed. Connecticut: Mcgraw-hill Higher Education, 2010. K. HIRAMA, “Engenharia de Software: qualidade e produtividade com tecnologia”. Rio de Janeiro: Elsevier, 2011. R.. de L. VIERA, C. O. SILVA, M. T. B. GELLER, “Fábrica de Software e o Desenvolvimento de Sistemas na Cidade de Santarém: Estudo de Caso”. Revista Urissanê, v. 1, n.2, 2009. M. C. A. BRITO, F. P. SILVA, E. P. CABRAL, E. P. “Elaboração de uma metodologia de desenvolvimento de software para a fábrica de software de uma instituição de ensino”. Revista Brasileira de Informática na Educação, v. 21, n.2, p.53-61, 2013. J. MATTAR, “Web 2.0 e redes sociais na educação’. São Paulo: Artesanato Educacional, 2013. J. MATTAR. “Guia de Educaçao a Distancia’. Sao Paulo: Cencage Learning, 2011.


Um Estudo sobre Fatores Culturais e de Infraestrutura que Influenciam no Desenvolvimento Distribuído de uma Empresa de Software Enyo J. T. Gonçalves¹, Carla Ilane M. Bezerra¹, Marcos Antônio de Oliveira¹, Rebeca Rebouças², Daniel Rolim² ¹Universidade Federal do Ceará (UFC) Avenida José de Freitas Queiroz, nº 5.003 – Quixadá – CE – Brasil – Campus Quixadá ²iFactory Solutions Avenida Santos Dumont, nº 1687, Fortaleza – CE enyo@ufc.br, carlailane@ufc.br, marcos.oliveira@ufc.br, rebeca.reboucas@ifactory.com.br, daniel.rolim@ifactory.com.br  Resumo – Atualmente um grande número de empresas trabalha com desenvolvimento distribuído de software, em busca de aumento de produtividade, redução de custos e melhoria da qualidade. No entanto, fatores culturais e problemas de infraestrutura podem dificultar ou impossibilitar o desenvolvimento distribuído e colaborativo software. Este trabalho relata um estudo realizado de fatores culturais e de Infraestrutura que influencia no processo colaborativo distribuído de uma filial de uma empresa de desenvolvimento de software localizada na região do Semi-Árido do Estado do Ceará. O estudo foi realizado no contexto de um programa de apoio a pesquisas em empresas, que conta com a colaboração entre indústria e universidade. Palavras-chave: Desenvolvimento Distribuído de Software, Fatores Culturais, Infraestrutura.

I. INTRODUÇÃO

O

software tornou-se um componente estratégico para diversas áreas de negócio devido à importância que a informação passou a ter nas empresas na década passada. Dada essa importância, a demanda por projetos de software vem crescendo de maneira vertiginosa e as empresas de Tecnologia da Informação (TI) encontram projetos mais complexos e clientes mais exigentes. O desenvolvimento de software com equipes geograficamente distribuídas é uma realidade e várias empresas já utilizam esse estilo de desenvolvimento, denominado Desenvolvimento Distribuído de Software (DDS) [3] e [8]. Para sobreviver neste mercado global e conseguir satisfazer a necessidade dos clientes em relação a prazos e/ou a custos, as empresas de TI fecham parcerias no sentido de viabilizar o desenvolvimento de projetos de grande porte.

Portando o DDS pode envolver equipes localizadas em outra cidade, estado ou até mesmo em outro país. O DDS é uma alternativa no sentido de minimizar os custos do desenvolvimento [7], no entanto existem várias dificuldades encontradas nesta prática, tais como: diversos fatores culturais, conflitos comportamentais e de comunicação entre os stakeholders [1]. Estes fatores devem ser levados em consideração quando um processo é desenvolvido para uma empresa que possui equipes distribuídas. Neste contexto, este artigo tem o objetivo de relatar a experiência da definição e implantação de um processo de uma fábrica de software geograficamente distribuída (com sede na capital do Ceará e em uma filial do interior), apresentando um plano de ações, baseado em um estudo, para resolução de problemas relacionados a fatores culturais e infraestrutura que apoiam o desenvolvimento distribuído de software. Este artigo está estruturado em quatro seções. A seção 2 descreve a influência dos fatores culturais no DDS. Na seção 3, são apresentados detalhes de como o projeto vem sendo executado e os planos de ação para fatores culturais e desenvolvimento distribuído de software. Na seção 4, são apresentados conclusões e trabalhos futuros. II. INFLUÊNCIA DOS FATORES CULTURAIS NO DESENVOLVIMENTO DISTRIBUÍDO DE SOFTWARE O DDS tem sido caracterizado, principalmente, pela colaboração e cooperação entre departamentos de organizações e pela criação de grupos de desenvolvedores que trabalham em conjunto, mas estão localizados em cidades ou países diferentes, distantes temporal e fisicamente [7]. Os times distribuídos enfrentam desafios relacionados a fatores técnicos e não técnicos. Os fatores técnicos referem-


se a problemas de conectividade em rede e às diferenças entre os ambientes de desenvolvimento e teste. Quanto aos fatores não técnicos, têm-se as questões de confiança, comunicação, conflitos e diferenças culturais [Damian, 2002]. Além disso, o DDS tem levantado questões próprias sobre como: i) Controlar os participantes que se encontram em outros locais; ii) Lidar com as diferenças culturais; iii) Fazer melhor uso do trabalho cooperativo; e iv) Otimizar a distribuição das informações dos projetos para futuras consultas [Enani, 2006]. No caso de fatores técnicos, o tipo de tecnologia usado na comunicação pelos participantes que se encontram fisicamente distantes também exerce impacto sobre o projeto devido às diferenças culturais. Por exemplo, em alguns países, a consumação de um negócio deve ser realizada face-a-face enquanto que em outros, pode-se fazê-lo por carta ou telefone. A utilização de videoconferência ou áudio conferência deve levar em conta que alguns países valorizam os gestos e a entonação da voz e para eles, o vídeo é importante [6]. Devido a essas questões alguns estudos tem sido realizados visando analisar os aspectos culturais e técnicos no Desenvolvimento Distribuídos de Software [5], [2] e [7]. No contexto deste trabalho são tomadas ações em uma empresa de desenvolvimento de software, tanto para cobrir fatores técnicos de infraestrutura, como fatores culturais do DDS. III. EXECUÇÃO DO PROJETO O estudo a ser apresentado neste trabalho é resultado de um projeto de uma parceria entre a Universidade Federal do Ceará (UFC), do Campus Quixadá, e a empresa de desenvolvimento de software, iFactory. O projeto foi aceito no edital do Programa de Apoio à Pesquisa em Empresas (PAPPE Integração), submetido pela Fundação Cearense de Apoio ao Desenvolvimento Científico e Tecnológico (FUNCAP), em contrato com a Financiadora de Estudos e Projetos (FINEP). O projeto visa a definição e implantação de um processo na matriz localizada em Fortaleza e, na filial da empresa iFactory, localizada no interior do Ceará. A iFactory é uma das principais integradoras de TI do Brasil. Com operações em Fortaleza (CE), São Paulo, Quixadá (CE), Chicago, Miami, Cidade do México e Santiago, a companhia atua globalmente, oferecendo serviços de outsourcing, fábrica de software e Help Desk. A iFactory possui atualmente cerca de 110 colaboradores, divididos em diferentes áreas de especialização como: Arquitetura, Desenvolvimento, Qualidade de Software e Suporte. A Universidade Federal do Ceará (UFC), do Campus Quixadá, está em funcionamento desde 2007 e possui atualmente quatro cursos de graduação voltados para área de tecnologia de informação: curso de Bacharelado em Sistemas de Informação; curso de Bacharelado em Engenharia de Software, curso de Bacharelado em Ciência da Computação e o curso de Graduação Tecnológica em Redes de Computadores. A cidade de Quixadá é hoje uma das principais cidades do sertão central, e encontra-se em pleno crescimento, principalmente devido às instalações de faculdades e Universidades na cidade. Como um dos objetivos do projeto e da iFactory é o desenvolvimento da filial de Quixadá, foi realizada uma pesquisa sobre fatores culturais e de infraestrutura da região

do semiárido, os quais influenciam processos de trabalho colaborativos. Posteriormente, foi elaborado um plano de ação, com base na pesquisa realizada. Outro objetivo a ser atendido pelo projeto foi a adequação das atividades dos projetos às particularidades do desenvolvimento de software, por uma equipe geograficamente distribuída. Foi também previsto no planejamento uma pesquisa de técnicas e ferramentas para auxiliar no desenvolvimento distribuído de software. A metodologia utilizada, os planos de ação estabelecidos, e o andamento da aplicação dos planos na empresa são descritos nas subseções a seguir. A. Metodologia de criação dos planos A metodologia utilizada para criação dos planos de ação pode ser dividida em quatro fases: i) Estudo; ii) Reuniões; iii) Criação dos Planos de Ação; iv) Aplicação dos Planos de Ação. O estabelecimento de um conjunto de ações objetivando a redução das diferenças socioculturais entre a matriz e filial da iFactory inicia-se com a fase de estudo dos dados socioeconômicos do semi-árido, sobretudo do sertão central, e influencia destes nos recursos humanos desta região. Paralelamente, os fatores que influenciam o desenvolvimento distribuído de software foram avaliados e ocorreu a seleção dos fatores que se relacionam a fatores culturais. Para ambos os estudos foram levados em consideração artigos publicados, dissertações de mestrado e teses de doutorado relacionadas ao tema. Após a fase de estudo, ocorreu um conjunto de Reuniões para sondagem junto à alta direção da iFactory, coordenadoria de ensino e direção da UFC-Quixadá para estabelecer um perfil e deficiências recorrentes dos estagiários/funcionários da empresa e alunos do campus Quixadá (estagiários/funcionários em potencial). As reuniões também envolveram discussões sobre questões relacionadas ao desenvolvimento distribuído de software. Juntamente com as reuniões ocorreu a criação dos planos de ação. Inicialmente foi realizada a identificação das ações já desenvolvidas pela empresa gerando um conjunto das mesmas que foi proposto e discutido. O resultado foi a criação dos planos que serão apresentados nas subseções seguintes e que vem sendo aplicados na empresa. B. Definição e Implantação de um Plano de Ação de Fatores Culturais Segundo Enami [1], diferenças culturais podem ocorrer até mesmo com pessoas de um mesmo país, devido aos costumes regionais. A iFactory encontra-se nesta situação, tendo em vista que as duas unidades (Matriz e Filial) situam-se no mesmo estado, porém em regiões distintas. A matriz situa-se em Fortaleza, capital cearense com uma população de aproximadamente 2.315.116 habitantes e um PIB de 31.789.186,00 segundo o censo do IBGE de 2010 [4], sendo que a economia baseia-se fortemente na indústria e no setor terciário. A filial situa-se na região do sertão central cearense, mais especificamente na cidade de Quixadá, que conta com uma população de 79.455 habitantes e com um PIB de 392.364,00 segundo o censo do IBGE de 2010 [4], a


economia é predominantemente baseada na agricultura e pecuária. Os dados socioeconômicos refletem-se de certo modo nos aspectos culturais, uma vez que uma cidade com um perfil mais urbano geralmente caracteriza-se pela chegada antecipada de recursos tecnológicos, em oposição a uma cidade com perfil mais rural concentra seus esforços em outras necessidades. Um fator adicional em relação ao cenário é que os cursos da área de TI em Quixadá são recentes (primeira turma do bacharelado em Sistemas de Informação da UFC concluiu em 2011) e na região há poucas empresas de TI, assim sendo os profissionais selecionados pela filial ingressam na empresa sem uma experiência prévia e tem que amadurecer profissionalmente na instituição. Na matriz, muitas vezes os profissionais que são contratados já chega à fabrica com anos de experiência em outras empresas o que geralmente é indicativo de uma maior produtividade e maturidade profissional. Esta situação de diferenças culturais, já conhecida da literatura, foi identificada logo de inicio no desenvolvimento do projeto. A filial de Quixadá necessitava de ações que pudessem desenvolvê-la, de modo que a empresa tivesse uma identidade homogênea a partir das duas equipes. Após o estudo dos fatores que necessitavam ser melhor trabalhados em relação aos fatores culturais do desenvolvimento distribuído de software, um plano de ação a ser implementado pela empresa foi estabelecido com o intuito de integrar as equipes e de nivela-las. Em um plano de ação, cada ação deve responder as seguintes perguntas: 1) O que? 2) Por que? 3) Quem fará? 4) Como?

O plano de ação concebido contém 12 ações que abordam necessidades relacionadas aos fatores culturais, sendo que as principais ações deste plano encontram-se especificadas nas Tabelas a seguir: A ação 1 no Quadro 1, engloba não somente os profissionais que já pertencem ao corpo técnico, mas a comunidade de um modo geral. Esta ação já vinha sendo executada (Há dois anos esta ação é realizada) e o intuito de inclusão desta no plano de ação é a continuidade. As capacitações vislumbram o crescimento profissional e maturidade dos envolvidos. A ação 2 no Quadro 2, envolve também profissionais recém contratados. Inclusive este intercâmbio já foi iniciado com a ida de quatro novos estagiários ainda em 2011, contratados após o estabelecimento deste plano. Os estagiários são alunos dos últimos semestres da UFC-Quixadá que viabilizaram a ida para Fortaleza do ponto de vista acadêmico através da flexibilidade de currículo (disciplinas optativas) e mobilidade acadêmica para o campus da UFC-Fortaleza. Assim sendo os estagiários podem desenvolver-se mais rapidamente enquanto profissionais, sem atrasar o término do curso e quando concluírem o bacharelado o intuito é que estes voltem para a filial em Quixadá para colaborar com o desenvolvimento desta. A leitura de livros não técnicos é importante para que os profissionais possam crescer e amadurecer a visão interpessoal, é disto que a ação 3 trata no Quadro 3. Além disto, a leitura (de um modo geral) aprimora o vocabulário e a pontuação, melhorando a qualidade da produção textual.

Quadro 1: Ação 1 – Promover capacitações abertas aos estudantes dos cursos de TI.

Quadro 2: Ação 2 – Participação do profissionais de Quixadá na fábrica de Fortaleza.


resultados estão realmente sendo alcançados: desenvolvimento dos colaboradores. Assim sendo, uma

O

Quadro 3: Ação 3 – Incentivo à leitura de livros não-técnicos.

Quadro 4: Ação 4 – Realização de confraternizações

Quadro 5: Ação 5 – Incentivar colaboradores ao aprendizado de língua estrangeira.

Quadro 6: Ação 6 – Avaliação da produtividade.

A sensação de unidade na empresa tem a possibilidade de ser efetivada por meio de confraternizações. Em momentos como este há a possibilidade de interação entre os profissionais e fortalecimento de amizades. A ação 4 no Quadro 4 aborda este aspecto. O aprendizado de línguas estrangeiras tornou-se fundamental com a globalização, principalmente no contexto de uma empresa que desenvolve projetos para clientes que localizam-se fora do Brasil. Assim sendo, a ação 5 no Quadro 5 foi traçada com o intuito de incentivar os colaboradores à capacitarem-se neste sentido. As ações descritas (de 1 a 5) foram traçadas para possibilitar o crescimento dos recursos humanos. No entanto é necessário que uma avaliação seja feita para aferir se os

avaliação de produtividade foi pensada de modo a visualizar como anda o amadurecimento profissional dos envolvidos. C. Definição e Implantação de um Plano de Ação para o Desenvolvimento Distribuído de Software A iFactory possui filiais distribuídas pelo país e também uma no exterior e as equipes de desenvolvimento estão muitas vezes distribuídas entre as essas filiais. Foi realizado um estudo e então criado um plano de ação para implantação de Desenvolvimento Distribuído de Software (DDS) entre a sede em Fortaleza e a filial de Quixadá, pois estas estão mais interligadas em termos de desenvolvimento de projetos. Posteriormente o DDS seria aplicado as demais filiais de acordo com o planejamento estratégico da empresa.


O plano de ação para o desenvolvimento distribuído de software envolveu a identificação de novas ferramentas para auxiliar a comunicação, gerenciamento e integração com a equipe de desenvolvimento de software distribuída entre as duas filiais. As ações afetaram o processo apenas na inclusão de ferramentas que auxiliaram nesses fatores. A ação 1 no Quadro 7 é realizada para integrar a ferramenta de gerenciamento de conteúdo (Sharepoint) e a de gerenciamento de projetos (JIRA). A integração dessas ferramentas facilita a busca por informações relacionada aos projetos desenvolvidos pela iFactory e consequentemente a comunicação entre as equipes. A ação 2 no Quadro 8, visa o gerenciamento das equipes através do scrum de scrums. Como a iFactory utiliza o scrum como metodologia de desenvolvimento de sistemas e devidos a casos de sucesso relacionados a aplicação do scrum de scrum, a utilização desta técnica para implantação de DDS na iFactory é facilitada. A ação 3 no Quadro 9, trata do principal problema do DDS que é a comunicação entre as equipes. Com a utilização de ferramentas pretende-se facilitar e gerenciar melhor como a comunicação é realizada entre equipes distribuídas em Fortaleza e Quixadá.

A ação 4 no Quadro 10, visa avaliar a aplicação deste plano pelo QA (pessoa responsável pela garantia da qualidade do processo da iFactory). O QA deve avaliar se o processo e as ferramentas utilizadas estão dando o suporte necessários para o gerenciamento do DDS na iFactory. Os planos de ação apresentados foram estabelecidos e muitos dos itens registrados já estão sendo cumpridos. Dentre os valores organizacionais da iFactory, está a busca do aprendizado contínuo e desenvolvimento das competências. Dessa forma, é um objetivo que a empresa busca não somente com as ações relatadas nesse artigo, mas com outras frentes. Com as ações relatadas acima, já é possível identificar valores para os investimentos realizados. A iFactory vem efetivando estudantes, tanto na sede como na filial em Quixadá. É possível perceber que os estagiários de Quixadá que fizeram intercâmbio para a sede em Fortaleza já começam a absorver a realidade do ritmo corporativo. Junto a isso, os eventos mensais de comemoração de aniversariantes, juntamente com evento anual, é possível perceber ganhos no relacionamento dos times que trabalham remoto.

Quadro 7: Ação 1 – Facilitar a busca de informações relacionadas aos projetos.

Quadro 8: Ação 2 – Fazer gerenciamento das equipes


Quadro 9: Ação 3 – Resolver problemas de comunicação entre as equipes.

Quadro 10: Ação4 – Avaliação do QA de acordo com as ações de DDS

REFERÊNCIAS IV. CONCLUSÕES Este artigo apresentou um relato de experiência sobre a elaboração de um estudo e à criação de planos de ação relacionados ao desenvolvimento distribuído de software e fatores culturais. Esta abordagem propicia redução de riscos envolvidos no desenvolvimento distribuído de software para a empresa e aderência ao processo que está sendo desenvolvido. Por outro lado, a indústria é beneficiada com uma diretriz útil, de modo a dar mais qualidade ao relacionamento entre os profissionais devido à abordagem de fatores culturais do semiárido. Como trabalhos futuros pretende-se manter a atualização do plano de ação e aderência ao processo de desenvolvimento de software da empresa. Além disto, um canal de comunicação onde os profissionais possam identificar necessidades relacionadas ao desenvolvimento distribuído é um importante mecanismo a ser criado para que o plano de ação possa estar sempre em conformidade com as necessidades da empresa.

[1]

[2]

[3] [4]

[5]

[6] [7]

[8]

ENAMI, L. M. M. (2006) “ Um modelo de gerenciamento de projetos para o ambiente distribuído de software”. Dissertação de Mestrado em Ciências da Computação – UEM, Maringá. GONÇALVES, R. A.; PAGNO, R. T.; TAIT, TANIA F. C.; HUZITA, ELISA H. M. (2009) “Uma análise da dimensão sociocultural no desenvolvimento distribuído de software”. In: WOSES - SBQS, 2009. HERBSLEB, J. D.; MOITRA, D. (2011) "Global Software Development," IEEE Software, 2001. IBGE (2010). Censo do IBGE, disponível em http://www.censo2010.ibge.gov.br/dados_divulgados/index.php?uf=23 e http://www.ibge.gov.br/home/estatistica/economia/pibmunicipios/2005_ 2009/tabelas_pdf/tab01.pdf, acessados em 08 de Abril de 2014. LEAL, G. C. L.; SILVA, C. A.; HUZITA, E. H. M.; TAIT, T. F. (2010) “Uma Análise Sociotécnica de Processos de Software sob a Perspectiva do Desenvolvimento com Equipes Distribuídas”. In: VI WOSES, 2010. OLSON J. S.; OLSON, G. M. (2004) “Culture Surprises in Remote Software Development Teams”. ACM Queue, New York, v. 1, n. 9. PILATTI, L., PRIKLADNICKI, R. E AUDY J. L. N. (2007) “Avaliando os Impactos dos Aspectos Não-Técnicos da Engenharia de Software em Ambientes de Desenvolvimento Global de Software: Um Caso Prático”, III WOSES 07, Porto de Galinhas. PRIKLADNICKI, R. (2003) "MuNDDoS Um modelo de Referência para o Desenvolvimento Distribuído de Software." Dissertação de mestrado da PUCRS, Porto Alegre, 2003.



Abordagem H´ıbrida Semi-Supervisionada para Rotulac¸a˜ o de Dados a partir de Dados N˜ao-Rotulados Bruno Vicente Alves de Lima Universidade Federal do Piaui Departamento de Computac¸a˜ o Email: brunovicente@ufpi.edu.br Abstract—This paper present a semi-supervised hibrid approach to data labeling. In the semi-supervised learning have a labeling dataset that obtein labels based on a smaller part labeled previously. The proposed method use network neural aided by a clustering method, in this case k-means algorithm. The shown approach in this paper can be used not only in nerwork neural, but also wiht other classifiers. To check the method validity conducted two experiments using the iris database.

I.

˜ I NTRODUC¸ AO

Em um problema de classificac¸a˜ o de padr˜oes e´ admitida a existˆencia de um conjunto de dados rotulados (dados de treinamento) que s˜ao utilizados para induzir um classificador. Entretanto, na maioria dos casos esse conjunto de treinamento pode n˜ao conter uma quantidade suficiente de dados rotulados para treinar o classificador. Um nova abordagem de aprendizado chamada semisupervisionada, parte do pressuposto que o conjunto dos dados dispon´ıveis para treinamento s˜ao formados por uma parte rotulada, que e´ em menor n´umero, e outra n˜ao rotulada, em maior n´umero. A ideia e´ rotular o conjunto de dados n˜ao rotulados a partir daqueles que j´a possuem r´otulos. Desta forma obter dados suficiente para induzir um classificador de forma eficiente. Os padr˜oes n˜ao rotulados podem ser utilizados de v´arias maneiras. Neste trabalho e´ realizado um processo de rotulac¸a˜ o dos dados n˜ao rotulados atrav´es da combinac¸a˜ o de redes neurais multicamadas (RNM) com o algoritmo K-m´edias. Basicamente a RNM tem seu treinamento auxiliado por um algoritmo n˜ao supervisionado, neste caso K-m´edias, e ao final obt´em-se todos os dados rotulados. II.

´ A PRENDIZADO DE M AQUINA

Aprendizado de M´aquina (AM) e´ uma sub´area da Inteligˆencia Artificial que pode ser descrito como o desenvolvimento de t´ecnicas computacionais sobre o aprendizado bem como a construc¸a˜ o de sistemas capazes de adquirir conhecimento de forma autom´atica [1]. A AM permite o desenvolvimento de m´aquinas capazes de trabalhar melhorando a eficiˆencia e precis˜ao a medida que vai sendo utilizada. O aprendizado pode ser de trˆes tipos considerando o tipo de treinamento: Aprendizado Supervisionado, Aprendizado n˜ao Supervisionado e o Semi-Supervisionado [1].

A. Aprendizado Supervisionado Neste trabalho utilizamos uma t´ecnica que utiliza o aprendizado supervisionado (Redes Neurais). Neste tipo de aprendizado, durante o treinamento, s˜ao fornecidas ao classificador as entradas e suas sa´ıdas. Os dados de treinamento s˜ao rotulados com o objetivo de induzir um classificador para torn´a-lo capaz de generalizar o problema [2]. Para o desenvolvimento do algoritmo proposto utilizamos as Redes Neurais Multicamadas (RNM), que s˜ao um tipo de Rede Neural que utiliza o paradigma supervisionado durante o treinamento. Redes Neurais Multicamadas (RNM) possuem uma camada de entrada, onde s˜ao fornecidos os padr˜oes de entrada, uma ou mais camadas ocultas e uma camada de sa´ıda, por onde a rede emite a resposta [3]. Para realizar o treinamento da MLP, utiliza-se o Algoritmo Backpropagation. O Algoritmo Backpropagation e´ um algoritmo supervisionado, utilizado para treinar uma rede neural com m´ultiplas camadas. E´ executado em duas fases: forward, onde e´ apresentado o padr˜ao de entrada e emitida uma sa´ıda pela rede, e a segunda fase, que e´ chamada de backward, onde a sa´ıda obtida e´ comparada com a sa´ıda desejada e assim calculado o erro. O erro obtido na camada de sa´ıda e´ usado para ajustar diretamente os seus pesos. Posteriormente esse erro e´ propagado para as camadas anteriores, at´e a camada de sa´ıda, com o objetivo de ajustar os pesos de todas as conex˜oes da rede neural [4]. B. Aprendizado N˜ao Supervisionado Diferente do supervisionado o Aprendizado N˜ao Supervisionado n˜ao tem acesso as sa´ıdas dos dados. Neste caso sup˜oe-se que o conjunto de exemplos n˜ao est´a rotulado, com isto o sistema tenta classificar estes conjuntos agrupando os semelhantes em determinados grupos de acordo com uma medida de similaridade. O agrupamento baseia-se na similaridade dos objetos agrupados para criar os grupos separando assim os itens com menos similaridade e aproximando os mais similares. Uma das t´ecnicas n˜ao supervisionadas utilizada neste trabalho e´ o Algoritmo K-m´edias. O K-m´edias e´ uma t´ecnica de aprendizado de m´aquina, n˜ao supervisionado apresentada por [5] e tem o objetivo de criar


partic¸o˜ es de uma populac¸a˜ o n-dimensional em k grupos em uma dada base de dados. O algoritmo K-m´edias utiliza um parˆametro de entrada k, que determina a quantidade de grupos, sendo que tais grupos possuem n elementos. Ap´os a execuc¸a˜ o pretende-se obter uma alta similaridade dos elementos de um grupo e baixar similaridade entres os grupos criados pelo algoritmo [6]. O algoritmo K-m´edias pode ser resumido da seguinte maneira: 1) 2) 3) 4)

E´ escolhido aleatoriamente k objetos da base de dados como centros iniciais dos grupos; Atribui-se cada objeto ao grupo ao qual o objeto e´ mais similar, de acordo com o calor m´edio dos objetos no grupos; Atualiza-se as m´edias dos grupos, ou seja, calcula-se a m´edia dos objetos para cada grupo; Testa o crit´erio de parada, e finaliza ou retorna ao item 2.

Como dito anteriormente, os grupos s˜ao gerados considerando uma medida de similaridade, que faz com que os padr˜oes mais similares entre si sema pertencentes ao mesmo grupo. Nesta abordagem, esta medida torna-se importante, pois esta influencia na rotulac¸a˜ o, pois indica quais elementos s˜ao da mesma classe. A similaridade entre padr˜oes de exemplos neste trabalho e´ calculada atrav´es da distˆancia euclidiana, que pode ser definida pela equac¸a˜ o 1. D(x, y) =

m X

na grande maioria dos casos, o n´umero de exemplos rotulados e´ insuficente para treinar um algoritmo supervisionado. Situac¸o˜ es deste tipo incentivam o uso de algoritmo de aprendizado semi-supervisionado. Neste trabalho prop˜oe-se uma abordagem de aprendizado semi-supervisionado para as tarefas de classificac¸a˜ o de padr˜oes, considerando que exemplos que pertencem a` mesma classe apresentam uma tendˆencia a se agrupar de acordo com uma medida de similaridade. O algoritmo aqui proposto, consiste em ampliar o conjunto de dados rotulados durante o treinamento do classificador. Para expandir os dados rotulados utilizamos o algoritmo K-m´edias para auxiliar no aprendizado da rede neural obtendo assim um conjunto maior de dados rotulados e um classificador capaz de generalizar o problema. O m´etodo pode ser definido em quatro fases principais: treinamento, classificac¸a˜ o, agrupamento e teste de erro. •

Treinamento - consiste em treinar o classificador utilizando apenas os dados rotulados;

Classificac¸a˜ o - e´ a fase em que classifica-se os dados n˜ao rotulados com o classificador treinado;

Agrupamento - nesta etapa os dados s˜ao agrupados levando em considerac¸a˜ o uma medida de similaridade;

Teste de Erro - fase em que analisa-se e detecta os padr˜oes inseridos em grupos erroneamente, isto e´ , n˜ao seguem o padr˜ao do grupo ao qual est˜ao inseridos.

A. Algoritmo Proposto (xi − yi )2

(1)

i=1

Onde D e´ a distˆancia euclidiana, m e´ a dimens˜ao no problema, x e y os valores das coordenadas de dois eixos em que os elementos, representados por i, est˜ao inseridos.

Para definir o algoritmo considerou-se L como o conjunto dos dados rotulados e U o conjunto n˜ao rotulado. A proposta pode ser descrita no Algoritmo III-A. Algortimo 1: Abordagem Proposta

O Aprendizado Semi-Supervisionado consiste em utilizar t´ecnicas que aprendam a partir de dados rotulados e n˜ao rotulados. O objetivo e´ utilizar os exemplos rotulados para se obter informac¸o˜ es sobre o problema e utiliz´a-las para guiar o aprendizado a partir dos dados n˜ao rotulados [7].

Base de Dados com dados rotulados e n˜ao rotulados. Base de Dados rotulada. tamanho U ¿ 0 Separar L e U;Treinar RNM com L;Classificar o conjunto U com a RNM e adicionar em L;Agrupar os dados de L com K-m´edias;Adicionar padr˜oes agrupados erroneamente em U’;Adicionar padr˜oes agrupados corretamente em L’;L’ torna-se L;U’ torna-se U;

Pode ser utilizado tanto para classificac¸a˜ o quanto para agrupamento. No caso da classificac¸a˜ o a ideia e´ rotular corretamente os dados n˜ao rotulados, os quais s˜ao posteriormente utilizados na fase de treinamento de um classificador [8].

Como pode-se observar no algoritmo III-A, o treinamento e´ feito at´e que os n˜ao exista mais dados n˜ao rotulados na base de dados.

C. Aprendizado Semi-Supervisionado

J´a no processo de agrupamento os exemplos rotulados s˜ao utilizados para a formac¸a˜ o dos grupos. Geralmente esta formac¸a˜ o e´ baseada nos dados rotulados e com isso obter melhores resultados. III.

A BORDAGEM S EMI -S UPERVISIONADA

Dadas as limitac¸o˜ es dos algoritmos n˜ao supervisionados, como, por exemplo, a falta de uma descric¸a˜ o conceitual dos grupos encontrados, torna-se evidente a preferˆencia por algorimos supervisionados. Entretando, como dito na sec¸a˜ o I,

Inicialmente, tˆem um conjunto com poucos dados rotulados e muitos n˜ao rotulados, como mostra a figura 1. Com esse estado da base, divide-se os dados rotulados (L) dos n˜ao rotulados (U) e assim identifica-se quais e quantas s˜ao as classes do problema em quest˜ao. Posteriormente, na fase de treinamento, o conjunto de dados L e´ utilizado para treinar a RNM. Como o conjunto L e´ menor que o conjunto U e n˜ao possui padr˜oes suficiente para induzir o algoritmo, dizemos que a RNM foi fracamente treinada, pois a capacidade de generalizac¸a˜ o do classificador


Dados Classe 1 Dados Classe 1

Fig. 1.

Dados Classe 1 Não Rotulados

Conjunto com poucos dados rotulados.

inicialmente n˜ao e´ satisfat´oria. Ap´os treinar, procede com a fase de classificac¸a˜ o, onde os dados do conjunto U s˜ao classificados com o classificador fraco e adicionados no conjunto L, pois estes agora possuem um r´otulo tempor´ario (Figura 2).

Dados Classe 1 Dados Classe 1

existente em cada grupo e assim verificar quais n˜ao foram corretamente classificados, como mostra na figura 4. Ap´os o processo de gerac¸a˜ o dos grupos, os padr˜oes inseridos nos grupos de forma errada s˜ao removidos e colocados novamente no conjunto U.

Dados Classe 1 Não Rotulados

Dados Classe 1 Dados Classe 1

Dados Classe 1 Não Rotulados

Fig. 2. Conjunto de dados ap´os a execuc¸a˜ o do classificador fracamente treinado.

Fig. 4.

Como a RNM foi treinada com dados escassos, n˜ao existe garantia de que os padr˜oes do conjunto U tenham sido classificados corretamente, mas ainda sim e´ poss´ıvel que alguns dos padr˜oes tenham sido classificados corretamente.

O processo e´ realizado at´e que o agrupamento seja condizente com a classificac¸a˜ o obtida com a RNM, isto e´ , todos os dados classificados na mesma classe forem inseridos no mesmo grupo.

Para auxiliar no treinamento da RNM, submeteu-se os dados do conjunto L ao Algoritmo K-m´edias, partindo da premissa de que os dados com a mesma classe ser˜ao agrupados no mesmo grupo, seguindo a medida de similaridade descrita na sec¸a˜ o II. Como a RNM foi fracamente treinada esperase que haja dados colocados em grupos onde a maioria dos elementos pertencem a classes diferentes, como mostra na figura 3.

Detecc¸a˜ o dos dados agrupados em grupos errados.

IV.

E XPERIMENTO R EALIZADO

Com o objetivo de verificar a validade do m´etodo proposto, realizou-se experimentos visando rotular um conjunto de dados a partir de uma pequena parte rotulada. Para isso realizou-se um experimento em duas fases. A primeira foi realizada com o objetivo de analisar a validade dos r´otulos encontrados pelo algoritmo proposto. A segunda fase consistia em avaliar a utilidade dos novos exemplos rotulados na induc¸a˜ o de um classificador. Sendo assim, o conjunto de dados utilizados no experimento foi particionado em dois subconjuntos: L e U. A. Base de Dados Utilizadas

Dados Classe 1 Dados Classe 1

Fig. 3.

Dados Classe 1 Não Rotulados

Conjunto de dados agrupados.

Com o agrupamento, pode-se detectar quais s˜ao os padr˜oes

Para a validac¸a˜ o da abordagem proposta, utilizamos uma base de dados do reposit´orio Machine Learning Repository1 . Para os testes utilizou-se a base de dados de da iris, introduzida primeiramente na literatura por [9]. A base iris e´ uma colec¸a˜ o de 150 amostras, com 4 caracter´ısticas cada, sendo a largura e o comprimento da p´etala 1 http://archive.ics.uci.edu/ml/


TABLE I.

e da s´epala. Tais amostras s˜ao classificadas em trˆes classes: ´Iris Virg´ınica, ´Iris Versicolor, ´Iris Setosa. V.

O conjunto U possu´ıa uma maior quantidade de exemplos, totalizando 75% do conjunto total, sendo que estes exemplos tiveram suas classes extra´ıdas. O subconjunto L era menor, com 25% dos exemplos, sendo que neste subconjunto mantevese os r´otulos. Desta forma, tˆem-se a situac¸a˜ o em que o algoritmo proposto pode ser utilizado. Ap´os submeter o conjunto de dados ao algoritmo, a sa´ıda do algoritmo, i.e., o novo conjunto de exemplos rotulados, foi analisado. Essa an´alise consiste em comparar o r´otulo atribu´ıdo pelo m´etodo a um dado exemplo com o seu r´otulo original conhecido. Desta forma, pode-se medir a taxa de acerto da abordagem proposta. ˜ DA U TILIDADE DO C ONJUNTO VALIDAC¸ AO ROTULADO

Para determinar validade da utilidade dos novos exemplos rotulados, submeteu-se o conjunto em um classificador, neste caso Rede Neural Multicamadas. Al´em disso, realizou-se no experimento a execuc¸a˜ o de uma RNM com os dados originais e outra treinada com os 25% que formam o conjunto U inicial. Por fim comparou-se as taxas de acertos obtidas. As redes neurais possu´ıam a mesma arquitetura, contendo um total de trˆes camadas, sendo uma de entrada, uma camada oculta contendo um total de dez neurˆonios e uma camada de sa´ıda com um neurˆonio. O experimento foi conduzido utilizando a t´ecnica de chamada validac¸a˜ o cruzada, que consiste em dividir o conjunto de dados em n grupos. A cada iterac¸a˜ o cada grupo torna-se o conjunto de teste e os outros o conjunto de treinamento. Desta forma, o classificador e´ treinado e testado at´e que todos os grupos tenham sido conjunto de teste. Durante o processo, as taxas de acertos s˜ao armazenadas para ao final obter a m´edia das taxas durante o processo e ent˜ao observar com mais precis˜ao a eficiˆencia do classificador. VII.

DRC 146,5

DRI 3,5

Porcentagem 97,67% (0,745)

˜ DOS R OTULOS ´ VALIDAC¸ AO

Para esta primeira fase do experimento utilizou-se uma rede multicamada com uma 1 camada com 4 entradas, 1 camada oculta contendo 50 neurˆonios e uma camada de sa´ıda. Como a base iris indica que possui trˆes classes, ent˜ao o algoritmo K-m´edias foi executado para gerar 3 grupos.

VI.

R ESULTADOS DO E XPERIMENTO .

˜ R ESULTADOS E D ISCUSS AO

Nesta sec¸a˜ o mostra os resultados realizados dos dois experimentos descritos na sec¸a˜ o anterior. A. Resultados da Rotulac¸a˜ o Na tabela I mostra a m´edia dos resultados de 10 replicac¸o˜ es do experimento realizado para verificar a rotulac¸a˜ o. Nestes resultados, pode-se observar os dados rotulados, que representam, dos 75% do conjunto de exemplos total, 97,67% foi rotulado corretamente comparando com a base inicial. Isso totaliza cerca de 146 registros rotulados corretamente. Onde DRC s˜ao os Dados Rotulados Corretamente e DRI s˜ao os Dados Rotulados Incorretamente.

Como foi utilizada a validac¸a˜ o cruzada e obteve-se a m´edia, calculou-se o intervalo de confianc¸a para verificar qual a variac¸a˜ o das taxas durante as execuc¸o˜ es. Este valor encontrase na tabela I entre ao lado da taxa de acerto. O intervalo de confianc¸a foi calculado utilizando um n´ıvel de confianc¸a de 0,05. Como pode-se observar o intervalo de confianc¸a foi de 0,745, isso significa que, considerando o contexto atual, que as taxas de acertos durante as 10 execuc¸o˜ es n˜ao sofreram variac¸o˜ es excessivas, aumentando a confianc¸a do valor da taxa de acerto. Para verificar a taxa de acerto mostrada na tabela I, comparou a base rotulada inicialmente com a base rotulada ap´os a execuc¸a˜ o do algoritmo proposto. B. Resultados da Classificac¸a˜ o Visando verificar que o resultado da rotulac¸a˜ o e´ capaz de treinar um classificador de forma eficiente, realizou-se um experimento testando trˆes redes neurais com trˆes conjuntos de dados. A tabela II mostra o resultado da execuc¸a˜ o das RNA’s treinadas e testadas neste experimento. Na coluna Base de Dados indica a base utilizada para treinar a rede neural e na coluna Porcentagem pode-se visualizar as taxas de acerto de cada RNM treinada com as bases indicadas na primeira coluna respectivamente. TABLE II.

R ESULTADOS DO E XPERIMENTO COM AS R EDES N EURAIS M ULTICAMADAS . Base de Dados Conjunto U inicial Base Original Base Rotulada

Taxa de Acerto 33,36% (0,5) 94,13% (0,139) 94,1% (0,185)

De acordo com a tabela II, a rede neural treinada o conjunto de dados U inicial, obteve apenas 33,36% de acerto, uma taxa que para o problema em quest˜ao e´ considerada inferior a` satisfat´oria, logo verifica a validade do problema relacionado aos poucos dados rotulados para treinar um classificador. Al´em disso, a tabela II, apresenta uma taxa de acerto de 94,13% para a rede neural treinada com a base de dados original, e uma taxa de 94,1% para a RNM treinada com a base rotulada com o algoritmo proposto. Sendo assim, os valores exibidos s˜ao satisfat´orios considerando o problema abordado. VIII.

˜ C ONCLUS AO

Neste trabalho mostramos uma abordagem para treinamento semi-supervisionado de uma rede neural multicamadas. A rede e´ treinada utilizando os dados rotulados e em uma segunda parte do algoritmo os dados n˜ao rotulados s˜ao pr´eclassificados. Utilizando o algoritmo k-m´edias verifica-se a integridade dessa classificac¸a˜ o feita. Um experimento realizado utilizando o m´etodo proposto com a base de dados iris, verificamos que o algoritmo descrito


neste trabalho e´ capaz de rotular e treinar um classificador utilizando a abordagem de aprendizado semi-supervisionada. Pode-se observar tamb´em, a partir dos resultados, que a base de dados rotuladas, assim como a base original, e´ suficiente para treinar um classificar com capacidade de generalizac¸a˜ o satisfat´oria. Pois as taxas de acerto das redes treinadas com as duas bases obtiveram uma diferenc¸a de apenas 0,01. Como trabalhos futuros, pretende-se s aprimorar a verificac¸a˜ o dos dados corretos nos grupos gerados. Al´em disso verificar a eficiˆencia do algoritmo com outros classificadores e outros m´etodos de agrupamento e com outras bases de dados conhecidas na literatura. R EFERENCES [1] [2] [3]

[4] [5] [6] [7]

[8]

[9]

T. M. Mitchell, “Machine learning,” 1997. S. Russell and P. Norving, Artificial Intelligence: A Modern Approach, Second, Ed., 2004. A. de Pa Braga, A. P. de Leon Ferreira de Carvalho, and T. B. Ludermir, Redes Neurais Artificiais: Teoria e Aplicas, 2nd ed., LTC, Ed. Rio de Janeiro, 2007. S. Haykin, Neural Networks: A Comprehensive Foundation, 2nd ed., Bookman, Ed. Porto Alegre, 2001. J. MacQueen, Some methods for classfication and analysis of multivariate observations. University of California Press, 1967, vol. 1. G. H. A. Sousa and A. A. A. Esmin, Algoritmo de Enxame de Partlas Hido APlicado a Clusteriza de Dados, 2011. R. Bruce, “A bayesian approach to semi-supervised learning,” Proceedings of the Sixth Natural Language Processing Pacific Rim Symposium - NLPRS-2001, 2001. S. Basu, A. Banergee, and R. Mooney, “Semi-supervised clustering by seeding,” Proceedings of the 19th International Conference on Machine Learning, 2002. R. A. Fisher, “The use of multiple measurements in taxonomic problems.” pp. 179–188, 1936.


Análise da Qualidade de Vida dos Municípios Brasileiros Utilizando Integração de Dados Andressa Pereira Gonçalves da Silva1, Walter Travassos Sarinho2 1

Faculdade de Tecnologia e Ciência de Pernambuco (FATEC) Recife – Pernambuco – Brasil- Andressa.gsilva@outlook.com

2

Centro de Informática – Universidade Federal de Pernambuco (CIn-UFPE) Recife – Pernambuco – Brasil - wts@cin.ufpe.br

O termo Qualidade de Vida tem sido um dos assuntos mais

tipo de problema, é utilizado o método SAW

abordados neste século. A qualidade de vida pode ser

(Simple Additive Weigthing) para classificar a

definida como um termo associado as condições de vida de um ser humano. Para mensurar a qualidade de vida, este

qualidade de vida de cada município. Na última

trabalho irá realizar uma investigação acerca dos

etapa é efetuada uma comparação entre os escores

indicadores de qualidade de vida dos municípios de

encontrados na avaliação de qualidade deste

Pernambuco. Primeiro será realizada uma integração de

trabalho

dados (materializada) dos indicadores de qualidade dos municípios, em seguida, será utilizado um método de

com

dados

do

Índice

de

Desenvolvimento Humano Municipal (IDHM)

decisão por múltiplos atributos (SAW) para gerar um

com o objetivo de validar a classificação

ranking utilizando os dados materializados, para assim,

proposta, como também tentar descobrir os

fazer uma análise comparativa com os dados do Índice de

fatores de maior influência na avaliação de

Desenvolvimento

Humano

dos

Municípios.

Assim,

pretende-se verificar o quanto o ranking produzido por este trabalho se assemelha ao IDHM.

I. INTRODUÇÃO E MOTIVAÇÃO

qualidade de vida. Além desta seção, o artigo está organizado como segue: a seção II apresenta o referencial teórico, a seção III descreve a amostragem dos

O termo qualidade de vida (life quality) tem sido mencionado mais frequentemente pela sociedade. Existe um consenso em dizer que qualidade de vida é algo bom, mesmo que não se saiba exatamente o que esta expressão significa

dados e mostra o método utilizado para calcular a qualidade de vida, a seção IV demonstra os trabalhos relacionados, seguindo pela seção V onde são apresentados as conclusões e trabalhos futuros.

(ALMEIDA, 2012). As pessoas estão percebendo II. FUNDAMENTAÇÃO TEÓRICA

que qualidade de vida significa viver bem e não pode ser encarado como algo passageiro. Neste contexto, este artigo propõe uma investigação sobre os dados disponíveis em sites na Web sobre a qualidade de vida dos municípios brasileiros com o objetivo de gerar uma classificação ordenada da qualidade de vida. Para este fim, será criada uma visão integrada da informação por meio de uma matriz de fatores de qualidade de vida por município. Esta matriz formaliza um problema de decisão por múltiplos atribuídos. Entre os métodos para solução deste

O termo qualidade de vida foi criado em 1958 pelo

economista

Jonh

Kenneth

Galbraith.

Segundo ele as metas socioeconômicas não deveriam estar ligadas somente em termos de crescimento quantitativo econômico e aumento da renda pessoal, mas também deveriam estar direcionadas a melhorias nas condições de vida da população (ARAÚJO, 2014). É possível mensurar a qualidade de vida de diferentes formas. Para este trabalho, destaca-se a utilização de indicadores de qualidade de vida.


Os indicadores de qualidade de vida são

Criminalidade: As principais formas de

instrumentos de medida, de fácil compreensão e

Crime Violento Letal e Intencional (CVLI) reúne

aceitação

da

dados de homicídio doloso, roubo seguido de

qualidade de vida da população. É possível

morte (latrocínio) e lesão corporal seguido de

encontrar mudanças positivas ou negativas nesses

morte, segundo o Critério adotado pela Secretaria

aspectos. Esta análise visa investigar quais áreas

Nacional de Segurança Pública do Ministério da

necessitam

investimentos

Justiça (SENASP/MJ). A taxa de CVLI resulta do

(ZAHLER, 2014). Entre os indicadores de

quociente entre o número de vítimas de CVLI e a

qualidade de vida selecionados, destacam-se:

população residente total de uma localidade

para

avaliar

maior

certos

atenção

e

aspectos

Saúde: Aqui foram consideradas as taxas de

multiplicada por cem mil (BDE, 2014).

mortalidade infantil e expectativa de vida ao

Diferentes indicadores de qualidade estão

nascer. Expectativa ou esperança de vida ao

disponíveis na Web. Como alguns indicadores

nascer indicam uma média de quantos anos um

estão disponibilizados em fontes de dados (sites)

determinado grupo de pessoas nascidas no mesmo

diferentes, será realizada uma integração de dados

ano pode viver (IBGE, 2014). A mortalidade

para gerar uma tabela única contendo escores de

infantil é um indicador que avalia o número de

indicadores de qualidade de vida por município.

óbitos de crianças com menos de um ano, a cada mil nascidos vivos.

A integração de dados possibilita o acesso do usuário a uma quantidade maior de fontes de

Economia: São utilizados o Produto Interno

dados. Ela pode isentar o usuário de conhecer

Bruto Municipal (PIBM) e a renda per capita

detalhes sobre diversas fontes de dados para

serão considerados neste artigo. Eles mensuram o

conseguir a informação que procura. Em geral, a

nível de desenvolvimento econômico de uma

integração de dados é executada sob duas

determinada localidade. O PIB é equivalente à

abordagens

soma dos valores adicionados pelas diversas

materializada (BATISTA e SALGADO, 2013).

atividades econômicas acrescidas dos impostos líquidos de subsídios sobre produtos (IBGE, 2014). A renda per capita é um indicador que ajuda a mensurar o grau de desenvolvimento de uma determinada localidade pelo número de habitantes (PINHONI, 2014). utilizadas

abordagem

a

virtual

virtualizada

permite

e

que

a

as

informações sejam requisitadas diretamente da fonte

dados,

enquanto

na

abordagem

materializada as informações são armazenadas em um repositório central. Neste trabalho, é utilizada a abordagem materializada. O passo

de

seguinte é usar um método de decisão por

Abandono Escolar e pelo Índice de Alunos

múltiplos atributos para gerar um ranking entre os

Matriculados. O primeiro é a proporção de alunos

municípios.

Educação:

São

A

principais:

a

Taxa

que abandonam a escola em relação ao total de alunos matriculados no final do ano letivo (BDE, 2014). O segundo é o índice de alunos matriculados e concluintes do ensino superior (BDE, 2014).

O método de Ponderação Aditiva Simples (SAW) é utilizado quando existe um grande número de atributos e não existe exigência de muita precisão nos resultados solicitados pelo


usuário

(GUERRA,

2014).

Os

resultados

encontrados pelo SAW geralmente são próximos aos obtidos por meio de outros métodos de tomada de decisão por múltiplos atributos mais sofisticados. O SAW possui uma etapa de normalização dos dados. A normalização realiza uma transformação linear proporcional entre os

Brasileiro de Geografia e Estatísticas (IBGE) e no Banco de Dados do Estado (BDE). Os dados com o IDHM para os dez municípios estão dispostos na Tabela 1. Recife, seguido por Olinda, se destacam com os maiores IDHM. Ipojuca e Toritama se destacam pelos menores valores.

dados originais. Isso significa que a ordem dos MUNICÍPIO

IDHM

Cabo de Santo Agostinho

0,686

Caruaru

0,677

de qualidade de vida coletados para cada

Garanhuns

0,664

município. O método irá gerar os escores

Goiana

0,651

utilizados para classificar cada município no

Ipojuca

0,619

ranking de qualidade de vida. Estes escores serão

Olinda

0,735

Petrolina

0,697

Recife

0,772

São Lourenço da Mata

0,653

Toritama

0,618

valores na matriz normalizada permanecerá igual. O método SAW será aplicado nos indicadores

comparados com os números relatados pelo IDHM (normalizado). O IDHM é um numero que varia entre o 0 (zero) e 1 (um). Quanto mais próximo de 1, maior o desenvolvimento humano do município (BDE, 2014). Para análise da avaliação da qualidade de vida dos municípios foram coletados dados sobre diversos indicadores de qualidade de vida. Especificamente, para montar este estudo de caso foram coletados dados de 10 municípios do estado de Pernambuco, dentre eles: Recife, Olinda, Petrolina, Cabo de Santo Agostinho, Caruaru, Garanhuns, São Lourenço da Mata, Goiana, Ipojuca e Toritama. Estes municípios estão situados em diversas regiões do estado e possuem uma grande importância cultural e econômica. Eles são destaque nas áreas de turismo, comércio e indústria. III. AVALIAÇÃO DA QUALIDADE DE VIDA.

Tabela 1 – IDHM dos Municípios

A resolução de um problema de decisão por múltiplos atributos utilizando o SAW divide-se em dois passos: 1

Uniformizar os valores apresentados para torná-los compatíveis;

Normalizar dados significa alterar estes dados para que possam ficar numa mesma base para uma melhor avaliação. Em seguida é necessário identificar quais indicadores representam um critério de custo ou de qualidade. Os valores dos indicadores de criminalidade, mortalidade e taxa de abandono devem ser tão próximos de zero quanto possível para indicar uma situação ideal. Assim, eles são critérios de custo (ou negativos). Já para indicadores como, IDHM, expectativa de vida ao nascer, PIB municipal, renda per capita e concluintes do

Os dados sobre os indicadores de qualidade de

ensino superior, são desejável valores próximos

vida foram coletados no site do Instituto

de 1, indicando que quanto maior for esse escore,


melhor é a situação. Assim, estes indicadores são

Petrolina

1

considerados como critérios de qualidade (ou

Garanhuns

0,913666721

positivos). Para exemplificar, será utilizada a taxa

São Lourenço da Mata

0,852581854

de CVLI. A Tabela 2 apresenta os dados.

Olinda

0,846554813

Recife

0,784818374

Caruaru

0,763153608

Goiana

0,599446164

TAXA DE CVLI MUNICÍPIO

(Em 100 mil habitantes)

Cabo de Santo Agostinho

86,45

Ipojuca

0,511972634

Toritama

66,41

Toritama

0,326437531

Ipojuca

55,02

Cabo de Santo Agostinho

Goiana

49,65

Caruaru

39,6

Recife

38,27

Olinda

34,48

São Lourenço da Mata

34,11

Garanhuns

30,36

Petrolina

25,06

Tabela 3 – Taxa de CVLI Normalizados

2

Atribuição de pesos e soma dos valores dos indicadores participantes da avaliação já normalizados;

Para

cada

indicador

normalizado

será

atribuído um peso. Para facilitar o cálculo da qualidade de vida, a soma total dos pesos de

Tabela 2 – Taxa de CVLI

Para normalizar este indicador será utilizada a fórmula para critérios negativos. 

0

todos os indicadores será igual a 1 (100%). Então os 100% serão distribuídos entre os 4 indicadores (criminalidade, educação, saúde e economia),

Critérios Negativos

logo, cada indicador terá peso igual a 0,25 (25%). Após a aplicação dos pesos aos escores normalizados, o último passo é a soma dos

O max identifica o maior valor do CVLI deste

escores de cada indicador.

grupo de municípios. O min indica o menor valor ⟦∑

deste indicador. E por fim o ij será o valor do escore do município que se deseja normalizar. Exemplificando indicadores

positivos

a

normalização

para

educação,

) ⟧

Esse passo é aplicado a cada um dos de

municípios. E assim, será gerado o escore de

será

qualidade de vida para cada município. A partir

utilizada a fórmula de Critérios Positivos: 

(

desta medida única, é possível obter o ranking de qualidade de vida. A Tabela 4 mostra o resultado

Critérios Positivos

encontrado utilizando o processo descrito neste artigo.

A

Tabela

5

apresenta

o

ranking

comparativo do IDHM. A Tabela 3 apresentam os dados de CVLI normalizados. TAXA DE CVLI MUNICÍPIO

(Em 100 mil habitantes)

MUNICIPIO

Ranking_R

Resultado

Cabo de Santo Agostinho

0,448070457

Caruaru

0,563001337

Garanhuns

0,546732522

Goiana

0,412937039


qualidade de vida seja o município com o menor

Ipojuca

10ª

0,253283887

Olinda

0,742007522

índice de criminalidade, então a alteração nos

Petrolina

0,625421487

pesos resultaria em diferenças na classificação

Recife

0,899734977

apresentada.

São Lourenço da Mata

0,421285741

Toritama

0,321401232

Tabela 4 –Ranking do Resultado Obtido

IV. TRABALHOS RELACIONADOS O trabalho de Fária et al., (2014) demonstra um modelo que simula e aperfeiçoa uma rede de

MUNICIPIO

RankingIDHM

Resultado

Cabo de Santo Agostinho

0,042290482

Caruaru

0,024624162

Garanhuns

0,002489431

Goiana

0,03723659

Ipojuca

0,056506079

Olinda

0,051056891

Petrolina

0,25

água dos reservatórios, este trabalho utilizou-se

Recife

0,001557021

municípios para demonstrar qual tem melhor

São Lourenço da Mata

0,01723432

qualidade de vida.

Toritama

10ª

0

Tabela 5 –Ranking do IDHM

V. RESULTADOS

fluxo utilizando uma ferramenta para tomada de decisão.

Este

modelo

simula

10

cenários

diferentes para gerenciar a água do reservatório de França e São José do Jacuípe (FARIA 2014). Como Faria, que utilizou 10 cenários para analisar qual a melhor maneira de gerenciar a

O trabalho de Guerra (2014) demonstra um estudo de caso também utiliza indicadores de qualidade de

maneira quantitativa, com a

Alguns resultados gerados pela avaliação da

finalidade de demonstrar a validade dos conceitos

qualidade de vida divergiram dos resultados do

estabelecidos por Goal – Question – Metric

IDHM. Por exemplo, os escores de qualidade de

(GQM) utilizando o método de Ponderação

vida encontrados para os municípios de Toritama

Aditiva Simples em um exemplo prático de

e Ipojuca ocuparam as posições 9ª e 10ª,

avaliação da qualidade dos dados em um

respectivamente, no ranking dos resultados

ambiente de negócio (GUERRA, 2014). Guerra

obtidos neste trabalho. Enquanto que no ranking

utilizou o método de decisão SAW para validade

IDHM Ipojuca ocupa a 9ª posição e Toritama a

suas teorias utilizando indicadores, assim como

10ª posição. Recife e Olinda permanecem com as

foi utilizado neste artigo.

mesmas posições nos dois rankings.

V. CONSIDERAÇÕES FINAIS

A diferença entre os valores pode ser

Como trabalhos futuros destaca-se a criação

justificada pelo fato da avaliação proposta utilizar

de um repositório de dados materializados com as

o indicador de qualidade criminalidade, que não é

informações dos municípios brasileiros contendo

utilizado na formação do IDHM. Resultados

indicadores de diferentes fontes. O objetivo é

diferentes podem ser facilmente encontrados

criar uma aplicação Web que permite o usuário

utilizando-se apenas mais (ou menos) indicadores

calibrar os pesos dos indicadores de qualidade de

de qualidade e / ou considerando pesos diferentes

vida de acordo com suas preferencias.

entre eles, ou seja, caso a preferencia pela


Este trabalho apresentou um estudo sobre qualidade de vida e integração de dados. O objetivo foi analisar a qualidade de vida dos municípios brasileiros utilizando integração de dados e montar uma tabela contendo indicadores de qualidade de vida para gerar uma medida de qualidade de vida utilizando o método de tomada

acaogeral/conteudo_site2.aspx>. Acesso em 16 de Fevereiro de 2014. (BETTI, 2014) BETTI, M. Esporte e sociologia. Revista Motrivivência. Jun. 1989. Disponível em:<https://periodicos.ufsc.br/index.php/motriviv encia/article/view/19979/18383>. Acesso em 29 de Abril de 2014.

de decisão por múltiplos atributos – SAW. Os experimentos

mostraram

que

os

resultados

encontrados são próximos ao IDHM. Apesar de algumas divergências, justificadas pela utilização do indicador criminalidade, a avaliação proposta pode ser calibrada gerando uma avaliação da qualidade de vida próxima as preferências de um

(FARIA, 2014) FARIA, A. da S. et al. Modelo de Redes de Fluxo e Análise Multi-Criterial – Uma Aplicação à gestão de recursos hídricos na Bacia do

rio

Paraguaçu.

Disponível

em:<http://polj.uns.ac.rs/english/people/download /86_MACEIO2002.pdf>. Acesso em 29 de Abril de 2014.

usuário.

(GUERRA, 2014) GUERRA, W. Controle de

REFERÊNCIAS

Qualidade em Sistemas de Data Warehousing: (ALMEIDA, 2012). ALMEIDA, M. A. B., GUITIERREZ, G. L. e MARQUES, R. Qualidade de Vida. Edições EACH: São Paulo, 2012. Disponívelem:<http://each.uspnet.usp.br/edicoese

Estudo

de

Caso.

Disponível

em:

<http://www.incor.usp.br/spdweb/prodcient_eng/f ilesTrabalhos2006/CBIS2006RS.pdf>. Acesso em 17 de Março de 2014.

ach/qualidade_vida.pdf>. Acesso em 13 de (IBGE, 2014) Instituto Brasileiro de Geografia e

Fevereiro de 2014.

Estatísticas(IBGE). Disponível em: <http://www. (ARAÚJO, 2014) ARAÚJO, L. Padrão de Vida x Qualidade de Vida. Ago. 2013. Disponível

ibge.gov.br/>. Acesso em 16 de Fevereiro de 2014.

em:<http://laudimioaraujo.blogspot.com.br/2013_ 08_01_archive.html >. Acesso em Acesso em 14

(PINHONI, 2014) PINHONI, M. As cidades do Brasil onde as pessoas têm maior renda. Revista

de Janeiro de 2014.

Exame.com.Out.2013.Disponível (BATISTA e SALGADO, 2013) BATISTA, M. da C. e SALGADO, A. C. Usando Critérios de Qualidade para Materialização Seletiva de Dados.

em:<http://exame.abril.com.br/brasil/noticias/ascidades-onde-as-pessoas-tem-renda-mais-alta-nobrasil#1>. Acesso em 15 de Março de 2014.

Centro de Informática. Universidade Federal de Pernambuco.

Disponível

em:<

http://www.lbd.dcc.ufmg.br/colecoes/sbbd/2003/p aper006.pdf>. Acesso em Acesso em 05 de Janeiro de 2014.

(ZAHLER, 2014) ZAHLER, P. J. Z. Os indicadores de Qualidade de Vida. Jan.2007. Disponível em: <http://grupocurrupiao.blogspot. com.br/2007/01/os-indicadores-de-qualidade-devida.html>. Acesso em 15 de Janeiro de 2014.

(BDE, 2014) Base de Dados do Estado (BDE). Disponívelem:<http://www.bde.pe.gov.br/estrutur


Mineração de Dados Abertos Raimundo de Acacio Leonel Junior

João Holanda Freires Junior

Tércio Jorge da Silva

Universidade Federal do Ceará Quixadá, Ceará, Brasil Junior.hpj@hotmail.com

Universidade Federal do Ceará Quixadá, Ceará, Brasil holanda.junior0160@gmail.com

Universidade Federal do Ceará Quixadá, Ceará, Brasil terciojorge@gmail.com

Ticiana Linhares Coelho da Silva

Regis Pires Magalhães

Universidade Federal do Ceará Quixadá, Ceará, Brasil ticianalc@gmail.com

Universidade Federal do Ceará Quixadá, Ceará, Brasil regispiresmag@gmail.com

Abstract—Data mining has been increasingly used in the discovery of knowledge from large volumes of data through various techniques and tools. The mining of open data allows us to monitor programs, activities, projects and works in order to achieve new indicators that facilitate decision making, access to information and increase of transparency in public administration. A case study is presented in this chapter to show how data mining can be effectively used to extract knowledge from open data. Index Terms—Data Mining, Open Data, Data Management. Resumo—Mineração de dados tem sido cada vez mais usada na descoberta de conhecimento a partir de grandes volumes de dados através de variadas técnicas e ferramentas. A mineração de dados abertos permite o monitoramento de programas, ações, projetos e obras, possibilitando a geração de indicadores que facilitam a tomada de decisão, o acesso à informação e a ampliação da transparência da gestão pública. Um estudo de caso é apresentado neste trabalho para mostrar de forma concreta como a mineração de dados pode ser efetivamente usada para extrair conhecimentos a partir de dados abertos. Palavras chave—Mineração de Dados, Dados abertos, Gerenciamento de Dados.

I. INTRODUÇÃO Nas duas últimas décadas, o aumento contínuo do poder computacional tem produzido um fluxo enorme de dados [Ji et al. 2012]. A cada dia, 2,5 quintilhões de bytes de dados são criados e 90% dos dados no mundo hoje foram produzidos nos últimos dois anos [Wu et al. 2013]. Sistemas corporativos, serviços e sistemas Web, redes sociais, transações financeiras, e-commerce entre outros, produzem juntos um grande volume de dados, alcançando a escala de petabytes diários. Estes exemplos exigem armazenamento eficiente, além da necessidade de extrair conhecimento por meio de análises que auxiliem no processo de tomada de decisão, por exemplo. Mineração de dados (em inglês, data mining) é um conjunto de técnicas usadas para analisar grandes quantidades de dados para encontrar um padrão consistente, sumarizar os dados, extrair conhecimento ou realizar predições. Um grande e importante serviço oferecido na Internet é a disponibilidade de dados sobre órgãos governamentais, a fim de proporcionar uma transparência sobre seus serviços ao público em geral. Por exemplo, os dados disponibilizados pelo

TCM-CE (Tribunal de Contas dos Municípios do Ceará) que visa informar aos cidadãos de que forma é gasto o dinheiro público, para que os mesmos possam ser atuantes na fiscalização do trabalho exercido por seus gestores. Os dados governamentais são um dos tipos de dados abertos disponíveis na web. Dados abertos são dados legíveis por máquina e estão disponíveis livremente de modo que qualquer pessoa possa usá-los, reutilizá-los e redistribuí-los, tendo a exigência apenas de creditar a sua autoria e compartilhar pela mesma licença [Open Knowledge Foundation 2004]. A construção de sistemas, que manipulam e divulgam o conhecimento obtido a partir dos dados abertos, é capaz de propiciar o acesso à comunidade e ampliar a transparência da informação. A expectativa de desenvolver aplicações de análise que manipulam dados abertos governamentais tem como principais objetivos: monitorar os programas, ações, projetos e obras, gerar novos indicadores de informação que facilitem a tomada de decisão, o acesso à informação e a transparência da gestão pública. Além disso, a construção de tais ferramentas é um ato de exercício de cidadania, devido a possibilidade de colaborar na formação de uma sociedade mais consciente do que acontece no seu país. Com esta motivação, este trabalho realizou análise em dados abertos via Mineração de Dados. O estudo de caso apresentado utiliza como base de dados abertos a do Exame Nacional do Ensino Médio (ENEM) do ano de 2011. Nesses dados foram aplicadas técnicas de mineração de dados para descobrir o perfil dos alunos que prestam o exame, além de procurar alguns fatores que podem influenciar ou não no desempenho dos alunos, como por exemplo, a escolaridade dos pais ou se o aluno mora em zona urbana ou rural. O objetivo é entender melhor os perfis dos inscritos no ENEM. Este trabalho está organizado da seguinte forma: A Seção II trata da importância e dos desafios do processo de extrair conhecimento a partir de dados abertos. A Seção III apresenta os principais trabalhos relacionados a este. A seção IV apresenta um estudo de caso relacionado à mineração de dados abertos, na seção V são apresentados os resultados do estudo de caso. Finalmente, a seção VI apresenta a conclusão.


II. IMPORTÂNCIA E DESAFIOS DO PROCESSO DE EXTRAIR CONHECIMENTO EM DADOS ABERTOS Não são todos os dados disponíveis na Web que estão em forma legível a qualquer usuário da Internet. Alguns dados somente podem ser visualizados de forma mais fácil e eficiente pelos profissionais da área de Tecnologia da Informação (TI), pois os mesmos já possuem uma visão mais apurada sobre o potencial conhecimento que pode ser extraído dessas bases de dados. No entanto, alguns desafios são encontrados no decorrer do desenvolvimento de sistemas que analisam dados abertos. Tais desafios se apresentam principalmente nas etapas de Seleção, Pré-processamento e Formatação do processo de KDD (KNOWLEDGE DISCOVER IN DATABASES) (FAYYAD, 1996), como por exemplo, a dificuldade na manipulação de dados heterogêneos e incompletos, além de os dados abertos não possuírem um padrão comum de divulgação. Dessa forma, o processo de análise desses dados é dificultada, bem como a junção de informações de diferentes bases para obtenção do conhecimento. Esses e outros desafios foram encontrados no desenvolvimento dos trabalhos de extração de conhecimento através da mineração de dados propostos no decorrer da disciplina de Tópicos Avançados de Banco de Dados na Universidade Federal do Ceará, no Campus de Quixadá. Um dos trabalhos desenvolvidos utilizou a base de dados do Exame Nacional do Ensino Médio (ENEM) de 2011 e o objetivo do trabalho foi analisar esses dados via mineração de dados, na tentativa de encontrar o perfil dos candidatos, baseados em algumas características socio-econômicas e nas notas obtidas no exame. O resultado do trabalho será apresentado como estudo de caso na seção IV. Analisar dados abertos é uma atividade que não é fácil e que ainda é pouco difundida, apesar da crescente importância na promoção da transparência pública. Na próxima seção, serão apresentados os principais trabalhos relacionados. III. TRABALHOS RELACIONADOS A seguir serão apresentados os trabalhos que foram usados como base para a criação desse estudo, uma breve descrição de cada, acompanhado das semelhanças e diferenças para este trabalho. No trabalho Kabakchieva et al (2012), foram utilizados dados dos alunos, referentes ao período da faculdade e ensino médio. Mais de 20 (vinte) atributos foram avaliados, incluindo: data de nascimento e lugar, local de nascimento e nacionalidade, tipo, perfil, colocação e pontuação total no ensino médio, ano de admissão na universidade, exame e pontuação obtida, semestre atual, pontuação total na universidade. Por meio da aplicação de técnicas de mineração de dados, foi possível classificar os alunos em grupos de acordo com o desempenho – ruim, mediano, bom, muito bom e excelente. O trabalho de Kabakchieva et al (2012) assemelha-se a este trabalho na análise de dados dos alunos, com base nos

atributos, encontrando padrões que podem classificar os alunos em grupos de acordo com o desempenho dos mesmos. Porém se diferencia do trabalho proposto, por possuir dados dos alunos de alunos de ensino superior, enquanto este trabalho usa uma base de dados dos alunos que prestaram o Exame Nacional do Ensino Médio(Enem). Outra diferença é a técnica de mineração de dados escolhida para ser aplicada nos dados, no trabalho de Kabakchieva et al (2012) foi utilizada a classificação, que é um método preditivo, que tenta encontrar um padrão para um atributo que foi definido como classe. Em Silva et al (2012), foi usada a base de dados do Enem de 2010, do qual foi retirada uma amostra somente dos estudantes da região Sul do Brasil. Os quesitos levados em consideração foram: o desempenho do aluno, e alguns fatores socioeconômicos, tais como, grau de instrução dos pais, acesso à internet e o tipo de escola no ensino médio – pública ou particular. O resultado do estudo foi capaz de estabelecer correlações sobre o desempenho dos estudantes. Por exemplo, se o estudante não tem internet e estuda em escola pública, provavelmente ele terá um resultado insatisfatório na prova do Enem. A semelhança deste trabalho se deve ao uso da técnica de clusterização, que foi aplicada aos dados dos alunos que prestaram o Exame Nacional do Ensino Médio (Enem), e que também deve ser aplicada neste estudo. As diferenças são principalmente quantidade de dados utilizados, em Silva et al (2012) foi utilizada somente os dados referentes aos alunos da região sul do Brasil, enquanto neste trabalho foram analisados os dados de todos os alunos que prestaram o Exame Nacional do Ensino Médio(Enem). Além disso, os dados utilizados neste trabalho são mais recentes, dos alunos que prestaram o exame em 2011. Fora isso, durante a análise dos dados, outras técnicas de mineração de dados foram utilizadas com o intuito de conseguir melhores resultados, foram elas: classificação e regras de associação. Regras de Associação tem como princípio descobrir elementos que implicam no aparecimento de outros nos dados, ou seja, encontrar relacionamento/padrões no conjunto de dados. Outra diferença é a base de dados escolhida, neste trabalho é usada a base de dados dos alunos da Universidade Federal do Ceará. IV. ESTUDO DE CASO Esta seção apresenta o estudo de caso de análise dos dados abertos referentes à base de dados do Exame Nacional do Ensino Médio (ENEM) do ano de 2011, disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira - INEP 5.1 Descrição do estudo de caso O objetivo deste estudo de caso consiste em aplicar mineração de dados na tentativa de descobrir o perfil dos inscritos. Para atingir tal objetivo, a técnica de clusterização foi utilizada. Um dos objetivos era descobrir quais elementos impactam na nota final dos inscritos que realizaram o ENEM ou que resultados poderiam responder tais indagações:  Inscritos de zona urbana costumam alcançar melhores resultados no ENEM?


  

Será que inscritos de alta renda familiar são favoritos à melhores resultados? Inscritos que são de baixa renda e estudam em escola pública não atingirão bons resultados no ENEM?

pontos no exame. 5.3 Metodologia Esta subseção apresenta os passos da metodologia usada neste estudo de caso.

Quais fatores impactam substancialmente no desempenho do inscrito?

5.2 Descrição dos dados A base de dados contem informações sobre os inscritos no exame, dados das escolas dos mesmos, do município de aplicação da prova, além de informação sobre a nota obtida na prova objetiva e da redação de cada inscrito, bem como informações do formulário sócio- econômico que foi respondido por cada inscrito no ENEM 2011. Essa base é composta por cerca de 3.500.000 (três milhões e quinhentos mil) registros disponibilizados em arquivo texto com tamanho aproximado de 6 GB. Porém o computador e a ferramenta utilizada no estudo não possuíram poder de processamento necessário para a executar essa quantidade de dados, portanto, para o estudo proposto foi selecionada uma amostra desses dados, dos mais de 3 milhões de registros existentes foram retirados 400 mil para a aplicação do algoritmo de clusterização. A base de dados do ENEM possui um total de 75 questões socio-economicas, destas foram selecionadas 5 para este estudo de caso. Na Tabela 1 são listadas as questões selecionadas, bem como a distribuição das respostas dos inscritos de cada questão. TABELA 1 DIVISÃO DE RESPOSTAS PARA AS PERGUNTAS SELECIONADAS.

Ao analisar os dados percebe-se que a maioria (cerca de 73,53%) dos inscritos possuem acesso à internet. Ao que se refere a escolaridade dos pais, pouco mais da metade cursaram no máximo o ensino fundamental, enquanto 28,82% cursaram o ensino médio e apenas 16,47% dos pais cursaram o nível superior. Quanto à renda familiar, a maioria dos inscritos, cerca de 70,5%, possuem renda inferior a dois salários mínimos. Pode ser notado também que grande parte dos inscritos vivem na zona urbana, aproximadamente 94,6%, e que estudam em escola pública, cerca de 91,25%. No que se diz respeito a nota, pode ser destacado que a maioria tiraram notas regulares ou ruins, e que somente 2,35% tiraram notas maiores que 700

Figura 1. Passos da Metodologia utilizada no Estudo de Caso

5.3.1 Seleção dos dados Conforme metodologia representada pelo diagrama na Figura 1.6, o primeiro passo foi utilizar o software “TextMaster Split & Join” para selecionar dentre os mais de 3.500.000 (três milhões e quinhentos mil) registros, apenas 400.000 (quatrocentos mil) registros (utilizados no estudo de caso). As notas dos inscritos e as 5 questões(apresentadas na Tabela 2) dentro das 75 existentes no formulário socioeconômico foram extraídas dos registros escolhidos do passo anterior, para tal, foi necessário desenvolver uma aplicação na linguagem C++ e que utiliza o framework Qt para realizar essa seleção. A aplicação desenvolvida retirava apenas as informações que seriam necessárias do arquivo original (6 GB) e adicionava tais informações em outro que no fim do processo chegou a 5,2 MB. 5.3.2 Pré-processamento Na fase de pré-processamento foi onde os dados foram discretizados para que se adequassem ao algoritmo de mineração. Isso foi realizado pela mesma aplicação da fase de seleção. Além disso, pesos aos valores das possíveis respostas do questionário socio-economico foram atribuídos, a fim de que respostas com maior peso sejam mais representativas ao resultado a ser obtido que as outras. A discretização dos dados, as respostas do arquivo original e os pesos que foram atribuídos aos atributos são mostrados na Tabela 1.2. TABELA 2 DIVISÃO DE RESPOSTAS PARA AS PERGUNTAS SELECIONADAS. QUESTÃO

RESPOSTAS ORIGINAIS

DEPOIS DO PRÉPROCESSAMENTO/ PESO ATRIBUIDO

Você tem em sua casa?

A-1

A, B, C = 3

Acesso à Internet

B-2

D=1


vetores precisam ser de inteiros, houve a necessidade de discretizar e dar pesos aos dados, conforme explicado na fase de pré-processamento anteriormente.

C - 3 ou mais D - Não tenho Até quando seu pai estudou?

A - Não estudou;

A, B, C, I = 1

B - Da 1ª à 4ª série do D, E = 3 Ensino Fundamental F, G, H = 5 (antigo primário); C - Da 5ª à 8ª série do Ensino Fundamental (antigo ginásio); D - Ensino (antigo 2º incompleto;

Médio grau)

V. ANÁLISE GERAL DOS RESULTADOS A aplicação do algoritmo de clusterização alocou os dados em diversos agrupamentos (clusters), especificamente oito, de acordo com as características presentes nos dados disponibilizados, tais como: a renda familiar do inscrito, escolaridade do pai do inscrito, zona onde o inscrito vive, se possui internet em casa e o tipo de escola onde o inscrito estudou (particular ou pública). Os agrupamentos encontrados são apresentados na Figura 2.

E - Ensino Médio (antigo 2º grau); F - Ensino Superior incompleto; G - Ensino Superior; H - Pós-graduação; I - Não sei; Quanto é, A,B,C, D = Renda A,B,C,D = 1 aproximadamente, a renda Baixa E,F,G,H = 3 familiar mensal? E,F,G,H = Renda média I, j, k = 5 I,J,K = Renda Alta Sua casa está localizada em?

A - Zona rural.

A, C, D = 1

B - Zona urbana

B-3

C Comunidade indígena. D Comunidade quilombola. Tipo de escola?

A - Federal

A, B, C = 1

B - Estadual

D=3

C - municipal. D - Privada Nota

0 - 100

0 - 20

5.3.3 Mineração de dados Nessa fase, o algoritmo de mineração de dados é aplicado. A ferramenta RapidMiner - 5 foi utilizada, tal ferramenta possui uma interface amigável ao usuário. Primeiramente, foi importado o arquivo no formato .csv e em seguida foi aplicado o algortimo X-means, que é uma variação do k-means [MacQueen 1967]. Tal versão foi utilizada porque, diferentemente do k-means, não é necessário escolher a quantidade de clusters, pois o próprio algoritmo aplica várias vezes o k-means até achar a quantidade de clusters ideal. Outro ponto a se destacar é que foi utilizado um algoritmo de similaridade que implementa a distância cosseno, uma medida de similaridade entre dois vetores que mede o ângulo cosseno entre eles e tal ângulo resultante denota o quão similares esses vetores são. Contudo, os vetores contêm informações referentes às características do inscrito. Porém, como esses

Figura 2 - Agrupamentos encontrados

O gráfico presente na Figura 3 demonstra a relação das notas considerando a renda do inscrito, sendo o primeiro resultado obtido no nosso processamento de dados. Os aglomerados superior, intermediário e inferior são referentes aos inscritos no ENEM com alta, média e baixa renda, respectivamente. Cada cluster é identificado com uma cor que classifica o inscrito quanto à zona em que reside (rural/urbana), acesso a internet e escolaridade do pai, por exemplo, conforme Figura 2. A proporção de alunos alocados nas faixas de alta e média renda que obtiveram melhores notas é maior, comparando com as demais categorias. Outro ponto a se notar é que poucos alunos que possuem renda alta obtiveram notas muito baixas no exame, porém a concentração é alta de alunos com baixa renda que obtiveram notas muito baixas. O primeiro resultado obtido em nosso processamento de dados foi a relação das notas em consideração a renda do inscrito. De acordo com a Figura 3, é possível perceber que a renda, mesmo sendo um fator importante, não é um ponto determinante no desempenho do inscrito no ENEM, pois consta-se a similaridade das notas entre inscritos de Alta, Média e Baixa renda. Contudo, como foi exposto, a proporção de inscritos agrupados como Alta e Média renda que obtiveram melhores notas é maior, comparado às categorias restantes. Outro ponto a se notar é que poucos inscritos que possuem renda alta obtiveram notas muito baixas no exame, porém a concentração de inscritos com baixa renda e que tiraram notas baixíssimas no ENEM é alta.


Figura 3 - Resultado do processamento de Notas x Renda

Na Figura 4, apresentamos o resultado entre a relação de notas com o tipo de escola em que o inscrito estudou, classificada como particular ou pública. Semelhante ao primeiro resultado, conforme a Figura 3 apresentada, a escola pode ajudar no desempenho geral do inscrito, porém não é um fator decisivo em seu resultado. Como podemos observar, o aglomerado superior, indicando inscritos de escola particular, é semelhante ao aglomerado inferior, no que diz respeito a um bom desempenho no ENEM, apontando que independe o inscrito ser de escola pública ou particular. Porém, é notável que inscritos de escola pública pode tender a alcançar resultados inferiores em geral, conforme apresentado na Figura 1.5

Figura 5 - Resultado do processamento de Notas x Localização da Residência (urbana ou rural).

Outro ponto importante analisado no presente trabalho foi a relação das notas com base na escolaridade do pai. Percebemos, conforme a Figura 6, que uma boa base educacional familiar pode influenciar o desempenho do inscrito no ENEM. Tal fato pode ser explicado e é esperado, pela valorização da formação educacional dos filhos, pelos pais que tem mais alta escolaridade. Contudo, claramente não pode ser definido como um ponto decisivo para que o inscrito atinja bons resultados.

Figura 6 - Resultado do processamento de Notas x Escolaridade do pai

Figura 1.5 - Resultado do processamento de Notas x Escola

Como esperado, a localidade onde o inscrito reside, rural ou urbana, pode ser um fator crucial para o bom desempenho do inscrito no ENEM. Tal situação deve-se às melhores possibilidades e recursos disponíveis à inscritos de zona urbana, pois há escolas de melhores estruturas, internet de mais fácil acesso e de melhor qualidade, maior qualidade no transporte público e melhores bibliotecas públicas disponíveis, por exemplo. O resultado desta análise é mostrado conforme a Figura 5.

A internet, independente do seu uso, seja para pesquisas e estudos, resolver assuntos pessoais ou facilitar a comunicação entre pessoas separadas geograficamente, tornou-se um recurso essencial para qualquer usuário. Na Figura 7, mostramos o resultado do processamento da relação entre notas e se possui internet ou não.

Figura 7 - Resultado do processamento de Notas x Internet

De acordo com a Figura 7, o aglomerado superior, representando inscritos que possuem internet, mostra que tal recurso pode propiciar ao inscrito resultados mais satisfatórios no ENEM, já que a área de alunos com notas altas é mais


densa

no aglomerado superior. Por último em nossa análise, mostramos o relacionamento da nota entre cada cluster gerado, conforme Figura 8. Um fato interessante nesse último resultado a ser observado é a disparidade entre os clusters que estão mais a direita e aos que estão mais a esquerda. Podemos notar que os aglomerados mais a esquerda, representando inscritos com notas inferiores, denotam inscritos que, comumente, são de baixa renda. Do contrário, os aglomerados mais a direita mostram inscritos de alta/média renda e, consequentemente, melhores desempenhos no ENEM.

KABACHIEVA, D.; STEFANOVA, K.; KISIMOV, V. Analyzing University Data for Determining Student Profiles and Predicting Performance. Sofia, Bulgaria: Sofia University, 2011. Disponível em: <http://educationaldatamining.org/EDM2011/wpcontent/uploads/proc/edm2011_poster15_Kabakchieva.pdf>. Acesso em: 10 mar. 2014. MacQueen, James. "Some methods for classification and analysis of multivariate observations." Proceedings of the fifth Berkeley symposium on mathematical statistics and probability. Vol. 1. No. 281-297. 1967. Open Knowledge Foundation OKFN. (2004) “Open Data – An Introduction”. [S.l.:S.n.]. Disponível em: <http://okfn.org/opendata/> Owen, S., Anil, R., Dunning, T., and Friedman, E. (2011) “Mahout in Action”. Manning. Rezende, Solange Oliveira. (2003) “Sistemas Inteligentes: Fundamentos e Aplicações”. Barueri, SP: Manole Ltda. Silva, Marcelino P. Santos. (2004) “Mineração de Dados-Conceitos, Aplicações e Experimentos com Weka”. In: Artigo. Instituto Nacional de Pesquisas Espaciais (INEP), 2004. São José dos Campos-SP. Wu, Xindong et. al. (2013) “Data Mining with Big Data”. Knowledge and Data Engineering, IEEE Transactions, Boston, p. 1-25.

Figura 8- Resultado do processamento de Notas x Cluster

VI. CONCLUSÃO O trabalho apresentou os principais conceitos de mineração de dados e a importância do processo de extrair conhecimento em dados abertos, bem como os principais desafios envolvidos nesse processo. Além disso, foi exposto um estudo de caso que mostrou na prática um exemplo de mineração em dados abertos. Neste estudo de caso foram mostradas a fase de preparação dos dados, a aplicação do algoritmo de mineração e, por fim, a análise realizada. No estudo, procuramos verificar a existência de características dos inscritos que interfeririam em sua nota final, e foi descoberto que apesar de não ser determinante, características como renda familiar, escolaridade dos pais, escola do inscrito, lugar de residência e se possui internet, impactam na nota final do inscrito. Como trabalhos futuros, a utilização de outras técnicas de mineração para prever as notas dos candidatos baseando-se nas características socioeconômicas dos inscritos, bem como a realização de integração com outras bases de dados abertos relacionadas.

Referências Carreira, Suely da Silva, et al. Aplicação de Data Mining na Base de Dados do Processo Seletivo do Exame Nacional do Ensino Médio - ENEM 2010 In: CONGRESSO BRASILEIRO DE ENGENHARIA DE PRODUÇÃO, II, 2012, Ponta Grossa. p.12 Coelho da Silva, T. L., Sousa, F. R., de Macêdo, J. A. F., Machado, J. C. e Cavalcante, A. A. (2013) “Análise em Big Data e um Estudo de Caso utilizando Ambientes de Computação em Nuvem”. Simpósio Brasileiro de Banco de Dados. Fayyad, U., Piatetsky-shapiro, G., and Smyth, P. (1996). “From data mining to knowledge discovery in databases”. AI Magazine, 17:37–54. Ji, Changqing et al. (2012) “Big Data Processing: Big Challenges and Opportunities”. Journal Of Interconnection Networks. {s.l.}, p. 1-19.


Performance in Search Data Methods and Components for Information Visualization Eduardo C. Oliveira, Luciene C. Oliveira, Alexandre Cardoso, and Edgard A. Lamounier Jr. UFU Uberlândia, Brasil

The search information methods through lists of data are widely used in Web applications. Various graphical components can be used for this type of information visualization, as multiselect component, paging, on hierarchy, calendar graph and chart report. The choice of this component influences the performance of the application and also the cognitive process by abstracting the user and understand visual information provided by him. Thus, the choice and creation of components during the development of these applications are important and the choice of frameworks that will support the creation and use of these components. Keywords—component; visualization performance; search data methods; Dojo;

I.

information;

INTRODUÇÃO

A performance de um sistema depende da arquitetura da aplicação, bem como os gráficos visuais e a disposição desses gráficos para o usuário. A forma e estrutura utilizada para disponibilizar as informações para o usuário requer um esforço computacional, mas também influencia no esforço cognitivo do usuário para interpretar e abstrair as informações gráficas disponibilizadas para ele. Essa estrutura está incorporada nos componentes gráficos. Mesmo nos métodos de busca mais comuns e utilizados, como relatórios gráficos e métodos de lista de dados, na maioria das vezes, os desenvolvedores não se atentam ao melhor componente gráfico a ser utilizado nas suas soluções gráficas. Este artigo tem como finalidade apresentar diversos tipos de componentes gráficos usados para busca de informações numa lista de dados, analisar as estruturas e organizações gráficas desses componentes e também comparar e analisar os seus desempenhos, para verificar qual a vantagem ou desvantagem do seu uso na solução de um determinado problema. Dentre as necessidades mais comuns em sistemas WEB, se destacam a listagem de listas para seleção, que pode ser realizado através do componente de multiseleção, a busca de informações através da lista de dados, que pode ser realizado através do componente de paginação, a organização e

planejamento de atividades delimitadas por tempo e horário, que pode ser realizado através do componente gráfico de horários, a busca por dados organizados em estrutura hierárquica através de componentes gráficos em hierarquia e relatórios gráficos. A maioria dos componentes gráficos para busca de informações em lista de dados já existem nos frameworks de desenvolvimento WEB, como JQuery[7], Dojo[4], Ext Js[6], etc. Entretanto, pode haver a necessidade de customização do componente gráfico para melhor atender as necessidades de interação do componente gráfico com o usuário, ou para melhorar o desempenho de algoritmo do sistema ou o desempenho cognitivo do usuário no uso da aplicação. Como o objetivo não é comparar componentes de um framework com outro framework, todos os componentes mostrados neste artigo são exclusivo do framework de desenvolvimento Dojo, todos eles customizados para realizar integrações com a arquitetura Model View Controller (MVC) e para adquirir formas gráficas que facilitam a integração do usuário com a visualização da informação mais apropriada à manipulação dos dados do seu negócio. II.

MÉTODO DE PESQUISA EM LISTA DE DADOS

O método de pesquisa em lista de dados é um dos mais comuns e usados dos vários tipos de métodos de pesquisa de dados [5]. Existem vários componentes gráficos para o método de pesquisa de lista de dados. Outros métodos de visualização da informação de dados muito usados consistem nos relatórios gráficos. Este tópico descreve alguns componentes gráficos do método de pesquisa de lista de dados e de relatórios gráficos, especializados para solucionar determinados problemas que envolvem estes métodos. A. Componente de Multiseleção Componentes de multiseleção consistem em mecanismos que possibilitam a busca e também a seleção de vários itens em um conjunto de informações. Um exemplo desse componente consiste no componente picklist .


componente consiste em visão gráfica do componente e visão arquitetural do componente.

Fig. 1. Componente de multiseleção customizado do Dojo [4].

Um dos maiores desafios da visualização da informação consiste na criação de componentes que ocupam pouco espaço na tela. Isso ocorre principalmente quando se trata de sistemas móveis, cuja resolução da tela é menor que dos monitores convencionais. Existem funcionalidades cuja seleção é múltipla, mas a busca necessita somente de uma propriedade ou nome do negócio a ser selecionado. A Fig. 1 mostra um exemplo de componente de multiseleção que ocupa pouco espaço na tela. Ele é bastante eficiente para pesquisas simples, que não envolvem filtros de pesquisa e que necessitam de pouca ocupação de espaço de tela. B. Componente de Paginação Componente de paginação consiste em um mecanismo que possibilita a busca em demanda e a seleção de vários itens em um conjunto de informações. A busca por demanda é bastante eficiente, pois busca em um conjunto de informações e retorna os dados pesquisados por solicitação de demanda.

Fig. 2. Componente de paginação sob demanda do Dojo [4].

A Fig. 2 apresenta o gráfico do componente de paginação sob demanda do Dojo para pesquisar dados do prospect através dos filtros de “Nome” e “Email”. Ele mostra que foi ordenado pelo resultado de pesquisa “Nome” de forma descendente. O maior problema do componente de paginação consiste na busca por demanda de determinados dados combinados e a manutenção desses dados, controlando a inclusão, deleção e edição dos mesmos dados sem perder a busca por demanda. Para solucionar esse problema é necessário projetar duas visões e criar um ponto de integração entre elas. Utilizando o framework MVC da Microsoft .net, a divisão deste

1) Visão Gráfica do Componente Os requisitos visuais do componente e de interação com o usuário são projetados pela visão gráfica do componente. Por exemplo, em um banco de dados com milhões de pessoas, o usuário pode filtrar a pesquisa das pessoas e o sistema envia o resultado em demandas paginadas de 50 a 50 de pessoas, possibilitando ao usuário modificar a quantidade da demanda, solicitar o número da página a ser demandada, selecionar em várias páginas, ordenar por determinada coluna da grade de paginação, separar as linhas pares das linhas ímpares para melhor visualização, etc. Como o resultado de pesquisa é por demanda, a pesquisa no banco de dados se trata somente dos 50 registros paginados. Separar as linhas pares das linhas ímpares não tem integração com o banco de dados, ou com as camadas model e controller do ASP.NET MVC, mas os requisitos que mudam a configuração da quantidade de páginas ou da ordenação na paginação fazem integração com o banco de dados. Para esses requisitos, é necessário a visão gráfica do componente comunicar através de requisições com o banco de dados, estabelecendo uma visão arquitetural do componente. 1) Visão Arquitetural do Componente O framework gráfico Dojo é fácil de integrar com o ASP.NET MVC e também como Web API (Interface de Programação de Aplicativos). O framework do Dojo é composto basicamente por arquivos javascript, html e arquivos Cascading Style Sheets (CSS) de configuração de estilos. Ele se encontra na camada view da arquitetura ASP.NET MVC e depende da comunicação com os controles .net para fazer a busca paginada no banco de dados. Nesta arquitetura .NET existem dois tipos de controles, o controle do ASP.NET MVC e o controle do Web API [3]. Os controles são diferentes e as informações de coluna de ordenação da grade, direção da ordenação (crescente ou decrescente) e intervalo de pesquisa provenientes do Dojo, embora estejam na requisição (variável Request [1]) do protocolo HTTP, eles estão em locais diferentes. No Web API, as variáveis de paginação do Dojo encontram-se no grupo do cabeçalho da requisição Request.Headers.Range e nos parâmetros do identificador universal de recurso Request.RequestUri.ParseQueryString(). Já no ASP.NET MVC encontram-se no próprio cabeçalho da requisição Request.Headers e nos parâmetros do método GET Request.Params. Obtendo essas variáveis na camada de controle, é possível tratar na camada de negócio por qual variável será ordenado, caso o usuário não solicitou ordenação na grade gráfica ou quando é a primeira renderização da grade. Na camada de acesso aos dados, usando o Entity Framework, é possível usar as variáveis de paginação nos seus métodos Skip e Take de pesquisa no banco de dados, para delimitar os registros que serão pesquisados e retornados para o corpo da requisição.


C. Componente Gráfico de Horários O planejamento de tarefas diárias, semanais e mensais é muito comum em sistemas Web. A visualização da informação das tarefas de forma gráfica, na qual se possa observar e manipular os horários entre as tarefas pode facilitar o trabalho de planejamento do usuário, principalmente quando existe paralelismo concorrente entre as tarefas. A Fig. 3 mostra diversas tarefas que são executadas em uma sala de aula, pela ocupação de horários por professores e alunos e também alunos de outras turmas na mesma sala. O sistema facilita o controle remanejamento de horários das turmas na mesma sala ao usuário através das possíveis interseções ocasionadas no visual gráfico do componente de grade de horários do Dojo. O componente utilizado do dojo consiste no dojox.calendar e foi customizado para não apresentar o cabeçalho com uma determinada semana do mês, mas qualquer semana do mês. Fig. 4. Componente gráfico em hierarquia customizado do Dojo [4].

O componente gráfico de hierarquia auxilia na avaliação dos alunos para cada avaliação, em que o aluno se encontra, além de mostrar a situação desse aluno em cada avaliação pela legenda. E. Componente Gráfico de Relatórios Os resultados de pesquisa de Business Intelligence (BI) e também resultados de pesquisa de busca em lista podem ser convertidos para o componente gráfico de relatório. Alguns componentes de relatório como o Dojo suportam atualização dos dados por demanda. Isso torna possível a visualização da informação de forma progressiva, ou seja, na medida em que ela é processada. Fig. 3. Componente gráfico de horários customizado do Dojo [4].

Este componente tem uma forma gráfica que ajuda o usuário abstrair e entender os processos cognitivos de inclusão e interseção de horários com muita facilidade. Essa facilidade é possível por causa da forma e organização gráfica dos horários, mostrados lado a lado na grade de horários, mantendo o início e fim de cada horário. Isso, junto a legenda do horário, possibilita o processo cognitivo de identidade e comparação entre eles.

No Dojo isso é possível, graças a interpolação de diferentes conjuntos de dados gráficos. A Fig. 5 mostra a visualização gráfica em quatro momentos sequenciais da evolução do algoritmo genético que busca a minimização da função:

f ( x)  ((sen( x  256)) 2  0.5) /(1  0.001* ( x  256) 2 ) 2 na qual x está no intervalo de [0, 512].

D. Componente Gráfico em Hierarquia Muitos dados são organizados em hierarquia, e para o usuário, disponibilizar esses dados também em hierarquia pode ajudá-lo no processo cognitivo de entendimento dessas informações. Alguns componentes possibilitam a manipulação das informações gráficas disponibilizados em hierarquia, assim como o componente gráfico dojox.grid.LazyTreeGrid no framework do Dojo. A Fig. 4 mostra a disponibilização das informações das avaliações dos alunos por avaliação e tipo de avaliação, para que o usuário, neste caso o professor, possa informar a dada da avaliação, observação e nota para cada aluno.

Fig. 5. Componente gráfico de relatório do Dojo [4].


Esse relatório possibilita uma visualização analítica da evolução do algoritmo ao buscar o mínimo da função. É possível visualizar analiticamente a conversão dos pontos de mínimos encontrados durante a evolução do algoritmo genético para o mínimo da função e verificar o desempenho desse algoritmo na resolução desse problema. A evolução do algoritmo genético é feita de forma interativa e o resultado é colocado no gráfico no final de cada interação, através da função assíncrona "setTimeout" do Javascript. De forma integrada, as bibliotecas "dojox/charting/plot2d/Lines" e "dojox/charting/plot2d/MarkersOnly" do Dojo possibilitam incluir interpolar gráficos em tempo de execução, com os resultados da interação do algoritmo genético. III.

categorizar e comparar três formas de buscas: sem paginação, paginação sem demanda e paginação sob demanda. O componente sem paginação busca e mostra todas as informações na grade sem dividí-las em parcelas. O componente de paginação sem demanda busca todas as informações, mas divide as informações em páginas para renderizar. Os componentes gráficos de paginação por demanda não buscam toda a lista de itens no banco de dados, mas somente a parcela referente à demanda. Essa parcela pode ser referente também à um conjunto de filtros de pesquisa e ordenação.

ANÁLISE DE DESEMPENHO

Os componentes gráficos de multiseleção oferecem ganhos em espaço na página WEB, mas o usuário terá que pesquisar no item desejado em toda a lista. É possível amenizar esse problema disponibilizando os itens em ordem alfabética. A pesquisa no banco de dados se trata de toda a lista de itens, ao menos que o componente utilize autocomplete e faça a busca por demanda.

Fig. 7. Resultado de teste de desempenho dos componentes de paginação.

A Fig. 7 mostra o resultado comparativo dos testes de desempenho dos componentes gráficos sem paginação, com paginação sem demanda e com paginação sob demanda. O eixo das abscissas contém a quantidade de registros solicitadas na requisição e o eixo das ordenadas contém o tempo gasto para buscar os registros e apresentá-los em cada tipo de componente. O tempo de busca corresponde ao somatório dos tempos de renderização do componente web, de rede, de processamento de negócio e de banco de dados. Verifica-se que os componentes sem paginação e com paginação sem demanda são viáveis para buscar até dezenove mil registros. Fig. 6. Resultado de teste de desempenho do componente de multiseleção.

A Fig. 6 mostra um gráfico com os resultados de teste de desempenho do componente de multiseleção para verificar a quantidade de registros que podem ser disponibilizadas pelo componente sem comprometer o tempo de resposta. O eixo das abscissas contém a quantidade de registros solicitadas na requisição e o eixo das ordenadas contém o tempo gasto para buscar os registros e apresentá-los. O tempo de busca corresponde ao somatório dos tempos de renderização do componente web, de rede, de processamento de negócio e de banco de dados. Verifica-se que o componente de multiseleção é viável para buscar até dois mil registros. Por outro lado, os componentes de grade de paginação não renderizam toda a informação na tela, processando os dados em parcelas. Na análise destes componentes de grade, é possível

Os componentes gráficos de paginação por demanda oferecem uma melhor solução quando se trata de desempenho, mas requerem maior espaço na tela para disponibilização de campos de pesquisa e ordenação dos resultados de pesquisa. Além disso, realizam um maior número de requisições de rede e de banco quando o usuário pagina a grade. Ainda é possível reduzir os espaços de campos de pesquisa dos componentes de paginação. A Fig. 8 mostra que é possível reduzir o espaço usado pelos filtros de pesquisa com o componente de tags dijit.TitlePane. No exemplo da figura, os filtros de pesquisa da tela de feriados foram reduzidos para dar espaço para a grade de resultado da pesquisa. O componente gráfico de hierarquia oferece uma busca binária das informações disponibilizadas ao usuário. A busca é bastante eficiente, pois reduz em partes a busca pela informação a cada decisão na árvore ou, no caso do


Para encontrar o componente mais adequado à necessidade do negócio e para encontrar a melhor eficiência na navegação do usuário é necessário conhecer as diferenças entre os diversos componentes gráficos disponíveis para desenvolvimento e, se possível, evoluí-los e até mesmo crialos, quando não existentes. Mas para isso é preciso realizar uma análise correta do desempenho e qualidade gráfica do componente perante as reais necessidades da visualização da informação. As facilidades nas interações do sistema com o usuário devem partir da usabilidade dos componentes gráficos para agilizar os processos que garantem as suas necessidades no negócio. Os componentes devem possuir uma forma de organização da informação capaz de fornecer atalhos cognitivos e mecânicos durante a leitura das informações feita pelos usuários. AGRADECIMENTOS Agradeço à minha irmã Luciene pelo apoio nos momentos mais difíceis. Agradeço aos professores Alexandre Cardoso e Edgard Lamounier pelos ensinamentos que auxiliaram no meu aprendizado. Agradeço ao Leonardo Borges pela oportunidade e por me oferecer desafios na área de desenvolvimento de softwares WEB. Fig. 8. Componente de tag do Dojo [4] para redução do espaço usado de filtros de pesquisa.

componente visual do Dojo, a cada expansão na escolha do usuário. Entretanto, o componente do Dojo para gráfico em hierarquia não faz a pesquisa por demanda e também não possui plug-in para paginação, assim como o componente de gráfico por paginação. Isso torna esse componente inviável para grandes quantidades de informações, como pesquisa e disponibilização acima de duzentos mil registros do banco de dados. IV.

REFERENCES [1]

[2] [3] [4] [5]

CONCLUSÃO

Uma análise ingênua das necessidades da visualização da informação pode criar arquitetura ou disponibilizar componentes com desempenho não adequado, degradação da performance desejada pela aplicação ou navegação não usual na interface gráfica.

[6] [7]

M. Leslie Orchard, A. Pehlivanian, S. Koon, H. Jones, “Professional JavaScript Frameworks Prototype, YUI, Ext JS, Dojo and MooTools”, Wiley, 2010. ISBN 978-0470452028. A. Mathew Russell, “Dojo: The Definitive Guide”, O’Reilly Media, 2008. ISBN 978-0596516482. J. Kurtz, “ASP.NET MVC 4 and the Web API, Building a REST Service from Start to Finish”, New York: Apress, 2013. ISBN 9781430249771 “Dojo Toolkit,” 2014, [Online; accessed April-2014]. [Online]. Available: http://www.dojotoolkit.org/. R. Lengler and M.J. Eppler, “Towards A Periodic Table of Visualization Methods for Management,” GVE '07 Proceedings of the IASTED International Conference on Graphics and Visualization in Engineering. ACTA Press Anaheim USA, pp. 83-88, 2007. doi: 10.1.1.95.6639. “Sencha”, 2014, [Online; accessed April-2014]. [Online]. Available: http://www.sencha.com/. “JQuery”, 2014, [Online; accessed April-2014]. [Online]. Available: http://jquery.com/.


Proposta de uma Ontologia de Aplicação para uma Rede Social de Grupos de Pesquisa Saulo Gomes da Silva1, Walter Travassos Sarinho2 1

Faculdade de Tecnologia e Ciência de Pernambuco (FATEC) Recife – Pernambuco – Brasil - saulobr88@gmail.com

2

Centro de Informática – Universidade Federal de Pernambuco (UFPE) Recife – Pernambuco – Brasil - wts@cin.ufpe.br

Desde que os princípios Linked Data foram propostos por Tim Berners-

A Web Semântica é considerada uma extensão da

Lee até os dias atuais, uma gama de aplicações para Web Semântica

Web atual cujo objetivo principal é tornar os dados mais

vêm sendo disponibilizadas para uso da população. Estes princípios

compreensíveis na rede utilizando uma integração de

possibilitam uma padronização no formato de publicação dos dados

linguagens, modelos e tecnologias (Lóscio e Wagner Filho,

com o objetivo de compartilhar informação em diversos domínios. Os domínios podem ser descritos por meio de ontologias. Assim, neste

2009). Assim, para criar um modelo que permita a partilha

contexto, este trabalho propõe a criação de uma ontologia de aplicação

global de conhecimento assistido por agentes de software,

baseada nas ontologias SWRC e FOAF, que ajudará na geração de

Bizer et al., (2009), sugerem duas premissas básicas: (i)

uma rede social cujo principal público são os pesquisadores científicos,

padronizar o formato do conteúdo da web para facilitar o

e assim, criar um canal de comunicação entre eles. Com a reutilização de conceitos definidos em ontologias de domínio foram elencadas as

seu processamento e (ii) categorizar, separar por domínios

características iniciais que formarão a ontologia de aplicação. Como

de conhecimento, as informações para facilitar o acesso.

resultados são apresentados um diagrama com as classes da ontologia,

Como base ao desenvolvimento da Web Semântica, surgiu o

seus possíveis relacionamentos e as principais consultas utilizando a

projeto Linked Data que visa delimitar um conjunto de boas

linguagem de consulta SPARQL nesta ontologia.

práticas para publicar e conectar conjuntos de dados I. INTRODUÇÃO E MOTIVAÇÃO

estruturados na Web, com o intuito de criar uma Web de

As redes sociais têm adquirido importância crescente na

Dados (Bizer et al., 2009). É baseado em tecnologias Web,

sociedade moderna. Um ponto em comum entre elas é o

como HTTP (Hypertext Transfer Protocol)1 e URIs

compartilhamento

conhecimentos,

(Uniform Resource Identifier)2, com o objetivo de permitir

interesses e esforços em busca de objetivos comuns. A

a leitura dos dados conectados semanticamente, de forma

intensificação da formação das redes sociais, nesse sentido,

automática, por agentes de software. Esta nova Web de

reflete um processo de fortalecimento da Sociedade Civil,

Dados não substitui a atual (Web de Documentos), ela

em um contexto de maior participação democrática e

padroniza as tecnologias para publicação de dados na Web

mobilização social. Com a existência de várias redes sociais

utilizando as tecnologias já existentes.

de

informações,

há também a preocupação em relacionar uma mesma pessoa Linked Data refere-se ao conjunto de melhores

em múltiplas plataformas. E mais, no contexto de grupos de pesquisa e novos pesquisadores, atualmente existe uma lacuna para uma rede social com o objetivo de interação entre novos e antigos pesquisadores.

Assim, criar um

repositório contendo dados sobre pesquisadores corrobora com um alcance maior de possibilidades de interações entre os pesquisadores, como por exemplo, a descoberta de dados

práticas para a publicação de dados estruturados na Web. Essas práticas foram introduzidas por Berners-Lee (2006) e resumem-se em quatro princípios básicos: 1.Utilizar URIs como nome para recursos. 2.Usar URIs HTTP para que as pessoas possam encontrar esses recursos.

associados a um pesquisador de forma mais dinâmica. Essa associação de dados pode ser executada utilizando os recursos da Web Semântica.

1 2

http://www.w3.org/Protocols/ http://www.w3.org/Addressing/


3.Quando alguém procura por uma URI, garantir que

Neste cenário, este trabalho propõe a criação de

informações úteis possam ser obtidas por meio dessa URI,

uma ontologia de aplicação baseada nas ontologias SWRC

as quais devem estar representadas no formato RDF.

(Semantic Web Research Comunity) e FOAF (Friend of a

4.Incluir links para outras URIs de forma que outros recursos possam ser descobertos.

Friend), que ajudará na geração de uma rede social cujo principal público são os pesquisadores científicos. A proposta desta rede social visa criar um canal de

O exemplo mais visível da adoção e aplicação dos princípios Linked Data tem sido o projeto LOD (Linking Open Data) fundado em janeiro de 2007 e apoiado pelo W3C Semantic Web Education and Outreach Group. O objetivo principal do projeto LOD é identificar conjuntos de dados disponíveis sob licenças abertas e convertê-los para o

comunicação entre pesquisadores com objetivo de melhorar a comunicação entre eles. A ontologia de aplicação foi projetada para englobar os principais atributos presentes em projetos de pesquisa, reutilizando termos de vocabulários já existentes,

proporcionando

assim,

a

descoberta

de

informações.

modelo RDF seguindo os princípios Linked Data. Este trabalho está organizado como segue: a Seção Baseado nos princípios Linked Data, Heath e Bizer (2011) apresentam três premissas para publicar dados ligados: (i) usar URIs para identificação dos recursos; (ii) utilizar tecnologias, como RDF (Resource Description Framework)3 e SPARQL (SPARQL Protocol and RDF

2 apresenta a fundamentação teórica; a Seção 3 apresenta a ontologia de aplicação proposta e algumas consultas SPARQL para esta ontologia; a Seção 4 apresenta trabalhos relacionados, e por fim, são mostradas as considerações finais e indicações de trabalhos futuros.

Query Language)4, para descrição e consulta a estes II. FUNDAMENTAÇÃO TEÓRICA

recursos, respectivamente; e (iii) reaproveitar URIs de forma que seja possível estabelecer ligações entre os dados

Ontologias são consideradas um dos pilares da Web

disponíveis, com a finalidade de possibilitar a navegação por

Semântica6. Segundo Gruber (1995), ontologia é uma

meio destas ligações.

especificação formal e explícita de uma conceitualização

Devido a limitação de representação de conteúdo no modelo RDF, foram adotados o RDF(S)5 e Ontologias para descrição de recursos. O uso de ontologias e vocabulários é fortemente recomendado na comunidade linked data (Bizer et al., 2009).

compartilhada. Ou seja, ela descreve os conceitos e relacionamentos existentes em um dado domínio ou universo de discurso que é normalmente de conhecimento comum. Um documento RDF não possui semântica suficiente para descrever todos os possíveis relacionamentos de uma ontologia. Não é possível especificar em RDF a

Na Web Semântica uma ontologia descreve termos de um dado vocabulário. Os vocabulários por sua vez, possuem um papel de destaque, pois fornecem um conjunto de termos utilizados para descrever recursos de um dado domínio. O reuso de termos de vocabulários é uma recomendação na comunidade Linked Data para a criação de novas fontes de informação (Heath e Bizer, 2011).

definição

de

classes

e

propriedades,

restrições

de

relacionamentos ou inferência sobre os recursos. O RDF(S) surgiu como uma solução para esses problemas provendo construtores que permitem especificar formalmente um esquema, definindo classes, subclasses, domínio e restrições de valores das propriedades no contexto da web Apesar do aumento da expressividade advindo da união de RDF com RDF(S), isto ainda não é o suficiente para prover uma rica descrição semântica acerca de um domínio de interesse. É

3

http://www.w3.org/RDF/ 4 http://www.w3.org/TR/rdf-sparql-query/ 5 http://www.w3.org/TR/rdf-schema/

necessário que exista um vocabulário que possa especificar 6

http://semanticweb.org/wiki/Ontology


regras mais complexas, como, por exemplo, restringir a

e a FOAF. A ontologia de domínio SWRC8 foi inicialmente

cardinalidade de uma propriedade. Diante disso, surgiu o

nomeada como Semantic

modelo OWL, projetado para descrever a estrutura de um

Ontology. Ela genericamente modela entidades chaves em

domínio (ontologias) em termos de classes, instâncias,

um grupo ou comunidade de pesquisa e reflete uma das

propriedades e axiomas (Silva et al, 2011).

primeiras tentativas de descrever recursos para o domínio de

A Ontology Web Language – OWL7 é uma linguagem recomendada pela W3C para a especificação de ontologias. Segundo Lóscio e Wagner Filho (2009), os seus idealizadores visavam prover uma linguagem que possuísse a expressividade necessária tanto na descrição de ontologias no suporte à Web Semântica, como em relacionamentos entre domínios e suas propriedades (Silva et al, 2011).

Web Research Community

comunidades de pesquisa na área da Web Semântica. Nesta ontologia estão representadas entidades como: pessoas, organizações, publicações (metadados biográficos) e seus relacionamentos. Em versões mais recentes, a ontologia foi publicada no formato OWL. Desde as suas versões iniciais ela foi usada e adaptada em diferentes configurações, com maior destaque para a prestação de metadados estruturados para portais na web. Apesar de cobrir o domínio de dados

Segundo Guarino (1997), as Ontologias podem ser classificadas quanto à sua função em cinco categorias: (i) Ontologias Genéricas - consideradas ontologias “gerais”. Descrevem conceitos mais amplos, como elementos da natureza, espaço, tempo, coisas, estados, eventos, processos

sobre grupos de pesquisa, a ontologia não tem uma classe ou propriedade para representar algum relacionamento entre os membros descritos por ela. Para preencher esta lacuna, a ontologia de aplicação proposta adota algumas propriedades da ontologia FOAF para descrever este relacionamento.

ou ações, independente de um problema específico ou FOAF9, ou Friend Of A Friend, usa um vocabulário

domínio particular; (ii) Ontologias de Domínio - descrevem conceitos

e

vocabulários

relacionados

a

domínios

particulares, tais como medicina ou computação, por exemplo; (iii) Ontologias de Tarefas - descrevem tarefas ou atividades genéricas, que podem contribuir na resolução de problemas, independente do domínio que ocorrem, por exemplo, processos de vendas ou diagnóstico; (iv) Ontologias de Aplicação - descrevem conceitos que dependem tanto de um domínio particular quanto de uma tarefa específica. Devem ser especializações dos termos das ontologias de domínio e de tarefas correspondentes, um

para prover uma coleção de termos básicos que podem ser usados em documentos da web para expressar relações sobre coisas no mundo. O foco inicial da FOAF está na descrição de pessoas. Fundada por Dan Brickley e Libby Miller, o projeto FOAF possui uma comunidade livre cuja iniciativa está de acordo com os objetivos da Web Semântica em criar dados que possam ser processador por agentes de software. Os documentos FOAF são mais comumente usados como uma forma de representar a informação sobre pessoas de um jeito que é facilmente processado, mesclando e agregando.

exemplo deste tipo é a ontologia que está sendo proposta

O terceiro princípio Linked Data sugere a

neste artigo; e (v) Ontologias de Representação - explicam

linguagem SPARQL para consultar dados interligados.

as conceituações que fundamentam os formalismos de

SPARQL é a linguagem padrão para consultar dados

representação de conhecimento, procurando tornar claros os

armazenados em grafos RDF (Pérez e Arenas, 2009). As

compromissos ontológicos embutidos nestes formalismos.

triplas que compõem os grafos podem ser armazenadas em

Um exemplo desta categoria é a ontologia de frames,

linked datasets, i.e., fontes de dados cuja informação

utilizada por Gruber (1992).

seguem os princípios Linked Data Cada linked dataset

A ontologia de aplicação proposta utiliza classes e

possui uma interface de acesso disponível tanto para

propriedades de duas outras ontologias de domínio, a SWRC 8 7

http://www.w3.org/TR/owl-features/

9

http://ontoware.org/swrc/ http://www.foaf-project.org/


usuários, quanto para aplicações clientes (uma aplicação que

A Tabela 1 apresenta a lista de propriedades entre

utiliza uma API para consumir dados da Web de Dados) por

as classes. E em seguida é mostrado como as propriedades

meio de uma URL denominada de endpoint SPARQL. Um

se relacionam com as classes.

endpoint SPARQL é uma URI para o qual um serviço

Propriedade

SPARQL fica aguardando por solicitações de clientes. A consulta SPARQL pode ser classificada em quatro tipos: (i) SELECT – utilizada para especificar que os

1

FOAF:knows

2

SWRC:member

3

SWRC:worksAtProject

4

RDFS:subclassOf

5

SWRC:describesProject

6

SWRC:outcomeDocument

7

SWRC:outcomeProduct

8

SWRC:financiedBy

9

SWRC:carriedOutBy

10

SWRC:carriesOut

11

SWRC:finances

12

FOAF:name

resultados serão retornados para o usuário em forma de tabela; (ii) CONSTRUCT – utilizada para retornar um novo grafo RDF construído através de templates, onde suas variáveis são substituídas por seus valores; (iii) ASK – verifica se há pelo menos uma resposta à consulta e retorna resultados booleanos como “true” ou “false”, indicando se uma consulta está associada a alguma tripla; e (iv) DESCRIBE – retorna um novo grafo RDF contendo recursos associados. Para o contexto deste trabalho, serão utilizadas apenas consultas do tipo select SPARQL. A próxima seção descreve a proposta de uma ontologia de aplicação para grupos de pesquisa. III. PROPOSTA DE UMA ONTOLOGIA DE APLICAÇÃO A ontologia proposta

neste artigo é uma ontologia de

aplicação baseada nas ontologias SWRC e FOAF. A Figura 1 mostra um diagrama das classes da ontologia proposta e como elas estão relacionadas entre si. Atualmente é apresentado um total de 6 classes que correspondem aos requisitos mínimos para seu objetivo.

Tabela 1. Propriedades das classes

A propriedade 1, FOAF:knows, é uma propriedade que afirma que duas pessoas se conhecem. No contexto da ontologia proposta, essa propriedade é responsável por identificar quem faz parte da rede de contatos dos pesquisadores participantes da rede social, por meio dessa propriedade é possível ligar as pessoas envolvidas em um ou mais projetos. A propriedade 2, SWRC:member, faz parte da classe SWRC:Project e informa quais pessoas fazem parte do projeto. A propriedade 3, SWRC:worksAtProject, faz parte da classe SRWC:Person e indica qual(is) projeto(s) um membro está envolvido. A propriedade 4, RDFS:subclassOf, indica quem é a super classe de SWRC:Project. A propriedade 5, SWRC:describesProject, é uma propriedade de SWRC:Document e indica a que projeto o documento pertence. A propriedade 6, SWRC:outcomeDocument, é uma

Figura 1. Diagrama de classes da ontologia de aplicação.

propriedade de SWRC:Project e indica quais documentos foram gerados pelo projeto de pesquisa, como por exemplo


um artigo publicado ou aplicação desenvolvida. A

E os documentos produzidos por um membro,

propriedade 7, SWRC:outcomeProduct, indica se o projeto

terceira pergunta, são retornados utilizando a consulta

de pesquisa gerou algum produto. A propriedade 8,

descrita na Figura 4.

SWRC:financiedBy, faz parte de SWRC: Project e indica qual organização (SWRC:Organization) está financiando o projeto. A propriedade 9, SWRC:carriedOutBy, pertence a classe SWRC:Project e indica se o projeto está associado a alguma organização. A propriedade 10, SWRC:carriesOut, pertence a classe SWRC:Organization e informa se a organização está realizando algum projeto de pesquisa. A propriedade

11,

SWRC:finances,

pertence

Figura 4 - Consulta que retorna os documentos produzidos por

a

um membro.

SWRC:Organization e indica se a organização está financiando algum projeto de pesquisa. A propriedade 12, FOAF:name, é a propriedade que conterá o nome da pessoa ao qual o perfil se refere.

Inicialmente estas são as propriedades e principais consultas para dados descritos na ontologia proposta. Na seção

a

seguir

são

apresentados

alguns

trabalhos

relacionados.

Uma vez que a ontologia seja instanciada,

IV. TRABALHOS RELACIONADOS

destacam-se aqui três importantes perguntas iniciais aos recursos de dados descritos por ela no contexto da rede social proposta: (i) quais os pesquisadores que um dado membro conhece?; (ii) Quais os projetos que um membro participa?; e (iii) quais os documentos produzidos por um membro. Assim, para consultar os dados referentes a primeira pergunta será utilizada a consulta select SPARQL apresentada na Figura 2.

Morais e Ambrósio (2007) descrevem os conceitos de ontologia, seus principais usos, tipos, metodologias de desenvolvimento, ferramentas de especificação e linguagens de

representação.

Esse

trabalho

contribuiu

para

a

compreensão dos passos para criar uma ontologia de aplicação, com definições e métodos de construção. Sure et al, (2005) apresentam os conceitos iniciais da ontologia SWRC e como esses conceitos foram modelados dentro do domínio de grupos de pesquisa. Este trabalho foi usado como ponto de partida para compreender a ontologia SWRC. V. CONSIDERAÇÕES FINAIS

Figura 2 - Consulta que retorna os pesquisadores que um dado membro conhece.

A segunda pergunta levantada é respondida pela Consulta da Figura 3. O elemento “a” no predicado do primeiro padrão de tripla representa a propriedade rdf:type.

Com a ontologia proposta será possível gerar redes sociais para os antigos e novos pesquisadores, agrupando dados sobre os participantes e seus projetos de pesquisas, assim permitindo

uma

comunicação

entre

os membros

e

possibilitando novas parcerias. Entre os trabalhos futuros destacam-se: 1. Criação de um linked dataset para armazenar os dados descritos pela ontologia proposta.

Figura 3 - Consulta que retorna os projetos de um membro.


2. Criação do protótipo de uma rede social para

metodologias, ferramentas e linguagens. Instituto de

pesquisadores e projetos de pesquisa com web semântica.

Informática Universidade Federal de Goiás. 2007.

3. Disponibilizar um endpoint SPARQL para

(Pérez e Arenas, 2009) PÉREZ, J., ARENAS, M. E

acesso aos

GUTIERREZ, C. (2006): Semantics of SPARQL. Technical Report

dados instanciados nesta ontologia. 4. Aplication Program Interface (API) para interligar a rede

TR/DCC-2006-17, Department of Computer Science, Universidad de Chile.

social semântica com outros serviços na web. (Silva et al, 2011) SILVA, A. N. S., FERNANDES, D. Y. S.,

Consequentemente, com o surgimento de novas

FRANÇA, N. A. B., SILVA, R. D., SARINHO, W. T. (2011) RDF,

redes sociais ou com o incremento das já existentes, os

RDF(S) e OWL: Uma análise comparativa visando atingir o padrão

conceitos apresentados nesse artigo e as características das

linked data. IV Congresso de Pesquisa e Inovação da Rede Norte e

ontologias SWRC e FOAF serão aprimorados e difundidos

Nordeste de Educação Tecnológica, Natal-RN.

pelas plataformas.

(Sure et al, 2005) SURE, Y, BLOEHDORN, S, HAASE, P, HARTMANN, J,

REFERÊNCIAS (Berners-Lee, 2006) BERNERS-LEE, T. Linked Data - Design Issues

<http://www.w3.org/DesignIssues/LinkedData.html>.

(Bizer et al., 2009) BIZER C.; HEATH T.; BERNERS-LEE, T. Linked data - the story so far. Int. J. Semantic Web Inf. Syst., 5(3):1–22, 2009.

(Gruber, 1992) GRUBER, T. R. Ontolingua: A mechanism to support portable ontologies, 1992.

(Gruber, 1995) GRUBER T. R. Toward principles for the design of ontologies used for knowledge sharing. 1995. International Journal Human-Computer Studies Vol. 43, Issues 5-6, November 1995, p.907-928.

(Guarino, 1997) GUARINO, N. Understanding, building and using ontologies. International Journal of Human and Computer Studies, 45(2/3), 2 1997.

(Heath e Bizer, 2011) HEATH, T.; BIZER, C. Linked Data: Evolving the Web into a Global Data Space.1. ed. US. Morgan & Claypool Publishers. 2011. 136p.

(Lóscio e Wagner Filho, 2009) FILHO, F. W. B. H , B.

F.

(2009)

Web

Semântica: Conceitos

e

Tecnologias. In Anais do ERCEMAPI (Escola Regional de Computação Ceará – Maranhão – Piauí).

(Morais e Ambrósio,

Semantic Web for Research Communities. University of Karlsruhe, Institute AIFB, D-76128 Karlsrube, Germany. 2005.

Acesso em 12 de maio de 2014.

LÓSCIO

OBERLE, D. The SWRC Ontology -

2007)

MORAIS,

E. A.

M,

AMBROSIO, A. P. L. Ontologias: conceitos, usos, tipos,

(W3C 2014) World Wide Web Consortium. Disponível em: <http://www.w3.org> Acesso em: 30 abr. 2014.


Processamento e Monitoramento de Consultas no Cassandra Em Ambiente de Nuvem Considerando um SLA

Sávio de Castro Lima

Ticiana Linhares Coelho da Silva

Universidade Federal do Ceará – Campus Quixadá Quixadá, Brasil saviolima_19@yahoo.com.br

Universidade Federal do Ceará – Campus Quixadá Quixadá, Brasil ticianalc@gmail.com

Abstract— Cloud computing is a promising paradigm for service delivery. Its main feature is the elasticity, ie, the system's ability to provide resources and remove automatically. In addition, cloud environments offer services based on a service level agreement (Service Level Agreement - SLA). This article explores the proposed query processing in cloud environments using as the Cassandra database. Each query to be processed is associated with an SLA and for it to be serviced is proposed a monitoring strategy for query processing. A case study is presented to facilitate understanding of the proposed methodology. Resumo - A Computação em Nuvem é um paradigma promissor na oferta de serviços. A sua principal característica é a elasticidade, ou seja, a capacidade do sistema prover e remover recursos automaticamente. Além disso, os ambientes de nuvem oferecem serviços baseados em um acordo de nível de serviço (Service Level Agreement - SLA). Esse artigo explora a proposta de processamento de consultas em ambientes de nuvem utilizando como banco de dados o Cassandra. Cada consulta a ser processada está associada a um SLA e para que este seja atendido é proposto uma estratégia de monitoramento durante o processamento da consulta. Um estudo de caso é apresentado para facilitar o entendimento da metodologia proposta Keywords—NoSQL; Cassandra; Computação em Nuvem;

I. INTRODUCTION Grandes Volumes de dados têm sido gerados por aplicações web, redes sociais, dispositivos como GPS, radares, entre outros. Essas fontes de dados exigem tecnologia eficiente para manipula-lás. Os bancos de dados NoSQL(Not Only SQL)[9] têm se tornado uma solução interessante nesse contexto, pois permitem o manuseio dos mais diversos tipos de dados. Um exemplo de banco de dados NoSQL é o Cassandra[6,10]. O Cassandra é um sistema de banco de dados distribuído altamente escalável, além de possuir outras características como ser descentralizado, eficiente no processo de leitura e escrita dos dados e tolerante a falhas. O banco Cassandra pode ser executado sob uma infraestrutura distribuída, como um ambiente de computação em nuvem ou em um cluster de máquinas. A computação em nuvem[8] está em grande evidência por proporcionar uma alta escalabilidade e elasticidade, tornandose uma boa alternativa quando se trata da necessidade de se trabalhar com um grande volume de dados, visando eficiência no processamento dos mesmos. A computação em nuvem provê recursos computacionais que podem ser alocados ou

realocados conforme a necessidade de cada usuário. Essa característica é conhecida como elasticidade. Para prover elasticidade, é necessário monitorar continuamente se os sistemas estão precisando de recursos a fim de realizar um uso melhor da infraestrutura que a computação em nuvem provê, alocando recursos quando necessário ou diminuindo para evitar desperdícios dos mesmos. A demanda dos usuários por recursos computacionais é observada na computação em nuvem mediante um ServiceLevel Agreement(SLA)[12]. O SLA também conhecido como nível da qualidade de serviço, em que provedor e usuário descrevem cada ponto do serviço oferecido, e como atendê-los. Este artigo visa mostrar o uso da computação em nuvem como infraestrutura para o processamento de consultas no Cassandra. Cada consulta estará associada a um SLA. A métrica principal a ser utilizada no SLA é o tempo de resposta da consulta. Este trabalho propõe uma metodologia para monitorar e processar consultas no Cassandra de modo a não haver violação do SLA acordado. As próximas Sessões estão distribuídas da seguinte forma: na Sessão 2 são apresentados os trabalhos relacionados, na Sessão 3 são apresentados os procedimentos metodológicos para a realização do experimento, na Sessão 4 mostra um caso de uso que ilustra uma solução para o experimento, na Sessão 5 conclusão e trabalhos futuros e na Sessão 6 as referências utilizadas neste trabalho.

II. TRABALHOS RELACIONADOS

Diante do cenário do processamento de consultas em ambientes de nuvem, a literatura apresenta a solução proposta por [Coelho da Silva 2013] em que utiliza-se de um método de monitoramento não-intrusivo e contínuo, utilizando um SGBD (Sistema Gerenciador de Banco de Dados) relacional em cada máquina em uma infraestrutura de nuvem. Esse trabalho busca minimizar o custo com o provisionamento de máquinas, e assim tirar melhor proveito da infraestrutura do provedor de serviço da nuvem. Além disso, busca atender ao SLA de cada consulta. Também faz parte do objetivo de [Coelho da Silva 2013], minimizar a penalidade para o caso do SLA não ser atendido. Outra contribuição é o método proposto para o


provisionamento de máquinas virtuais durante o processamento de consultas, considerando o SLA e desempenho das máquinas(velocidade de recuperação de tuplas por segundo). Bem como, a estratégia de monitoramento do processamento das consultas a fim de que o SLA de cada consulta fosse atendido. A figura 1 mostra uma consulta do tipo select-range a ser usada como entrada pela solução de [Coelho da Silva 2013]. A consulta é particionada pela chave primária da tabela e distribuída entre as máquinas virtuais. Cada máquina virtual processa partições diferentes da consulta, observando o SLA da consulta original. As bases de dados são réplicas totais.

tipos de SLA empregados em ambientes de nuvem e suas métricas utilizadas. Sousa (2010) destaca a abordagem utilizada para a qualidade de serviço dos bancos de dados na nuvem, e mostra as principais métricas utilizadas como, tempo de resposta, rendimento, disponibilidade e consistência. Podemos citar como principais contribuições Sousa (2012): (i) a definição de SLA especificamente para banco de dados, (ii) definição de um conjunto de métricas para o monitoramento dos serviços envolvendo banco de dados. Como semelhanças deste trabalho com o de Sousa (2012) podemos citar o uso do SLA para banco de dados na nuvem com todos os detalhes do serviço que irá ser prestado, e acordado entre o provedor e o cliente. Além da métrica, o tempo de resposta como item principal utilizado. Entretanto, este trabalho utilizará apenas um tipo de métrica para o SLA, enquanto Sousa (2012) aborda vários tipos de métricas em seu detalhamento. No entanto, o objetivo deste trabalho é abordar o monitoramento no processamento de consultas em bases de dados Cassandra, o que não é realizado em Sousa (2012). III. PROCEDIMENTOS METODOLÓGICOS Nesta sessão será apresentado as etapas que constituem os procedimentos metodológicos propostos neste trabalho.

Figura 1 – Exemplo particionamento da consulta As semelhanças desse trabalho em relação ao de Coelho Da Silva (2013) são: (i) a utilização de uma infraestrutura de computação em nuvem, (ii) consultas do tipo select range, (iii) SLA descrevendo métricas e critérios entre o provedor e cliente, e por fim (iv) tempo de resposta da consulta como a métrica do SLA a ser utilizado para o monitoramento das consultas, (v) Algoritmo para realizar o monitoramento do processamento da consulta. As diferenças mais importantes entre este trabalho e relação a Coelho da Silva (2013) são: (i) benckmark de dados utilizado será um próprio para o paradigma NoSQL (ii) Não será oferecido como solução neste trabalho, uma estratégia de provisionamento de máquinas virtuais mas, caso o SLA seja violado deve ser exibido ao usuário que o SLA não foi atendido (iii) utilização da tecnologia NoSQL utilizando o banco de dados Cassandra. Não serão utilizadas réplicas totais das bases como em Coelho da Silva (2013). O Cassandra possui seus algoritmos de particionamento de dados, entre os principais estão o Random Partitioner e Order Preserving Partitioner[3]. Os dados serão particionados neste trabalho nas bases distribuídas seguindo o Order Preserving Partioner que será explicado na próxima sessão. Um segundo trabalho relacionado é Qualidade de Serviço para Banco de Dados na Nuvem[2] (SOUSA, 2012), que mostra com/o se encaixa o SLA em uma infraestrutura básica de Computação em Nuvem, além de apresentar os diferentes

3.1 Criação do Cluster Cassandra O procedimento de criação e inicialização de um cluster Cassandra é a primeira parte a ser realizada. Configurar corretamente o ambiente necessário para a realização do trabalho. Um cluster Cassandra pode ser definido como uma estrutura organizada em formato de anel, composta por um conjunto de nós interligados, cada nó sendo representado por uma máquina virtual que possui intervalos de valores aos quais serão referenciados os dados. Cada nó, ao ser criado, deve ser configurado antes de ter a sua primeira inicialização. Após esta configuração, será selecionado todo o hardware ideal para cada nó, a fim de tirar melhor proveito na parte de leitura e escrita dos dados. Ao criar o Keyspace, que é o nome que é dado ao banco, é necessário definir a estratégia para a alocação da quantidade de réplicas a serem utilizadas pelos nós. Assim, distribuem-se réplicas da base de dados por esses nós. A infraestrutura de nuvem da Universidade Federal do Ceará Campus Quixadá será utilizada para o cluster Cassandra. A Figura 2 ilustra a criação de 3 nós que serão utilizados para o experimento, cada nó ficará responsável com um determinado intervalo de valores que simbolicamente é possível associar a um intervalo de 0 à 75. O primeiro nó estará com o intervalo de 0 a 25, o segundo com o intervalo entre 25 e 50, e o terceiro de 50 a 75 sendo os dados distribuídos por essas porções de intervalos. Isso é o tipo de particionamento Order Preserving Partioner que será explicado em seguida.


Para um melhor desempenho utilizando ao máximo os recursos oferecidos pelo Cassandra, realizou-se a análise dos benchmarks de dados disponíveis a fim de encontrar o melhor para as necessidades deste trabalho. Feito esta análise, o benchmark escolhido para ser utilizado nos experimentos foi o benchmark Yahoo Cloud Serving Benchmark (YCSB)[4].

Figura 2 – Estrutura do Cluster

YCSB é um cliente de teste de serviço na nuvem o qual realiza a leitura, escrita e atualização dos dados baseando-se no tipo de carga de trabalho especificada. A estrutura consiste de um cliente que gera uma determinada carga de trabalho[7], e um pacote padrão de carga de trabalho que atuam as partes interessadas no campo de atuação (carga de trabalho de leitura pesada, escrita pesada, etc). O YCSB provê uma ótima extensibilidade, pois o gerador de carga de trabalho permite que seja fácil definir novos tipos de carga de trabalho, como também adaptar o cliente para novos sistemas de dados do benchmark. Esse framework está disponível juntamente com a sua carga de trabalho em código aberto.

3.2 Particionamento dos Dados O particionamento que será utilizado para este trabalho é o OPP (Order-Preserving Partitioner), um tipo de particionamento fornecido pelo Cassandra que preserva a ordem dos dados ao serem distribuídos pelos nós do cluster. Ao ser realizado o particionamento, os dados estarão distribuídos entre os nós de maneira a manter a ordem sequencial, facilitando a recuperação das informações de uma determinada consulta. Porém devido a essa forma de distribuição dos dados, poderá gerar um desbalanceamento. Um determinado nó tenha muito mais dados, do que outro, causando um custo no processamento da consulta e consequentemente podendo ocasionar a violação do SLA. Devido a essa possível violação do SLA durante o processamento da consulta, faz-se necessário aplicar o monitoramento durante o processamento da consulta.

3.6 Realizar Experimentos para validar se o sistema está verificando corretamente o SLA de cada consulta Os experimentos serão realizados com um conjunto de consultas, que serão disponibilizadas pelo benchmark, através da realização de uma carga de trabalho, utilizando a proposta de monitoramento para verificar cada consulta. A partir do momento em que as consultas são processadas, é realizada a verificação dessas consultas de tal forma que se haja um percentual aceitável em que foram sejam processadas com sucesso, ou seja, dentro do tempo proposto pelo SLO. Por exemplo, um percentual de 90% das consultas monitoradas sejam processadas dentro do tempo acordado no SLO. A seguir será apresentado um estudo de caso para ilustrar a solução proposta.

3.3 Escolha do tipo de consulta a ser dada de entrada Diante das observações quanto à forma que os dados estarão dispostos na insfraestrutura do cluster Cassandra, o tipo de consulta[11] escolhida foi select-range. Um exemplo desse tipo de consulta é: select * from tabela where atributo1 >=0 and atributo1<=100. Consultas select-range apresentam a condição WHERE envolvendo um determinado intervalo de valores de um atributo, pelo menos, para a recuperação dos dados. 3.4 Elaborar uma estratégia de monitoramento Durante o processamento da consulta, existe a necessidade de verificação constante do tempo de resposta proposto no SLA com o tempo corrente do processamento a fim de evitar que seja violado. Para isso será proposto a elaboração de uma estratégia de monitoramento a fim de evitar a violação do SLA. Esse monitoramento é feito verificando o tempo corrente do processamento da consulta e comparando com o tempo de resposta proposto no SLA. Caso seja previsto a violação, a consulta é particionada e redistribuída entre mais máquinas. 3.5 Definir Benchmark NoSQL para experimentos

IV. ESTUDO DE CASO O estudo de caso baseia-se em um cenário que contém um banco de dados criado no Cassandra nomeado de UserTable, possuindo uma única tabela chamada de Data, ou família de coluna que é mais adequado ao paradgima NoSQL. Após a criação desse banco de dados, é necessário a realização da instalação do benchmark YCSB(Yahoo Cloud Serving Benchmark) para gerar cargas de trabalho, contendo cada qual uma quantidade de dados, adequada para o modelo chave/valor que constitui o Cassandra. Os dados gerados pela carga de trabalho utilizada no experimento são formadas por um conjunto de chaves contendo um texto e o valor um número aleatório em hexadecimal, armazenados na tabela Data contendo inicialmente 100. Novas cargas podem ser geradas de acordo com a necessidade ter mais dados. O particionamento aplicado sobre os dados determina a maneira como eles estarão dispostos entre as máquinas virtuais quem compõem o cluster Cassandra. O particionamento que será aplicado é o OPP. Esse tipo de particionador preserva a ordem original dos dados, ao tempo que vão se distribuindo pelo cluster.


Dada uma determinada consulta do tipo select-range e a métrica do SLA a ser atendida é o tempo de resposta da consulta. Considere que a consulta deve ser executada em pelo menos 10s. A consulta select-range é ilustrada abaixo:

Select * From Data D where D.valor >=0 and D.valor <100

Considere que a consulta anterior tenha seletividade igual a 100 tuplas (valor nesse caso pode ser um atributo que é chave primária) e o desempenho das máquinas do cluster Cassandra seja de 5 tuplas/segundo para leitura. De acordo, com o tempo acordado utilizando apenas uma máquina seria possível recuperar apenas 50 tuplas. Nesse caso, seria necessário mais tempo para retornar todas as 100 tuplas. Isso ocasionaria a violação do SLA durante o processamento da consulta, assim é importante que a consulta não seja processada apenas por uma máquina, nesse caso ela deve ser particionada. Considerando agora o particionamento da consulta em três novas consultas, por conta da disponibilidade de três máquinas e os dados estarem particionados e distribuídos entre elas, pode-se agora realizar uma nova estimativa do tempo de recuperação do conjunto de tuplas. As novas consultas após o particionamento são ilustradas abaixo:

Select * From Data D

máquina 2 e a terceira para a máquina 3, considerando as mesmas 100 tupla e o desempenho de leitura de 5 tuplas/segundo de cada máquina. Com cada uma seria possível recuperar as tuplas propostas por cada consulta, a primeira máquina recuperando 35 tuplas, a segunda máquina 40 tuplas e a terceira 25 tuplas, todas dentro do tempo proposto pelo SLO de 10s, evitando a violação do SLA. V. Conclusão Neste artigo foi apresentado uma proposta para o processamento de consultas no Cassandra, juntamente com o monitoramento aplicado em cada operação, de tal sorte a evitar a violação do SLA proposto para cada uma. Foi mostrado um estudo de caso com uma solução para o caso do processamento de um tipo de consulta escolhido (selectrange), dado um SLO. Desde a carga de dados gerada, juntamente com os dados particionados e os cenários de cada forma que a consulta poderá ser processada. Como trabalhos futuros visa implementar o algoritmo de monitoramento, de tal forma que ao prever uma possível violação do SLA, baseado no desempenho de leitura das máquinas e no valor do tempo de resposta acordado no SLA. VI. REFERÊNCIAS [1] COELHO DA SILVA, Ticiana L, Mario A. Nascimento , José Antônio F.de Macêdo, Flávio R.C. Sousa, Javam C. Machado , Non-Intrusive Elastic Query Processing in the cloud, Journal of Computer Science and Technology vol. 28, pp. 932-947 , November 2013 http://link.springer.com/article/10.1007%2Fs11390-013-1389-2

[2] SOUSA, Flávio R. C; MOREIRA, Leonardo O.; SANTOS, Gustavo A. C ; MACHADO, Javam C. Quality of Service for DataBase in The Cloud. In: Internacional Coference on Cloud Computing and Services Science(Closer),2012,v.1,pp.595-601,1http: //qosdbc.sourceforge.net/qosdbc.pdf

[3] HEWITT, Eben. Cassandra: the definitive guide. O'Reilly Media, 2010

where D.valor >=0 and D.valor <35 [4] COOPER, Brian F. et al. Benchmarking cloud serving systems with YCSB. In: Proceedings of the 1st ACM symposium on Cloud computing. ACM, 2010. p. 143-154. Disponível em: <http:// ipij.aei.polsl.pl/djangomedia/lecture_file/ycsb.pdf>

Select * From Data D where D.valor >=35and D.valor <75

[5] DATASTAX,

Documentacion Cassandra 2.0. ,2014. http://www.datastax.com/documentation/cassandra/2.0/cassandra/getting StartedCassandraIntro.html?q=/documentation/cassandra/2.0/webhelp/u pgrade/cassandra/cassandra/install/installJnaTar.html

[6] LAKSHMAN, Avinash; MALIK, Prashant. Cassandra: a decentralized Select * From Data D where D.valor >=75 and D.valor <100

structured storage system. ACM SIGOPS Operating Systems Review, v. 44, n. 2, p. 35-40, 2010. Disponível em : < http://dl.acm.org/citation.cfm?id=1773922> .

[7] BRIANFRANKCOOPER, Running a Workload , https://github.com/brianfrankcooper/YCSB/wiki/Running-a-Workload

[8] SOUSA, Flávio RC; MOREIRA, Leonardo O.; MACHADO, Javam C. Neste cenário existem três novas consultas, sendo a primeira direcionada para a máquina 1, a segunda para a

Computação em nuvem: Conceitos, tecnologias, aplicações e desafios. Ceará: Universidade Federal do Ceará, 2009. Disponível em: http://www.lia.ufc.br/~flavio/papers/ercemapi2009.pdf


[9] Strauch, Christof, Ultra-Large Scale Sites, and Walter Kriha. "NoSQL databases." Lecture Notes, Stuttgart Media University (2011). http://home.aubg.bg/students/ENL100/Cloud%20Computing/Research% 20Paper/nosqldbs.pdf

[10] FEATHERSTON, Dietrich. Cassandra: Principles and application. University of Illinois, v. 7, p. 28, 2010. http://disi.unitn.it/~montreso/ds/papers/Cassandra.pdf

[11] Cassandra Query Language (CQL) v3.1.7 https://cassandra.apache.org/doc/cql3/CQL.html

[12] Wu, Linlin, and Rajkumar Buyya. "Service level agreement (SLA) in utility computing systems." arXiv preprint arXiv:1010.2881 (2010). http://arxiv.org/pdf/1010.2881v1.pdf



Avaliação de Técnicas Voltadas para a Modelagem de Personagens Virtuais [BLIND REVIEW]

Abstract—This paper presents a study that evaluates the application of psychological aspects in modeling characters for virtual games. The goal is to determine how the physical and psychological aspects of the characters directly impact the bond between the player and the character or game. For evaluation purposes, a virtual character, considering some of the classics available knowledge and the target audience for each of these rules was drawn up. The results show that some of the characteristics directly influence the attraction of players from specific target audiences to hold the attention of those in a given game. Keywords—Psychology, Characters, Modelling, Games.

Resumo—Este artigo descreve um estudo no qual avalia-se a aplicação de aspectos psicológicos na modelagem de personagens para jogos virtuais. O objetivo é determinar como os aspectos físicos e psicológicos dos personagens impactam diretamente no vínculo entre o jogador e o personagem ou jogo. Para fins de comprovação da pesquisa, foi elaborado um personagem virtual, considerando algumas dos conhecimentos clássicos disponíveis e o público-alvo de cada uma dessas regras. Os resultados apontam que algumas das características influenciam diretamente na atração de jogadores de públicos-alvo específicos para prender a atenção dos mesmos em determinado jogo. Palavras-chave—Acessibilidade; Informação.

Internet;

Tecnologia

da

I. INTRODUÇÃO O processo de criação de personagens para ambientes virtuais implica em uma importante etapa na construção de jogos digitais e animações por computador, devido à grande participação que os personagens oferecem ao espectador com o papel de despertar o interesse e prender a atenção do possível jogador ao jogo proposto. Pela sua importância, a criação de personagens constitui um forte e recorrente tema em diversas linhas de pesquisa, as quais visam determinar quais são os padrões e diretivas exigidos para a modelagem de personagens, de forma a aproximá-los do público-alvo desejado. Nesse cenário, vários trabalhos sugerem a aplicação de questões físicas e psicológicas relacionadas diretamente ao contexto proposto pelo jogo ou filme na criação desses personagens, representando esses aspectos no modelo gerado.

Apesar dos estudos terem progredido bastante nessa área e da criação de diversas regras para a criação de personagens, a falta de um padrão para a construção de modelos relacionados diretamente ao seus públicos-alvo ainda apresenta-se como um grande desafio a ser superado. Diversos fatores influenciam a elaboração de um padrão voltado para a modelagem de um personagem, como o sexo, a idade e o estilo de vida. Portanto, o primeiro passo para a criação de um padrão para a modelagem de personagens é determinar qual a influência de cada regra na atenção despertada nos potenciais jogadores. Esse resultado permite aos profissionais definir a correta mensagem a ser transmitida visualmente pelos seus atores virtuais durante a sua modelagem. Visando contribuir no processo de desenvolvimento de um padrão de criação de personagens para jogos digitais e animações por computador, este artigo apresenta um estudo no qual determinou-se o impacto das regras que são normalmente utilizadas na construção de personagens virtuais. Acredita-se que a melhor análise dessas regras ajude na definição de um padrão voltado para o processo de modelagem de personagens. Este trabalho está estruturado de modo que a Seção 2 apresenta alguns dos trabalhos estudados sobre a área de modelagem de personagens em jogos digitais, seguido de uma visão geral sobre os principais aspectos psicológicos na construção de personagens na Seção 3. Dando-se sequência, a Seção 4 apresenta o personagem desenvolvido como estudo de caso, e os dados recolhidos a partir da avaliação desse modelo. A Seção 5 transmite os resultados obtidos a partir da análise dos usuários do personagem e regras utilizadas assim como a última seção expõe as principais conclusões derivadas deste trabalho, bem como possíveis direções de trabalhos futuros. II. TRABALHOS RELACIONADOS A descoberta de fundamentos que auxiliam a modelagem de personagens é uma extensa linha de pesquisa de diversos pesquisadores, os quais procuraram importantes conceitos a respeito da forma de se pensar em retratar um personagem. Um exemplo está em [7], que ressalta a existência da possibilidade de exploração sobre as propriedades gráficas de um personagem considerando somente a importância desse ator para o cenário no qual encontra-se inserido. Em [1], o autor sugere que as orientações gráficas aplicadas na criação de diferentes personagens possuam características e estilos parecidos.


A face humana e suas diversas expressões também são alvo de pesquisas na área de concepção de personagens. Em [6], o autor destaca que o desenvolvimento de uma face humana para ambientes virtual deve considerar as várias emoções e traços de expressões que será representado durante o jogo ou animação. Essa representação facial pode ser construída a partir de um modelo genérico, através da captura das imagens frontal e lateral de uma pessoa, ou da modelagem manual das expressões tomando-se como base fotografias das expressões. Nesse processo, não deve-se considerar somente a modelagem aparente, mas também propriedades internas, como ossos, músculos e pele. Na área das modelagens voltadas para jogos digitais, [4] acreditam que o personagem é uma figura utilizada para a narração de histórias dramáticas. Devido à complexidade e importância, os autores propõem a divisão do processo de desenvolvimento de personagens em etapas. Na primeira, se estabelece as possíveis características do personagem. Em seguida, uma equipe discute sobre as propriedades inerentes a esse ator, considerando as diversas variações existentes em um jogo, como a época na qual se passa o jogo, o tipo do jogo e o seu público-alvo. Em [14], um simulador de transplante de órgãos foi concebido, abordando todas as etapas envolvidas nesse processo, iniciando da fila de espera até a operação na mesa de cirurgia. A proposta da autora é estimular e ensinar o jogador através da vivência de eventos diários relacionados a esse profissional. III. ASPECTOS FÍSICOS E PSICOLÓGICOS DOS PERSONAGENS A construção de um personagem é um processo segmentado em duas etapas [3]. Na primeira, é determinado qual será o estilo do futuro personagem, de acordo com a proposta do jogo. A partir dessa definição, o próximo estágio é se dedicar a pensar sobre todos os fatores físicos, como idade, tamanho e porte, e psicológicos, tais como humor, modo de agir e gestos que irão compor o personagem. Esses fatores são definitivos na reação de aceitação dos jogadores perante o personagem modelado.

conhecimento. Nesse contexto, a percepção de suas características possibilita o aprendizado do espectador de forma rápida e divertida, graças a forte interação entre eles ocorrida. Esses personagens são inseridos em jogos sérios que auxiliam o jogador no aprendizado de algo para o qual foi desenvolvido [10]. Assim, diversos fatores mostram que a criação do modelo de personagem consiste em um processo que contempla não somete aspecto físico, mas o conjunto formado por aparência e psicológico. Essa combinação é fundamental para o sucesso e aceitação do modelo pela sua audiência, além de colaborar com o desenvolvimento da história no jogo em questão. Consequentemente, a correta noção do impacto de cada um desses aspectos pode permitir a definição de um padrão a ser seguido no desenvolvimento de personagens para utilização em ambientes de realidade virtual. IV. EXPERIMENTO Para demonstrar as principais regras e aspectos utilizados na criação de personagens, foi desenvolvido um modelo virtual tridimensionais (3D), através do uso da ferramenta de modelagem Blender [2]. O personagem proposto combina aspectos físicos e psicológicos que atendem aos gostos de um determinado público-alvo. Os aspectos físicos trabalhados focam principalmente no porte do personagem e na aparência física, enquanto as propriedades psicológicas trabalhadas atuam na coloração do personagem e na sua expressão facial. Essa junção resulta na presença de algumas características marcantes, as quais causam impacto imediato ao tipo de jogador para o qual foi projetado

Levando-se em conta a história da qual participará o personagem [13], os modelos sugeridos podem ser humanoides, que são personagens que se parecem com seres humanos tanto fisicamente quanto em seu comportamento ou não humanoides, assim chamados os personagens que não são possuem em suas características, nada que referenciem aos humanos, como é o caso de animais ou máquinas. Também é possível a criação de personagens dito híbridos, que são uma mistura dos dois tipos anteriores, como centauros, faunos, minotauros, etc. Adicionalmente, o humor do personagem pode gerar um grande impacto em suas características físicas, devido à relação direta entre esse comportamento e as expressões físicas por ele realizadas. Personagens com humor possuem traços físicos de pessoas felizes, enquanto atores sem humor apresentam visual fechado e expressões reservadas. Personagens virtuais também são utilizados como ferramentas no processo de aprendizado nas várias ciências do

. Figura 1: Personagem voltado ao público adulto.


O personagem modelado para esse experimento, exibido na Figura 1, foi pensado para o público adulto, utilizando em sua construção, alguns aspectos frequentemente utilizados em jogos e animações voltadas para esse público. Nesse personagem, pode ser visto uma anatomia proporcional ao de um ser humano, com músculos bem definidos, cabeça raspada e membros aparentemente reais. Essas características ressalvam um importante conceito na modelagem de personagens para públicos mais velhos: a importância da amostragem de um corpo perfeito atribuído pela sociedade atual.

Para o personagem em questão, os aspectos modelados permitiram aos entrevistados classificar o modelo conforme o público-alvo planejado. Na validação dos aspectos psicológicos presentes no personagem modelado, o modelo demonstrou um certo equilíbrio entre os sentimentos de desconfiança, rejeição e curiosidade conforme a avaliação dos participantes (Figura 4). Esses resultados sugerem que as características combinadas na modelagem do personagem para o público adulto, possibilitou transmitir a correta sensação para o espectador.

Ainda assim, alguns acessórios reforçam a qual público o personagem foi modelado. O personagem apresenta uma espada e uma leve cicatriz no braço esquerdo, demonstrando uma relação desse modelo com jogos e filmes de ação ou aventura. Como características totalmente distintas, o conceito de guerreiro transmitida pelo modelo, acaba sendo deixado de lado quando percebemos as suas roupas como calça e sapatos, que também compõem o visual do personagem, visando verificar a influência desses objetos na percepção final pelo público adulto. V. RESULTADOS E DISCUSSÃO

Figura 2: Aspecto mais relevante do modelo proposto.

A partir do desenvolvimento do personagem, realizou-se uma avaliação com alguns estudantes universitários para determinar o impacto sobre o público-alvo, referente aos aspectos utilizados durante o processo de criação do modelo desenvolvido para este estudo. Para poder avaliar a percepção e opinião dos jogadores referente ao modelo desenvolvido, um questionário foi aplicado entre os universitários que participaram da avaliação após a apresentação do personagem. Esse questionário apresentou quatro questões objetivas, as quais abordaram a visão do entrevistado acerca de determinadas características de cada personagem. No total, 15 universitários com idades entre 19 a 32 anos foram entrevistadas. As Figuras 2 a 5 apresentam os gráficos de distribuição das respostas levantadas.

Figura 3: Percepção de público-alvo para o modelo proposto.

A. Resultados Ao avaliar os resultados obtidos através do questionário, 60% dos entrevistados informaram que o que mais chamou atenção referente ao modelo apresentado foi o seu físico (Figura 2). Para o personagem apresentado, apesar da presença da arma e das roupas nada comuns para um guerreiro, o aspecto que mais chamou atenção foi o físico, indicando a relação direta entre essa característica e o público adulto. A partir desses resultados, é possível verificar quais as características que mais chamam a atenção de determinado público-alvo e a quais estão diretamente associadas ao dia-a-dia dos participantes dessa pesquisa. Em relação a percepção de público-alvo do personagem por parte dos entrevistados, 77% afirmam que o personagem criado é de fato voltado para o público adulto (Figura 3).

Figura 4: Percepção de sentimento para o modelo proposto.


Por fim, a questão relativa ao possível local no qual o personagem está inserido foi a única na qual quase todos os participantes selecionaram o contexto esperado durante a modelagem do personagem. Nesse item, como mencionado anteriormente, 93% dos entrevistados contextualizaram o personagem, está envolvido em alguma história de ação (Figura 5).

físicos exalam grande importância na visualização do público que é atraído para o mesmo. Da mesma forma, os aspectos psicológicos são altamente motivados perante ao grande impacto causado pela fisionomia apresentada, prendendo assim a atenção do nosso público-alvo ao personagem, levando-os ao envolvimento mais profundo com o mesmo e posteriormente criando uma espécie de afinidade utilizando dos aspectos psicológicos do personagem para que se assemelhem com o gosto do público. Como trabalhos futuros, planeja-se realizar testes com novos modelos, aplicando em novos personagens os novos conhecimentos adquiridos, assim como o aperfeiçoamento dos modelos aqui trabalhados. Pretende-se também a inserção dos personagens em cenários distintos para verificar a veracidade dos fatos que referenciam o físico do personagem com o meio em que o mesmo se encontra. REFERÊNCIAS

Figura 5: Percepção do contexto para o modelo proposto.

[1] [2]

De acordo com a pesquisa com os universitários, todas as características aplicadas no personagem conseguiram de fato atingir idealmente o público esperado, apesar do uso de alguns recursos de contraste, como as suas roupas.

[3]

B. Reflexões Ainda que o processo de construção de um personagem seja uma atividade ainda difícil de ser padronizada para a grande maioria dos profissionais da área, o experimento apresentado contribuiu para a obtenção de diferentes pontos a serem considerados sobre a modelagem de personagens virtuais.

[5]

O primeiro fato observado foi acerca da influência das roupas utilizadas pelo personagem em diferentes públicos. Pode-se observar também que simplesmente inserindo acessórios pode não ser suficiente para inserir um determinado personagem em um contexto desejado, como o caso da arma, a espada que o modelo proposto leva consigo. Portanto, sugerese que a inclusão de acessórios seja embasada em um estudo tão sólido quanto os aspectos definidos durante a concepção inicial do personagem. Entender o comportamento atual da plateia para a qual o personagem será desenvolvido é outro ponto de primordial importância no processo de aceitação do modelo. A falta de estudo acerca dos costumes do público-alvo será definitiva para que se leve ao fracasso da aceitação do personagem pelo espectador. VI. CONCLUSÃO Esse estudo procurou mostrar que pode ser sim definido um padrão para a criação de personagens para filmes e jogos digitais. Ao ser apresentado dois modelos distintos pôde ser observado e confirmado perante uma pesquisa efetuada com diferentes participantes de diferentes idades, que aspectos

[4]

[6] [7] [8]

[9]

[10]

[11]

[12]

[13]

[14]

Blair, P. “Cartoon animation”. Walter Foster Publishing, 1995. Blender Foundation. Blender Documentation. Acesso em 07 de Janeiro de 2014, disponível em Blender.org: http://www.blender.org/download/documentation/ Diehl, D. M., Melco, M. T., Dubiela, R. “Modelo de criação de personagens para jogos digitais”. In: Proceedings of the X Brazilian Symposium on Computer Games and Digital Entertainment (SBGames), 2014. Fullerton, T., Swain, C., Hoffman, S. “Game design workshop: Designing, prototyping, & playtesting games”. CRC Press, 2004. Gurgel, I., Padovani, S. “Processo de Criação de Personagens: Um Estudo de Caso no Jogo Sério SimGP”. In: Proceedings of the V Brazilian Symposium on Computer Games and Digital Entertainment (SBGames), 2006. Martini, M. “Proposta de uma modelagem de faces virtuais baseadas em um modelo 3D genérico”. CDEC da Computação, 2007. McCloud, S. “Desvendando os Quadrinhos”. M. Books Editora do Brasil, 1993. Moretti, M. “Framework para geração de personagens humanoides 3D para jogos computacionais”. Monografia de Graduação, Universidade do Extremo Sul Catarinense, 2010. Neto, J. R. P. “Framework para geração de personagens humanoides 3D para jogos computacionais”. Monografia de Graduação, Universidade Federal de Pernambuco (UFPE), 2009. Pontes, H. P. “Desenvolvimento de Jogos no Processo de Aprendizado em Algoritmos e Programação de Computadores”. In: Proceedings of the XII Brazilian Symposium on Computer Games and Digital Entertainment (SBGames), 2013. Poubel, A. E. P., Valente, T. E. J., Garone, P. M. C. “O processo semiótico de criação de um personagem de jogo”. In: Proceedings of the XI Brazilian Symposium on Computer Games and Digital Entertainment (SBGames), 2012. Soares, K. I., Manfroi, J. “Personagens ilustrados: Criação para uso na comunicação empresarial”. Revista Philologus, 19 (55), p. 580-596, 2013. Takahashi, P. K., Andreo, M. C. “Desenvolvimento de Concept Art para Personagens”. In: Proceedings of the X Brazilian Symposium on Computer Games and Digital Entertainment (SBGames), 2011. Werhmuller, C. M. “Realidade Virtual Aplicada ao Treinamento do Processo de Doação de Órgãos e Transplantes”. Revista SINERGIA, 9 (2), 126-135, 2008.


Cloud Gaming: Um comparativo entre OnLive e GameNow Gustavo Lima Gonçalves de Oliveira¹ ¹Instituto Federal de Educação, Ciência e Tecnologia IFCE, gustavo.it@outlook.com Resumo Com o mercado de vídeo games em ascensão somado a crescente necessidade e disponibilidade da internet surge uma nova possibilidade no mercado. Conforme a disponibilidade e qualidade da internet aumentam, a possibilidade de usar um sistema de computação na nuvem voltado para jogos só cresce. Esse novo tipo de serviço da nuvem, chamado hoje de “cloud gaming” já existe e está se tornando cada vez mais popular conforme aumentam os requisitos e preços de hardware necessários para se jogar um determinado jogo. Tendo em vista que é apenas uma questão de tempo até que esse novo serviço se torne presente em nosso cotidiano, este artigo tratará de explicar o funcionamento deste sistema e irá fazer um comparativo entre duas ferramentas de cloud gaming. Palavras Chaves: Cloud gaming, cloud computing, game on demand. Abstract With the market for video games on the rise plus the increasing need and availability of the internet comes a new opportunity in the market. As the availability and quality of the Internet increases, the possibility of using a system of cloud computing focused on games only increases. This new type of cloud service, now called "cloud gaming" already exists and is becoming increasingly popular as the increase requirements and prices of hardware needed to play a particular game. Considering that it is only a matter of time until this new service becomes present in our everyday life, this article will try to explain the workings of this system and will do a comparison between two tools for cloud gaming. Keywords: Cloud gaming, cloud computing, game on demand, streaming. 1. Introdução O mercado de vídeo games está em ascensão desde sua criação e uma prova do tremendo sucesso de jogos virtuais é o recorde [1] de vendas de “GTA V” (Grand Treft Auto V) da empresa RockStar que chegou ao lucro de 800 milhões de dólares apenas em seu primeiro dia de vendas. Com um mercado tão promissor, novas ideias acabam por surgir todos os dias e uma dessas ideias é chamada de cloud gaming que nada mais é do que a utilização dos serviços já existentes de computação na nuvem voltada para os jogos virtuais. Atualmente com o crescimento e popularização da internet juntamente com o encarecimento de vídeo games e de computadores voltados para esse propósito, o uso de jogos sempre disponíveis na internet é algo tentador já que não há a necessidade de um hardware potente, especifico e nem de processos de instalação difíceis e demorados, tudo que é necessário para a plataforma de cloud gaming é um dispositivo conectado à internet para que se possa jogar. O conceito de cloud gaming pode ser algo que está apenas dando seus primeiros passos, porém já existem empresas que fazem uso dessa tecnologia como por exemplo a OnLive [2], Gaikai[3] e GameNow[4], sendo que essa segunda foi


adquirida recentemente pela Sony [5] que usará a nuvem para portar jogos do Playstation 3 para o Playstation 4 e futuramente para outras plataformas, isso comprava que o sistema de cloud gaming irá se tornar extremamente popular. Neste contexto, este artigo tem como objetivo realizar um comparativo entre dois sistemas de cloud gaming, no qual um utiliza o protocolo TCP – GameNow e o outro o protocolo UDP – Onlive. Este artigo será dividido em cinco seções. Na primeira será feito um referencial teórico sobre o assunto. Na segunda seção será citado o método usado para efetuar as análises dos sistemas. Na terceira seção são apresentadas as ferramentas e os resultados obtidos em cada uma. Na quarta seção é feita uma avaliação dos resultados obtidos em cada ferramenta, e na última seção temos a conclusão do artigo. 2. Referencial Teórico 2.1. Cloud Computing Para que possa ser entendido sobre cloud gaming devemos primeiramente falar sobre computação na nuvem. Cloud computing ou computação na nuvem é consistido da utilização de recursos de computação, tanto hardware como software, que estão disponíveis em um local remoto e acessíveis através de uma rede [6]. Em cloud computing são conhecidos alguns modelos de serviços que são disponibilizados por muitas empresas no mercado, cada um abrangendo determinado serviço. São mostrados abaixo os serviços mais comuns:  Software como um serviço (SaaS) Entende-se como SaaS a capacidade de usar um software através de uma rede de forma a utiliza-lo como um serviço [7, 8], dessa forma você não iria ter que obter a licença do software, mas apenas usá-lo quando fosse necessário, tendo que ser paga uma taxa por utilização invés de obter uma licença vitalícia. Basicamente SaaS seria a capacidade de acessar softwares remotamente.  Armazenamento de dados como um serviço (dSaaS) Já o dSaaS trata-se de um serviço de armazenamento de dados, no qual uma empresa cede espaço de armazenamento para que uma pessoa física ou jurídica possa armazenar seus arquivos e possa acessa-los de qualquer lugar ou plataforma desejada [8, 9].  Infraestrutura como um serviço (IaaS) Aqui têm-se a forma mais bruta de serviço de computação na nuvem, nesse caso o que é entregado pela empresa contratada é o próprio ambiente computacional, dessa forma o cliente é capaz de administrar diversas máquinas virtuais da forma que achar melhor [8, 9].  Plataforma como um serviço (PaaS) Porém no PaaS já é disponibilizado um ambiente pré-definido pela empresa contratada. Diferente do IaaS onde poderia ser feito qualquer alteração no ambiente, aqui já é cedida uma máquina virtual que possuí sistemas operacionais e aplicativos específicos [7, 8]. Apesar de já termos todos esses serviços, o serviço de cloud gaming não se encaixa completamente em nenhum deles, pois para a utilização de jogos na nuvem serão necessários tanto a utilização de software como um serviço já que o um jogo será rodado diretamente de um servidor na nuvem, armazenamento de dados como um


serviço já que alguns dados terão que ser guardados, como por exemplo as configurações feitas por um usuário em determinado jogo, assim como o seu progresso em cada jogo. Desta forma temos o surgimento de cloud gaming como um novo serviço de computação na nuvem. 2.2. A arquitetura do serviço de cloud gaming Por se tratar de um serviço de cloud computing, o esquema da arquitetura será bastante parecida com os outros serviços que são oferecidos em sistemas que trabalham com computação na nuvem. A estrutura organizacional vai ser constituída de basicamente três partes, sendo elas: O cliente, que se trata do equipamento que está na casa do usuário. Um portal de servidores, que irá em um primeiro momento, conectar o equipamento do usuário com o terceiro componente, os servidores de jogos, que são os servidores onde basicamente irá ser feito a maior parte do processamento dos jogos. Na figura 1 localizada logo abaixo teremos um esquema que exemplifica melhor esses três componentes.

Figura 1: Esquema da arquitetura do serviço de cloud gaming. Num caso ideal de cloud gaming o melhor modelo a ser escolhido seria um em que o cliente fosse um software capaz de ser usado em diversos dispositivos, tablets, celulares, computadores e quaisquer outros dispositivos capazes de se conectar na internet preferencialmente através da rede wireless e cabeada, já que nesses dois casos têm-se uma conexão boa o suficiente para que não haja problemas de atrasos devido à baixa velocidade da internet. Dessa forma o cliente poderia aproveitar ao máximo a característica do sistema de computação em nuvem, que é o acesso em qualquer lugar, através de qualquer aparelho. O processo se iniciaria quando o cliente efetuasse login no portal server através do software instalado, este servidor então, depois de ter confirmado as credenciais do


cliente irá mostrar uma lista dos jogos disponíveis na biblioteca dos jogos armazenados previamente nos servidores. O cliente então escolhe o jogo que deseja usar, o portal server reconhece o jogo, encontra um game server disponível e então envia o endereço daquele servidor para o cliente, e este por sua vez recebe o endereço do servidor, o cliente se conecta ao game server e então começa a jogar. Depois que se estabelece uma ligação entre o cliente e o servidor de jogos eles começam a se comunicar diretamente, sem haver mais a necessidade das informações serem repassadas ao servidor de jogos pelo portal servidor. Logo abaixo na figura 2 temos uma imagem que mostra o fluxo de dados entre o cliente e o servidor de jogos.

Figura 2: Fluxo de dados entre o cliente e o game server. Como é mostrado na figura é dividido o fluxo de dados em duas categorias: Control flow seria o tráfego de dados do cliente para o game server, esse tráfego de dados seria constituído por comandos de teclados ou joysticks enviados pelo cliente para controlar os eventos do jogo. Ao receber os comandos do cliente irá rodar o programa de acordo com os comandos inseridos pelo cliente, depois de fazer essa interação entre os comandos e o jogo, o game server irá tirar vários frames (quadros) que irão mostrar o atual processo do jogo, esses frames serão comprimidos e enviados juntamente com o áudio do jogo para o cliente, e é a esse tráfego de dados de áudio e vídeo do game server para o cliente que atribuímos de data flow. Através da observação da divisão dos dados, percebe-se que o cliente serve basicamente para se conectar ao game server e a partir daí ele irá ter como função somente a de exibir os frames e áudio processados pelo servidor e de enviar os comandos para este. Devido a essa simplicidade de funções do cliente se torna fácil a implementação do sistema, pois o desenvolvedor pode se concentrar mais na implementação do game server já que o único requisito que o cliente deverá possuir será o de poder se conectar a uma rede de alta velocidade e de exibir vídeos [10, 11, 12].


2.3. Stream de vídeo e codificação Normalmente em um sistema de cloud gaming os comandos efetuados por um usuário são enviados pela internet para um servidor dedicado que irá processar esse comando e fazer streaming do vídeo de volta para o usuário, esse processo pode ocasionar certos atrasos. Dependendo de que jogo o usuário final estará jogando a tolerância para o atraso será diferente, jogos de FPS (first person shooter ou tiro em primeira pessoa) tendem a fazer com que o jogador tenha menos tolerância a atrasos, pois esse tipo de jogo necessita de dinamismo e agilidade e cada milissegundo faz toda a diferença. Porém em jogos de RTS (real time strategy ou estratégia em tempo real) a tolerância para atrasos será bem maior, pois nesse tipo de jogo a pessoa que está jogando terá que gerenciar diversas coisas ao mesmo tempo, dessa forma os atrasos irão causar menos estragos já que não se trata de um tipo de jogo ágil. O streaming de vídeo de cloud computing é bastante semelhante ao de shows que estão sendo assistido ao vivo, pois nos dois casos os quadros de vídeo recebidos têm que ser codificados e comprimidos de forma rápida para serem transmitidos ao usuário sem sofrer atrasos, e nos dois casos não se tem acesso aos quadros que serão transmitidos posteriormente antes de eles serem produzidos, dessa forma a codificação tem que ser feita em poucos milissegundos. Apesar de serem semelhantes, o streaming de vídeo em cloud gaming tem diferenças críticas se comparado ao streaming de um show ao vivo, e a principal diferença é a impossibilidade de se usar um buffer no cliente em cloud gaming, já que a resposta do comando do usuário tem que ser dada em aproximadamente 200ms [13] para que o usuário não note o atraso, não há uma margem para a utilização de um buffer. Esse pouco tempo de codificação de vídeo faz com que a escolha do codificador do vídeo seja algo de extrema importância, atualmente o maior provedor de cloud gaming OnLive utiliza versões dos codificadores H.264/MPEG-4 AVC [14]. A escolha do codificar H.264 é motivada pelo fato de além de ele ter uma taxa de compressão muito alta, ele também pode ser configurado para funcionar bem com rigorosas exigências em tempo real [15].

3. Métodos Para que fosse feita a análise dos sistemas de cloud gaming Onlive e GameNow, tevese que escolher um jogo que estivesse disponível nos dois sistemas. O jogo escolhido foi o Batman: Arkham City [16], este mesmo foi selecionado por gozar de uma qualidade gráfica bastante atual, precisando assim de um hardware poderoso para ser processado, dessa forma podendo-se mostrar o potencial do processamento de jogos na nuvem, e também por sua jogabilidade, já que em várias lutas do jogo são necessários comandos precisos para efetuar contra ataques. Para analisar os pacotes transferidos e os protocolos utilizados por cada sistema foi utilizado o software Wireshark [17] em sua versão 1.10.7. Também foi utilizado o software MSI Afterburner [18] para medir os a taxa de quadros por segundos (FPS - frames per second) dos dois sistemas, e para fazer capturas da tela para que fosse feita uma análise da qualidade da imagem apresentada por cada sistema. Os dois sistemas foram analisados no andamento do jogo durante aproximados 20 minutos, foi utilizado um notebook convencional com processador Intel core I5, disco rígido de 160 GBytes de 5200 RPM, 4 GBytes de memória RAM, placa de vídeo AMD Radeon HD 7400m, sistema operacional Windows 8.1 e o acesso à internet é provido por uma conexão por fio com velocidade máxima de 11 Mb/s de download e 0.87 Mb/s de


upload, desta forma as especificações citadas superam os requisitos recomendados tanto pela Onlive quanto GameNow. 4. Resultados obtidos 4.1. Onlive Lançado em 2010, Onlive oferece um dos melhores serviços de cloud gaming disponíveis no mercado atual. Ainda no início de 2014 o sistema passou por uma remodelação e agora oferece muitos mais serviços e uma nova interface [19]. Agora o sistema funciona com dois tipos de serviços: uma sendo o “PlayPack”, que funciona semelhante ao Netflix, paga-se uma taxa mensal e durante o mês tem-se acesso a toda a biblioteca de jogos disponíveis. O segundo é o “CloudLift”, onde o sistema reconhece os jogos que você comprou anteriormente, e caso esse jogo seja compatível, ele ficará disponível juntamente com seu perfil nos servidores da Onlive. Apesar de oferecer a disponibilidade de seu sistema em PC’s, tablets e TV’s, neste artigo será analisado seu desempenho em seu aplicativo para PC.

Figura 3: Tela inicial do aplicativo da Onlive no PC. Para se usar seu aplicativo no desktop não é necessário esperar muito tempo para efetuar o download ou a instalação, com um pouco mais de 3 minutos o serviço estará instalado no computador e pronto para uso. O sistema apresenta um design moderno e intuitivo, fazendo assim a navegação ser fácil e agradável. Para fazer a análise deste sistema o software Wireshark foi executado e ficou capturando os pacotes ao decorrer de 20 minutos enquanto o jogo Batman: Arkham city estava sendo jogado. Após analisar os dados capturados pelo Wireshark foi possível identificar os protocolos utilizados pela Onlive, primeiramente o sistema utiliza o protocolo TCP para fazer a autenticação do cliente no servidor de autenticação da Onlive, porém depois desta autenticação todo o trafego de dados é através do protocolo UDP. Uma sábia decisão, já que na fase de autenticação não há uma necessidade deste processo seja efetuado em menos de 10/20 segundos, já que a autenticação acontece somente uma vez a cada sessão


efetuada, não existe necessidade de que ela seja feita tão rapidamente. O protocolo TCP também irá fornecer mais confiabilidade da entrega desses dados ao seu destino, além de poder reenviar um pacote caso o mesmo seja perdido, desta forma o cliente não precisa voltar para a tela de usuário e senha sempre que um pacote for perdido. Depois da utilização do TCP para autenticação esse protocolo é deixado de lado e abre espaço para a utilização do protocolo UDP, por se tratar de um protocolo mais veloz ele é escolhido em várias aplicações que necessitam de grande quantidade de dados em tempo real. O protocolo UDP não faz uma verificação para cada pacote que é enviado, poupando desta forma tempo de processamento em relação ao TCP, ele também não irá retransmitir um pacote que foi perdido, o que não é um grande problema em uma aplicação de cloud gaming, já que é pouco provável que um usuário perceba alguns pixels fora de lugar causados por alguns pacotes perdidos durante 2 frames, com 60 frames sendo exibidos a cada segundo. Ao se falar em frames, ao testar o sistema também foi usado o software MSI Afterburner para saber a quantidade de frames exibidas ao decorrer do jogo, e o resultado foi bastante satisfatório, já que no decorrer do jogo a taxa de frames por segundo se manteve entre 59 e 61 FPS a uma resolução HD (1280x720) [20], sendo que em um console a taxa se mantém em uma média de 30 frames por segundo, desta forma o sistema Onlive se mostra bastante competente já que mantém uma taxa de frames alta e não mostrou nenhum tipo de atraso perceptível durante o teste.

4.2. GameNow Assim como a Onlive, a ferramenta da empresa Ubitus também está presente em diversos sistemas, como tablets, TV’s e desktops, porém em sua versão para PC os jogos são acessados e jogados através de qualquer web browser, necessitando apenas da instalação de um plug-in no browser.

Figura 4: Imagem de um jogo sendo rodado na página da GameNow.


A GameNow invés de disponibilizar toda a biblioteca de seus jogos por uma mensalidade como faz a Onlive, ela cobra um aluguel por cada jogo de sua biblioteca, ou faz algumas promoções no qual incluí um pacote com alguns jogos por um preço menor. Ao efetuar os testes no sistema GameNow o processo de análise foi o mesmo, porém ao analisar os pacotes do Wireshark, o resultado foi um tanto diferente. Durante todo o tempo de stream durante o jogo não se viu um único pacote com protocolo UDP, todo o tráfego entre o cliente e os servidores do sistema foram enviados via protocolo TCP, o que mostrou ser um preço caro a pagar. Apesar do protocolo TCP oferecer mais segurança na entrega de dados ele apresenta grande desvantagem em relação ao UDP em um sistema de stream, do que adianta um pacote que foi perdido ser reenviado se quando ele finalmente chegar no cliente a informação que ele deveria exibir está atrasada? O que acontece nesse momento é que o pacote que foi reenviado irá causar um tráfego de dados inútil visto que a informação que ele carrega não será mais exibida. Durante os testes efetuados no sistema GameNow pode-se perceber um atraso significativo após efetuar os comandos durante o jogo, e ainda obteve-se alguns momentos sem som, visto que o pacote com aquele dado chegou atrasado e se tornou obsoleto, isso tudo apesar de que o requisito solicitado pela empresa seja uma conexão de pelo menos 3 Mb/s ou de 8 Mb/s [21], porém ele mostrou bastante atrasos em uma conexão de constantes 10 Mb/s, ainda que a taxa de quadros por segundos tenha se mantido entre 59 – 61 quadros em uma resolução HD de 1280x720 (foi possível identificar a resolução pois em algum jogos as configurações de gráficos ainda estão habilitadas, desta forma foi possível acessar o menu e ver a resolução nativa usada pelo sistema). Apesar de manter a mesma taxa de quadros por segundo como a Onlive, a quantidade de atrasos no recebimento de dados foi muito mais acentuada na GameNow. 5. Avaliação das ferramentas Os dois sistemas de cloud gaming apresentados ainda estão em uma fase inicial de desenvolvimento, porém a pequena diferença de experiência entre as duas empresas donas dos sistemas já é capaz de mostrar muitas distinções. Abaixo temos gráficos que exaltam as diferenças entre os dois sistemas:

Taxa de pacotes de Uplink (pacotes/seg) 300

Tamanho aproximado do pacote de Uplink

200 150 100 50 0 OnLive GameNow

0,14 0,12

1400 1200 1000 800 600 400 200 0

250

Taxa de bits de Uplink (Mb/s)

0,1 0,08

0,06 0,04 0,02 OnLive

GameNow

0 OnLive

Taxa de pacotes de Uplink (pacotes/seg)

Tamanho aproximado do pacote de Uplink

GameNow

Taxa de bits de Uplink (Mbps)


(a)

Taxa de pacotes de Downlink (pacotes/seg) 600 580

(b)

(c)

Tamanho aproximado do pacote de Downlink (bits) 12000 10000 8000 6000 4000 2000 0

560 540

520 500 480 OnLive GameNow

Taxa de bits de Downlink (Mb/s) 6 5 4 3 2 1

OnLive

GameNow

0 OnLive

Taxa de pacotes de Downlink (pacotes/seg)

Tamanho aproximado do pacote de Downlink (bits)

GameNow

Taxa de bits de Downlink (Mb/s)

(e) (f) (g) Figura 5: Análise dos pacotes no uplink e no donwlink a serem considerados. Nas figuras a, b e c podemos observar as cargas de rede incidentes em um sistema de cloud gaming a serem consideradas no momento de uplink, enquanto nas figuras e, f e g são mostradas as mesmas cargas em momentos de downlink. Na figura a é observado que o número de pacotes enviado em um segundo é muito superior na GameNow, porém há uma compensação na figura b, pois já que como o número de pacotes enviados por segundo é alto, então o tamanho médio dos pacotes da GameNow se torna menor do que o tamanho médio dos pacotes da Onlive. Porém na figura c, vemos que a quantidade de bits de upload necessários para os comandos é bem menor na Onlive, assim, exigindo um tráfego menor de uplink. Porém nas figuras e, f e g temos exatamente o contrário já que na figura e pode-se ver que a taxa de pacotes de download por segundo é bem maior pelo sistema Onlive, e na figura f é o tamanho médio dos pacotes de download da GameNow que são maiores, porém o resultado final ainda é o mesmo, pois na figura g a Onlive mostra que a taxa de bits de downlink de seu sistema é bem mais baixo do que a necessária pela GameNow. Através desses gráficos é possível ver a diferença proporcionada pelo uso de protocolos diferentes, pois apesar do TCP oferecer uma maior confiabilidade, ele também oferece uma maior quantidade de dados de controle por cada pacote, desta forma o protocolo UDP que tem uma quantidade menor de dados de controle se mostra mais eficaz para o sistema de cloud gaming, pois gera uma quantidade menor de dados (desta forma uma quantidade menor de processamento também, pois haverá uma quantidade menor de dados para ser processado) para serem enviados e recebidos. Além das taxas faladas anteriormente outro fator a ser levado em conta em um sistema de cloud gaming é a qualidade de imagem.


Figura 6: Captura de tela da GameNow.

Figura 7: Captura do jogo Batman: Arkham City em um computador e em sua configuração máxima.

Figura 8: Captura de tela da Onlive. Acima nas figuras 6, 7 e 8 temos as capturas de telas em três diferentes sistemas, na figura 6 temos a captura de tela no sistema GameNow, na 7 temos a captura de tela do jogo escolhido sendo rodado em sua configuração máxima em um computador, e na figura 8 temos uma captura de tela do sistema Onlive. O que pôde-se notar nas capturas de telas efetuadas é que no quesito qualidade de imagem, os dois sistemas mostraram que não perdem em nada em qualidade de imagem quando executados com os métodos utilizados neste trabalho, pois apresentam a mesma qualidade de imagem que um computador rodando o jogo em suas configurações máximas. Abaixo temos uma tabela comparativa entre os dois sistemas.


Características Qualidade de imagem Atrasos perceptíveis ao usuário Quantidade de jogos oferecidos Facilidade de instalação Facilidade de navegação Desempenho com velocidade máxima de 11 Mb/s Volume de dados transferidos em Uplink

Onlive Alta Nenhum

GameNow Alta Muitos

Mais de 250

55

Fácil Fácil Alto

Fácil Fácil Baixo

0,0725 Mbps

0,13018 Mbps

Volume de dados 4,246 Mbps 5,46 Mbps transferidos em Downlink Tabela 1: Comparativo das características dos sistemas. Pode-se observar olhando a tabela acima que o sistema Onlive mantém a maior parte de sua vantagem por causa do protocolo utilizado, pois com a utilização de UDP pôde-se obter um volume de dados menor, assim oferecendo um desempenho melhor com uma banda menor do que a necessária para manter o sistema GameNow estável. 6. Conclusão Este artigo teve como objetivo comparar duas ferramentas do modo de jogar do futuro, chamado de cloud gaming, através dos testes analisados pudemos mostrar que a Onlive tem um desempenho melhor com uma conexão de 11 Mb/s, justamente por utilizar o protocolo UDP o sistema é capaz de manter um stream ágil e sem atrasos perceptíveis ao usuário, mantendo ainda uma taxa alta de frames por segundo, além de uma qualidade de imagem de alta resolução. Pôde-se notar também uma grande diferença entre os protocolos de transporte de dados, mesmo que o protocolo mais utilizado atualmente seja o TCP, este artigo mostrou que ele não é o protocolo ideal para todas as aplicações, pois apesar de ser um protocolo seguro lhe falta a agilidade obtida pelo UDP. Através do artigo também nota-se um grande crescimento do mercado de vídeo games, que ao decorrer dos anos apenas cresceu apesar de não obter tanto destaque como o mercado de cinemas, assim observa-se que durante os próximos anos o mercado de vídeo games irá se mostrar bem mais competitivo já que este mercado foi o único que continuou a crescer mesmo durante a crise mundial dos anos de 2008 à 2010, desta forma é possível dizer que os sistemas de cloud gaming só tendem a crescer, já que a velocidade, qualidade e disponibilidade da internet encaminham-se sempre para um aumento.

Referências [1] Jornal Folha de são Paulo. "GTA 5" arrecada US$ 1 bilhão e bate outro recorde da indústria do entretenimento. Disponível em:


<http://www1.folha.uol.com.br/tec/2013/09/1345087-gta-5-arrecada-us-1-bilhao-e-baterecorde-da-industria-do-entretenimento.shtml> Acesso em 29 de setembro de 2013 [2] Página Web da OnLive. Disponível em: <http://www.onlive.com/> Acesso em 10 de abril de 2014. [3] Página Web da Gaikai. Disponível em: <http://www.gaikai.com/> Acesso em 10 de abril de 2014. [4] Página Web da GameNow. Disponível em: <http://www.ugamenow.com/#/landing> Acesso em 3 de março de 2014. [5] G1. Sony compra serviço de games na nuvem Gaikai por US$ 380 milhões. Disponível em: <http://g1.globo.com/tecnologia/noticia/2012/07/sony-compra-servicode-games-na-nuvem-gaikai-por-us-380-milhoes.html>. Acesso em 05 de setembro de 2013. [6] Academia de Tecnologia da IBM. Ideias de computação em nuvem: Experiência em 110 projetos de implementação. Disponível em: <http://www.dx4.com.br/_upload/pdf/ibm_white_paper.pdf> Acesso em 22 de maio de 2013. [7] Pedrosa, Paulo H. C.; Nogueira, Tiago; Computação em Nuvem. Disponível em: <http://www.ic.unicamp.br/~ducatte/mo401/1s2011/T2/Artigos/G04-095352-120531t2.pdf> Acesso em 22 de maio de 2013. [8] Ruschel, Henrique; Zanotto, Mariana; Costa, Wélton. Computação na nuvem: Especialização em Redes e Segurança de Sistemas – 2008/2. Curitiba, 2010. Disponível em: <http://www.ppgia.pucpr.br/~jamhour/RSS/TCCRSS08B/Welton%20Costa%20da%20 Mota%20-%20Artigo.pdf> Acesso em 22 de maio de 2013. [9] Oliveira, Olavo; Freitas, Rejane. Computação em nuvens, visão comparativa entre as principais plataformas de mercado. Disponível em: <http://olavooneto.files.wordpress.com/2011/01/computacao_em_nuvens_visao_olavo_ neto.pdf> Acesso em 22 de maio de 2013. [10] Huang, Chun-Ying; Hsu, Cheng-Hsin; Chang, Yu-Chun; Chen, Kuan-Ta. GamingAnywhere: An Open Cloud Gaming System. Disponível em: <http://mmnet.iis.sinica.edu.tw/pub/huang13_gaming_anywhere.pdf> Acesso em 13 de agosto de 2013. [11] Junior, Diego Cordeiro Barboza Hamilton Lima; Clua, Esteban Walter Gonzalez; Rebello, Vinod E. F. A Simple Architecture for Digital Games on Demand using low Performance Resources under a Cloud Computing Paradigm. Disponível em: <http://www.vacavitoria.com/wp-content/uploads/2011/03/A-Simple-Architecture-forDigital-Games-On-Demand-using-low-Performance-Resources-under-a-CloudComputing-Paradigm.pdf> Acesso em 05 de setembro de 2013. [12] Baričević, Domagoj; RavindraKumar, Divyashree Hassan; Chandrashekar, Manasa. GameOn: Analysis and Implementation of Cloud Gaming. Disponível em: <http://www.cs.ucsb.edu/~manasa/cs276.pdf> Acesso em 04 de setembro de 2013. [13] M, Jarschel. An Evaluation of QoE in Cloud Gaming Based on Subjective Tests. Disponível em: <http://ieeexplore.ieee.org/xpl/articleDetails.jsp?reload=true&arnumber=5976180> Acesso em 9 de março de 2014. [14] Shea, Ryan; Liu, Jiangchuan; Ngai, Edith C.-H; Cui, Yong. Cloud Gaming: Architecture and Performance. Publicado no IEEE em agosto 2013.


[15] Página da Web sobre o codificador H264. Disponível em: <http://www.h264encoder.com/> Acesso em 20 de setembro de 2013. [16] Página da Web sobre o jogo Batman: Arkhan city no cite IGN. Disponível em: <http://www.ign.com/games/batman-arkham-city/xbox-360-55051> Acesso em 10 de março de 2014. [17] Página da Web sobre Wireshark. Disponível em: <http://www.wireshark.org/> Acesso em 05 de março de 2014. [18] Página da Web sobre MSI Afterburner. Disponível em: <http://event.msi.com/vga/afterburner/> Acesso em 07 de março de 2014. [19] IGN. OnLive Reemerges with CloudLift Service, Steam Integration. Disponível em: <http://www.ign.com/articles/2014/03/05/onlive-reemerges-with-cloudlift-servicesteam-integration?abthid=531758264cd346cb4000001a> Acesso em 08 de maio de 2014. [20] Página da web informando a resolução nativa do sistema Onlive. Disponível em: https://support.onlive.com/hc/en-us/articles/201229150-Computer-Display-Resolutionand-the-OnLive-Game-Service Acesso em 20/04/2014. [21] Página da web que informa os requisitos de velocidade de internet da GameNow. Disponível em: http://support.ugamenow.com/knowledgebase/articles/210105-what-arethe-lg-smart-tv-and-internet-requirements Acesso em 22/04/2014.


Jogo de Plataforma: Em Busca da Conclusão

Larissa Lima Soares Carvalho1,Gabriel Pinheiro Gurgueira2 e Michelle Queiroz da Silva1 1 Instituto Federal de Educação, Ciência e Tecnologia do Ceará (IFCE) 2 Universidade Federal do Ceará (UFC) {laarissalima.ll, gabrielgurgueira, mqsilva78}@gmail.com

Resumo O game “Em busca da conclusão” trata-se de um jogo de plataforma 2D que tem como cenário as instalações do próprio Instituto Federal. Possui uma narrativa onde o usuário controla o personagem do jogo, que representa um aluno regularmente matriculado em um curso técnico dessa instituição. Com isso, o personagem terá que passar por 8 fases, fazendo referência aos 8 semestres letivos do curso, para então, chegar a conquista da sua formatura. O objetivo principal do jogo é proporcionar entretenimento e diversão. Além disso, trata-se de um incentivo a conclusão do curso por parte do aluno, pois ao fim do jogo são apresentadas algumas das possíveis recompensas consequentes da graduação. O jogo em si, servirá como elemento de motivação para os espectadores, que verão o que é possível de ser construído através dos conhecimentos adquiridos em linguagens de programação e técnicas de desenvolvimento de software abordadas cotidianamente pelo IFCE. Palavras-chave: Jogo. Plataforma. Conclusão.

Introdução O desenvolvimento do universo de games tem sido cada vez mais presente pela necessidade de suprir a imensa quantidade de usuários dessa plataforma. O uso de jogos hoje vai além do entretenimento. Foca-se também no incentivo a educação, podendo até mesmo ser usado como um processo didático, seja em um ambiente empresarial para que os funcionários aprendam/aperfeiçoem determinadas funções através das instruções e execuções em um jogo, ou a nível infantil para incentivar o desenvolvimento de certas habilidades por parte da criança usuária. Outra forma de utilização dos games, que está se tornando cada vez mais popular, é o game publicitário, que visa várias formas de marketing para a empresa contratante. Os jogos digitais, ao permitirem a simulação em ambientes virtuais, tornam possível a exploração e o controle dos elementos. Nesse cenário, os jogadores podem explorar e encontrar, através de sua ação, o significado dos elementos conceituais, a visualização de situações reais e os resultados possíveis do acionamento de fenômenos da realidade. Ao combinar diversão com o ambiente virtual, transformam-se em uma ferramenta extremamente


Jogo de plataforma: Em busca da conclusão.

poderosa que pode ser aplicada em todas as áreas do conhecimento, favorecendo o processo ensino-aprendizagem (UFRGS, 2006). Não faz muito tempo que a área de games começou a se destacar aqui no Brasil e vem apresentando crescimento exponencial. Até o final dos anos 90, pouco se ouvia sobre esse tema. Somente no ano 2000, em um congresso da SBC (Sociedade Brasileira de Computação), teve inicio a disseminação do assunto, dando origem ao Workshop Brasileiro de Jogos e Entretenimento Digital (WJogos)(UFRJ, 2014). Devido ao avanço da tecnologia nos telefones móveis, uma nova plataforma para o desenvolvimento dos games foi criada e vem se destacando. No atual mercado dos games eletrônicos, os mobile games representam a categoria com maior receptividade dentre as existentes, sendo a categoria que apresenta maior avanço em termos de quantidade de produtos desenvolvidos, além de apresentar baixo custo de produção em relação às outras plataformas. “Uma das qualidades mais interessantes da tecnologia digital é que ela pode oferecer um feedback imediato, interativo. Projetar os sistemas de ações e resultados, onde o jogo responde perfeitamente à entrada de um jogador, é um elemento comum nos jogos digitais. A tecnologia digital oferecer, assim jogabilidade (gameplay) em tempo real que muda e reage de forma dinâmica às decisões do jogador” (SALEN e ZIMMERMAN, 2003) Hoje torna-se cada vez mais fácil desenvolver jogos. Existem diversas ferramentas disponíveis e muitas formas de publicação. Não existem barreiras para quem deseja desenvolver e publicar jogos. Essa atuação está bastante acessível, proporcionando a todos a possibilidade de poder construir um jogo com apenas auxílios de diferentes aplicativos. Além disso, segundo pesquisa realizada pelo SEBRAE, mostra que o Brasil foi considerado o quarto maior mercado do mundo de jogos digitais, o que nos fortalece como incentivo ao sucesso da nação (SEBRAE, 2014). “O mercado nacional de games movimentou R$ 5,3 bilhões em 2012, com crescimento de 32% em relação a 2011. As perspectivas de crescimento são positivas. Embora seja um setor ainda recente no país e que carece de estrutura e incentivos, esse segmento já está recebendo alguns incentivos, por meio de investimentos e apoios governamentais” (SEBRAE, 2014). A indústria dos jogos digitais ultrapassou em 20% os mercados milionários do cinema e da música, e se tornou a maior indústria em volume e produção de entretenimento(PORTAL DO DESENVOLVIMENTO DOS JOGOS DIGITAIS, 2014). Para o processo de desenvolvimento de um jogo digital, necessita-se inicialmente de uma definição de qual tipo de plataforma o jogo irá utilizar (pc’s, consoles, web, celulares). Apesar de um jogo ser construído para uma plataforma específica, a tecnologia atual, permite IFCE – Instituto Federal do Ceará

Página 2 de 10


Jogo de plataforma: Em busca da conclusão.

que o mesmo jogo seja adaptado e disponibilizado para as diversas plataformas. Construir um jogo é um misto de tecnologia e criatividade. Devido a isto, esse desenvolvimento requer o domínio de diversas áreas do conhecimento, principalmente tecnologia da informação e design. Criar um jogo não é apenas ter uma ideia e tentar pô-la em prática de imediato.Além da escolha de uma plataforma a ser trabalhada, a criação de um jogo necessita de um planejamento, que consiste desde unir a ideia inicial até a sua execução. Esse planejamento nos traz uma visão do que deve ser feito, começando quando a ideia central do jogo é criada, o objetivo definido, qual será o público alvo, o que trará de novo ao jogador e qual a expectativa no mercado de games. É o game designer que é o responsável por acompanhar a qualidade do game, o mercado, a publicidade, a produção. Com isso, é responsável por criar esse planejamento por completo, denominado de GDD (Game Designer Document). O GDD deve apresentar toda a história do game, o perfil dos personagens, os cenários, a trilha sonora, a jogabilidade, detalhando a quantidade e a dificuldade dos levels, ou seja, ele está presente em todas as etapas para o desenvolvimento de um jogo. “Os jogos digitais podem e fazem bom uso dos dados: são muitas vezes repletos de texto, imagens, áudio, vídeo, animações, conteúdo 3D e outras formas de dados armazenados. Na verdade, é justo dizer que os jogos digitais exigem capacidades de renderização de dados de computadores muito mais do que qualquer outro gênero de software de consumo. Os computadores pessoais de ponta, especialmente configurados para a melhor visualização de gráficos 3D e áudio, são comercializados como máquinas de gamers.” (SALEN e ZIMMERMAN, 2003) A segunda prioridade é a parte artística, ou seja, a criação e a animação dos personagens e dos cenários. Para que um personagem tome forma, é preciso muito estudo e pesquisas para referências. É necessário chegar a um estilo para o jogo, definindo mistura de cores e texturas, além de vários detalhes adicionais. Após a formação dos personagens, o animador recebe a função de digitalizar e criar os frames para a animação desses personagens de acordo com as normas do planejamento. Após a criação de personagens já animados, cenários prontos e toda a jogabilidade estabelecida, o responsável por colocar tudo isso em prática é o programador. Este constrói toda a mecânica do jogo através de códigos. É a união das artes com os códigos que transferem para a realidade tudo o que estava planejado. É bom ressaltarmos que um jogo, de qualquer natureza, transmite informações e ensinamentos aos seus usuários, tais como reflexão,percepção, agilidade, estimulo de IFCE – Instituto Federal do Ceará

Página 3 de 10


Jogo de plataforma: Em busca da conclusão.

memória, dentre outros. Esta é uma forma alternativa de aprendizado e formação de conceitos. “Um dos desafios mais interessantes no DGBL (Digital Game Based Learning) é resolver e inventar formas de incluir reflexão e pensamento crítico com aprendizagem e ainda fazer um jogo divertido.” (PRENSKY, 2001). Baseando-se nesse pilares, o jogo “Em busca da conclusão” foi criado com objetivo de proporcionar diversão e entretenimento e apresentar um ambiente real focado nas dificuldades de se concluir um curso técnico. Trata-se de um motivador, pois, um jogo totalmente voltado ao conteúdo escolar pode tornar- se maçante e tedioso. Assim temos, diversão em forma de aprendizagem.

O Jogo Para a construção do jogo “Em busca da conclusão”, buscou-se uma ideia voltada para a redução da evasão escolar nos cursos Técnicos Integrados no Instituto Federal do Ceará (IFCE). O game constitui em incentivar os alunos a passarem por obstáculos e conseguir conquistar o fim de cada semestre. Assim, ao término de oito semestres o jogador conquistará a conclusão do curso e mediante esta formação surge a recompensa em forma de reconhecimento e em proposta de trabalho. Mostrando assim, que o aluno ao concluir um ensino de qualidade com êxito, conseguirá sair da escola com a construção de um bom futuro profissional, colhendo bons frutos. De acordo com as normas escolares, o Instituto Federal do Ceará possui a disciplina de educação física, obrigatória nos seis primeiros semestres. No primeiro semestre, a disciplina de natação é obrigatória. Já nos cinco semestres posteriores, o aluno pode optar por qualquer esporte disponível (IFCE, 2014). Refletindo o cotidiano escolar, para concluir as seis primeiras fases, o aluno deverá passar por um obstáculo esportivo, incluindo natação no primeiro semestre, vôlei no segundo, musculação no terceiro, basquete no quarto, handball no quinto e finalizando, o sexto semestre com futsal. Ao término dos seis semestres, o aluno do curso Técnico Integrado tem os dois últimos semestres voltados à área técnica que havia escolhido. Sendo assim, o jogador ao chegar à sétima fase começa a se deparar com objetos que simbolizam os técnicos dos cursos da Instituição, passando então para a oitava fase, e última. Na última fase, o jogador enfrentará um chefão, simbolizando sua inclusão no mercado de trabalho, para concluir sua formação e finalizar o jogo. O game foi inicialmente criado para ser aplicado aos alunos dos Institutos Federais do Brasil, entretanto a finalidade do mesmo, com devidas modificações, poderá ser usada como

IFCE – Instituto Federal do Ceará

Página 4 de 10


Jogo de plataforma: Em busca da conclusão.

um game de teste vocacional, devido possuir sensações e conteúdos de uma formação acadêmica. O jogo “Em busca da conclusão” foi desenvolvido através de desenhos e animações feitas à mão, quadro por quadro e em seguida vetorizados, e por diversas pesquisas de texturas disponíveis. O background usado no jogo é uma fotografia do painel localizado no pátio central do Instituto Federal do Ceará (IFCE) – Campus Fortaleza, que foi pintado por alunos do curso de Artes Visuais do próprio Instituto. Figura 1. Imagem do painel localizado no pátio do Instituto Federal do Ceará – Campus Fortaleza.

Fonte: Jogo Em busca da conclusão

A plataforma usada para a construção do game foi desenvolvida pela empresa Scirra, chamada, Construct2. O Construct2 é baseado em multiplataforma de tecnologia HTML5, proporcionando a oportunidade de publicar seus projetos para uma ampla plataforma de games. Estes funcionam on-line em um navegador da Web em uma grande variedade de dispositivos e sistemas operacionais, incluindo dispositivos móveis como celulares e tablets, garantindo que o seu jogo tenha o maior alcance possível (SCIRRA, 2014). O jogo foi desenvolvido em plataforma 2D, de fácil manuseio e interface com o usuário bastante interativa e auto explicativa. Foi escolhida a plataforma em 2D, pois os jogos nessa plataforma são implementados a partir de gráficos puramente bidirecionais com uma única camada(UNICAMP, 2009). A programação do game foi desenvolvida por lógica, em uma programação por blocos disponíveis na engineer Construct 2 para uso em plataforma 2D. O jogador pode ser movido pelas setas do teclado de um computador, possuindo a função de um pulo duplo ao clicar a seta UP pela segunda vez seguida. Além disto, o jogador possui a função de atirar e causar

IFCE – Instituto Federal do Ceará

Página 5 de 10


Jogo de plataforma: Em busca da conclusão.

dano aos inimigos, cuspindo ‘hot cats’1. O jogo também pode ser jogado com uso de gamepad. É importante ressaltar que o software no qual o jogo foi desenvolvido, o Construct2, há total suporte para o desenvolvimento em dispositivos móveis. O protagonista do jogo é um jovem aluno do curso Técnico Integrado de Informática, com aproximadamente dezessete anos de idade e está vestido com as cores associadas ao Instituto. Seu designer foi desenvolvido através de estudos relacionados ao estilo, modo de se vestir, perfil e realidade dos próprios estudantes. O personagem não passará por nenhum tipo de mudança em sua aparência ou vestes até o fim do jogo, onde então, receberá as vestes que representam o alcance da sua formação completa, ou seja, sua beca de formatura. O Jogador inicia com apenas três vidas, mas ao longo do jogo ele pode encontrar alguns corações que se tornarão vidas adicionais. O jogador deverá passar por oito fases, onde em cada fase ele irá ter obstáculos e inimigos a serem vencidos. Obstáculos como piscina onde a velocidade de movimento é reduzida, assim como tiles difíceis de andar e alguns inimigos, desde simples livros voadores, causadores de danos, até robô chefe. Quando um inimigo é destruído pelo protagonista, o jogo gera em seu lugar uma bonificação. Surge assim, ‘um ponto’, para que ao longo do semestre - fase - o jogador consiga unir a soma de dez pontos e obter êxito total ao final da fase. Porém, se o protagonista colidir com um inimigo, ele perde uma vida. O jogo também disponibiliza para o jogador uma recuperação, conhecida no Instituto como AF (Avaliação Final), que será uma fase bônus opcional que antecede o ultimo semestre, para que o jogador possa tentar recuperar as notas em que não tiver alcance da média, que é de sete pontos. Ao finalizar o jogo com médias suficientes, o jogador receberá o certificado de conclusão do curso, a beca de formando e uma proposta de emprego com benefícios associados ao seu desempenho escolar, mostrando assim, que uma boa colocação no mercado de trabalho é fruto de todo um esforço, superação e dedicação.

Figura 2. Imagem dos frames do Protagonista andando.

Fonte: Jogo em busca da conclusão

1

O tradicional ‘hot dog’ leva um nome especifico na Instituição, originado de brincadeiras por parte dos alunos. O mesmo é chamado de ‘hot cat’. IFCE – Instituto Federal do Ceará

Página 6 de 10


Jogo de plataforma: Em busca da conclusão.

Figura 3. Imagem dos frames do ‘hot cat’

Fonte: Jogo em busca da conclusão

Figura 4. Imagem do Protagonista ao finalizar o jogo.

Fonte: jogo em busca da conclusão

Figura 5. Imagem telas do jogo.

IFCE – Instituto Federal do Ceará

Página 7 de 10


Jogo de plataforma: Em busca da conclusão.

Fonte: Jogo em busca da conclusão.

Conclusão O cenário dos jogos digitais está em crescente ascensão, com estimativas positivas para os próximos anos. Esse crescimento se deve em grande parte ao caráter expansivo e multifuncional dos games, que estão presentes desde os tradicionais consoles, em dispositivos móveis, e até mesmo nas redes sociais. Também é notório que os jogos eletrônicos deixaram de representar simplesmente entretenimento, adquirindo um aspecto mais sério e educativo, dependendo de sua aplicação. No jogo retratado por este artigo, “Em busca da conclusão”, mostra-se a possibilidade da aplicação dos jogos que vai além do entretenimento.Neste caso, o intuito é tentar diminuir a evasão dos alunos nos cursos técnicos integrados do Instituto Federal do Ceará (IFCE), através da retratação da jornada rumo à formação de maneira cômica e divertida, juntamente a IFCE – Instituto Federal do Ceará

Página 8 de 10


Jogo de plataforma: Em busca da conclusão.

indicação de uma significativa recompensa ao fim do jogo, que representa a conclusão do curso. O desenvolvimento de jogos digitais não é uma tarefa simples. É necessário um planejamento bem elaborado para ser executado, além de todo um investimento em ideias, estudos, referencias e pesquisas, tanto de na área designer e arte como em estudos de viabilidade de mercado. Para a criação de um game, são necessários a realização de processos diferenciados. Esses processos são realizados nas funções do game designer, do ilustrador, do animador e do programador. É necessário que haja todo um planejamento, evitando falhas e alcançando o objetivo final com sucesso.

Bibliografia IFCE, 2014. Disponivel em: <www.ifce.edu.br>. Acesso em: 30 Maio 2014. PORTAL DO DESENVOLVIMENTO DOS JOGOS DIGITAIS, 2014. Disponivel em: <http://www.melies.com.br/cursos/jogos-digitais/portal/>. Acesso em: 3 maio 2014. PORTER, M. Estratégia competitiva - técnicas para análise de indústrias e da concorrência. 7ª. ed. Rio de Janeiro: Campus, 1986. PRENSKY, M. From on the horizon. MBC University Press, Outubro 2001. SALEN, K.; ZIMMERMAN, E. Rules of Play: Game Design Fundamental. In: ______ Rules of Play: Game Design Fundamental. [S.l.]: Mit Press, 2003. p. 104. SALEN, K.; ZIMMERMAN, E. Rules of Play: Game Design Fundamental. In: ______ Rules of Plat: Game Design Fundamental. [S.l.]: Mit Press, 2003. p. 103. SCIRRA, 2014. Disponivel em: <https://www.scirra.com/construct2>. Acesso em: 2 fevereiro 2014. SEBRAE, 2014. Disponivel em: <http://www.sebrae2014.com.br/Sebrae2014/Alertas/Brasiltem-o-maior-mercado-de-games-no-mundo-em-2012#.U8U9hLGGGk0>. Acesso em: 30 Maio 2014. UFRGS, 2006. Disponivel em: <http://www.seer.ufrgs.br/renote/article/viewFile/14045/7933>. Acesso em: 05 maio 2014.

IFCE – Instituto Federal do Ceará

Página 9 de 10


Jogo de plataforma: Em busca da conclusão.

UFRJ. Informativo Técnico do Núcleo de Computação Eletrônica. NCE, 2014. Disponivel em: <http://www.nce.ufrj.br/conceito/artigos/2005/08-2.htm>. Acesso em: 30 maio 2014. UNICAMP, 2009. Disponivel em: <http://www.dca.fee.unicamp.br/~martino/disciplinas/ia369/trabalhos/t3g1.pdf>. Acesso em: 4 maio 2014.

IFCE – Instituto Federal do Ceará

Página 10 de 10


OS JOGOS ELETRÔNICOS COMO FERRAMENTA DE APOIO EDUCACIONAL Sandro Cruz do Nascimento Universidade Estadual Vale do Acaraú Centro de Ciências Exatas e Tecnologia- Sobral – CE eu2005san@hotmail.com Resumo: A cada dia a pratica de ensino se torna cada vez mais complexa, os professores necessitam de novos recursos que os apoie em sua jornada de levar conhecimentos aos jovens e crianças, e recorrer à meios eletrônicos se tornam mais necessário a cada dia. A ideia de utilizar ou criar games que estimule o raciocínio, a criatividade e os capacite a resolver problemas reais são necessários para que educadores façam com que alunos se interessem pelos conteúdos expostos em sala e os aplique em seu dia-a-dia. Palavras chave: criação, simulação, ensino,

I. Introdução O presente trabalho visa analisar algumas formas de utilização de games1 voltados ao universo educacional das mais diversas áreas, sobre as vantagens em

adaptar conteúdos a games existentes e expor sobre o mercado de criação de novos games. Essa ideia é visível desde o momento onde é notada a ligação que os games criam com seus usuários, a partir dai a ideia de aproveitar essa ligação como mediadora da relação diversão-aprendizagem fará com que professores deem a seus alunos mais foco em seus estudos pois a cada dia, crianças e jovens estão mais ligados ao universo dos games e, paralelo a isso, a tarefa do ensino se torna cada vez mais desafiadora. Após algumas leituras foi constatada a mesma problemática: “como prender a atenção dos alunos e faze-los serem mais participativos e/ou que se interessarem pelos conteúdos apresentados?”. Esse tipo de experiencia já acontecem através do uso de jogos. Professores de Matemática e Física estão buscando apoio nos jogos, sejam eletrônicos ou não. A professora Antônia de S. Carvalho2 em seu trabalho de conclusão de curso mostrou que após aplicar jogos que envolviam operações matemáticas para alunos de 5ª serie os mesmos mostraram mais interesse em aprender matemática (ela afirma uma alteração de 12% para 53% da turma), pelo simples fato de tentar resolver desafios que envolviam certos cálculos. Na área da língua portuguesa a professora Elisângela A. Gouveia3 expõe em seu trabalho de conclusão de curso que os professores devem capacitar-se quanto ao uso das mais diversas ferramentas de TI para poder fortalecer o ensino das mais diversas

1: : O termo game será utilizado nos momentos referentes a jogos eletrônicos, para outros tipos de jogos, de tabuleiro ou brincadeiras, será utilizado o termo jogo.

2: Especialista em Metodologias de Ensino de Física e Matemática 3: Especialista em Metodologias de Ensino de Língua Portuguesa

games. Abstract: Every day the practice of education becomes increasingly complex, teachers need new resources that support them on their journey of bring knowledge to young people and children and the use of electronic media become more necessary every day. The idea of use or creating games that stimulate the reasoning, the creativity and the enable solve real problems are needed for that teachers do that with students interested for the contents exposed and apply them in your day by day. Key words: creation, simulation, teach, games

1


matérias, em especial do Português, o bom uso do português como vemos nas redes sociais está bem enfraquecido. Segundo James Paul Gee4, “As pessoas pensam e entendem melhor quando podem imaginar ou simular uma experiencia.” e “Se os games que permitem que exista jogadores para se preparar para as ações de diferentes perspectivas, como um cientista, ativista político ou cidadão global, eles podem resolver um dos problemas mais profundos da educação.” (artigo [5]). O problema mais profundo da educação segundo James é que: “Muitos estudantes podem passar em testes com papel e caneta, mas não podem aplicar seus conhecimentos para resolver problemas reais”. Visto que a educação é afetada em todas as matérias, a proposta da criação de games que auxiliem no ensino é de bastante importância. Essa área de games educacionais ainda não é bastante ampla, mas ainda sim é possível encontrar games com finalidade didática, seja pra ensinar digitação, resolver expressões aritméticas, fins geográficos ou mesmo programação. Independente da finalidade, a ligação que os games criam com seus usuários se utilizada para fins didáticos podem ser um grande aliado dos educadores. II. Entendendo a problemática Apesar da boa quantidade de professores que utilizam games para reforçar o ensino, o maior problema ainda se dá no que se diz respeito ao desenvolvimento. Livio Lima5 com outros colegas iniciaram um projeto para desenvolver um game voltado aos deficientes visuais, o game possui recursos que permite cegos interagirem com pessoas que enxergam. Foi notado que, todos os autores citados ao final deste trabalho são a favor do uso de games com finalidade didática, mas 4: Professor de Leitura na Wisconsin-Madison University 5: IFCE – Campus Fortaleza

apenas Lynn Alves6 cita o impasse entre desenvolvedores e pedagogos: “A dificuldade se instaura quando desenvolvedores precisam dialogar com os pedagogos, já que pensam de forma diferenciada. Os primeiros acreditam que o entretenimento pode contribuir para aprendizagem em contraponto, os docentes acreditam que as narrativas devem ter um enfoque em conteúdos escolares.” (Alves, Lynn: 2008) Além do apoio ao uso, no mesmo trabalho é citado a dificuldade em relação ao baixo interesse em relação ao desenvolvimento de games dessa categoria que são, o custo de desenvolvimento e a falta de agentes financiadores, especialmente governamentais. Gláucio Aranha7 fala a respeito de professores que utilizaram games convencionais, comerciais, para uma finalidade didática e foi constatado um avanço simbólico no ensino, segundo ele os educadores precisam saber adaptar os conteúdos para que os alunos não percam o foco daquilo que deve ser compreendido. Ele ainda completa que educadores precisam se aliar a profissionais de outras áreas para que consiga atingir seus objetivos da melhor forma possível. “Considerando que aprendizado não é resultado da memorização, mas acima de tudo a habilidade de conectar e manipular informações tornando-as conhecimento.” (Aranha, Gláucio: 2006) 6: Departamento de Educação Comunicação da UNEB 7: Instituto de Ciências Cognitivas

e

2


Para Gee, um game para ser considerado um bom game de aprendizado precisa possuir seis características, são elas: Interatividade, Personalização, Identidade Forte, Problemas Bem Sequenciados, Um Ciclo de Perícia e ser Profundo e Justo (“Deep” and “Fair”). No mercado existem diversas categorias de games, mas as consideradas boas para fins didáticos são: Os RPGs, que dão ao jogador um imenso cenário e durante o enredo são atribuídas tarefas para que ele busque explorar o máximo possível do cenário; outra categoria são os Simuladores, games que visam criar um ambiente virtual o mais próximo possível da realidade. Ricardo Lima8 aborda a respeito do cenário trabalhista do ramo de desenvolvimento de games e mostra que esse mercado se mostra crescente com o passar dos anos, mas em contradição aos outros autores, inclusive ele, alerta que o desenvolvimento de games didáticos não é tão promissor pelos motivos já citados por Lynn e também por existir poucos desenvolvedores com interesse nesse ramo. A criação de um game didático, dependendo da temática, exige conhecimentos específicos daquela área a qual o game se aplicará. III. Onde está a educação dentro dos games? Maurício Bylaardt Volker9 criou um site dedicado a educação com auxilio de games onde ele compartilha seus estudos sobre o tema. Maurício expõe em seu site diversas noticias sobre escolas que usam games de entretenimento para ensinar determinados assuntos e estudos voltados ao desenvolvimento de games educativos. O mesmo define seu trabalho da seguinte forma: 8: Faculdade Christus 9: Acadêmico em Tecnologia em games Digitais (FUMEC - MG)

“Vemos, em nosso mundo atual, uma avalanche de novas tecnologias invadindo o mercado, cada vez mais crescente, do universo digital. Uma explosão de games e softwares são criados e disponibilizados para um público cada vez maior no Brasil, principalmente devido aos crescentes incentivos do governo brasileiro, a chamada “Inclusão Digital”. No entanto, percebe-se que crianças e jovens, seduzidos pela beleza digital, muitas vezes trocam as salas de aula e o aprendizado por games 3D, ou recursos tecnológicos disponíveis na web. Seja acessando por Lan Houses ou mesmo em casa, preferem cada vez mais gastar seu tempo na frente de um computador jogando, em salas de bate-papo ou em sites mais ‘atraentes’, do que estudar, ler ou mesmo frequentar escolas que ainda se utilizam de métodos ultrapassados de ensino.”(Volker, Mauricio B.) É notável que professores ainda se mostrem receosos diante ao fato de usarem games para apoiá-los em seu trabalho, isso devido a velha cultura que os mesmos atrapalham o aprendizado ou fazem apologia outras atividades. O exemplo mais comum de conteúdo improprio é o jogo Grand Thief Auto10, ou GTA, cujo enredo envolve roubos, assassinatos, consumo de drogas e prostituição. Mas podemos ressaltar que, apesar de não estar explícito, a maioria dos games dão um certo ar de aprendizagem, seja usando pequenos testes lógicos que são 10: desenvolvido pela Rockstar Games 3


utilizados para abrir portas ou passagens secretas, seja numa tomada de decisão imediata ou mesmo envolvendo contextos históricos. Em diversos ângulos vemos a aprendizagem. Em games de guerra, onde aprende-se como se manter em situações de risco, trabalhar em equipe e, dependendo do game, um pouco de história; seja em corridas onde exige concentração; os RPGs que envolvem diversos temas como alquimia (química), interpretação de mapas (geografia) e se o jogo for online exige conhecimento de outro idioma para poder interagir com outros jogadores. Em se tratando de história temos os games “Aritana e a Pena da Harpia” e “Huni Kuin: Os Caminhos da Jiboia”, ambos brasileiros, trazem a cultura indígena, contextos folclóricos e muito desafio dentro de seu enredo, e o game “Cangaço” traz de volta o período de guerra entre os seguidores de lampião e os policiais.

Fig 1: As formulas utilizadas em Angry Birds

O conhecimento pode ser encontrado em qualquer game, até mesmo os impróprios. Como dito anteriormente, basta saber criar um roteiro de exploração para aplicá-lo dentro do game. IV. As simulações dentro dos games

A matemática é encontrada, segundo a professora Antônia, em diversos games em flash disponiveis em sites como Fliperama ou “Click Jogos” que entre suas categorias temos games de memória, raciocínio lógico e quebra-cabeças. Em complemento temos o jogo Angry Birds11 que é bastante conhecido e que usa em extrema abundancia conceitos de física.

Para Marc Prensky12 as simulações não podem ser considerados games pois não possuem os elementos estruturais adicionais de um game – são eles diversão, jogabilidade, regras, pontuações, vencedores, competição, etc. – para serem considerados games. Mesmo ele não considerando simuladores como games, ele explica sobre a simulação dentro dos games propriamente ditos. Com o incrível avanço da computação gráfica, os games buscam dar a sensação de realidade no quesito visual, nos deparamos com imagens que que confundem o cérebro humano pois deixam a duvida se aquilo é real ou virtual. Mas se falarmos de alterações na jogabilidade13 ainda são poucos os títulos que se fazem aplicar características que tragam proximidade da realidade. Quando usadas, elas aparecem em partes distintas, ou seja, em uma determinada fase ou em determinada condição. No futebol a influencia do clima é optativa mas se utilizada influi na partida, já na Formula 1 fica a cargo da cidade onde é realizada a

11: desenvolvido pela Rovio

12: Mestrado em Ensino (Yale University) 13: processo de controle do personagem ou da situação

“Quanto ainda precisamos caminhar para compreender que o lúdico deve estar presente nas situações de aprendizagem? Que a escola deve se constituir um espaço de prazer? Que devemos nos aproximar do universo semiótico dos nossos alunos?” (Alves, Lynn: 2008)

4


corrida; em Olympic Games14 a simulação acontece em determinadas modalidades, por exemplo arco e flecha onde há um medidor do vento, e o mesmo pode alterar o percurso da flecha. Como visto as simulações, em games comercializáveis, ainda não tendem 100% a jogabilidade realística, e a necessidade de se criar games que valorizem esses fatores e deem a verdadeira realidade aos games é visível pois com esses recursos influenciaria na dificuldade do game e melhoraria a percepção do jogador. Ângelo C. Loula15 e alguns alunos desenvolveram um game chamado Calangos, que simula o ciclo de vida de um lagarto na região do rio São Francisco, o jogador precisa fazer o lagarto se adaptar e sobreviver as condições da região, são os desafios: equilibrar a temperatura de seu corpo diante ao calor excessivo e poucas chuvas, existe disputas territoriais com outros lagartos, busca por alimentos entre outros fatores. O game foi apresentado em 2009 no VIII Simpósio Brasileiro de games e Entretenimento Digital16 e ainda está em fase de testes, a proposta deles é aprimorar o ensino da Biologia.

Fig 2:Cena do game Calangos

Se as simulações são games ou não, ainda haverá essa discussão. Mas o que se 14: desenvolvido pela SEGA 15: professor da Universidade Estadual de Feira de Santana (UEFS) 16: realizado na cidade do Rio de Janeiro

sabe é que as simulações atuam em diversas áreas além do ensino e do entretenimento e o maior exemplo é o cenário militar que usam simuladores de vôo para preparar cadetes novatos antes de seu primeiro vôo real. V. Conclusão Não se pode fugir do fato de, o universo dos games se unir as mais diversas áreas e públicos, segundo Ricardo Lima, os games podem ser utilizados para entretenimento, treinamento corporativo, campanhas publicitárias, simulações, educação e outros fins, o problema desse ramo é a mão de obra escassa. O mercado de desenvolvimento de games se mostra bastante promissor, mas a complexidade de sua criação sempre causou desistência em muitos amantes de games, os cursos voltados especificamente para essa área se concentram, em sua maioria, nas regiões sul, sudeste e centro-oeste. Após a exposição de sua importância, a ideia de se criar games com fins didáticos, deveria ser encorajada para que haja um melhor aumento no nível da educação e após a criação os desenvolvedores poderiam ensinar desde noções básicas de programação à criação de games simples. Já as simulações são hoje, essenciais em cursos de aperfeiçoamento e outros meios. Na cidade de Londrina, Paraná, um hospital realiza cirurgias através do auxilio do Kinect17; o Departamento de Transito busca implantar um simulador de transito nos cursos de formação de condutores; a marinha dos Estados Unidos realiza simulações de ataque a submarinos para preparar os cadetes antes de colocá-los em alto-mar. Existem diversos exemplos de implantação de games para fins de treinamento. Nos dias atuais vemos aquele que sempre foi tratado como vilão por diversos 17: Aparelho desenvolvido pela Microsoft que capta os movimentos do corpo e aplica no personagem do jogo em tempo real. 5


professores se mostrar como colaborador em seu trabalho. O conceito de entretenimento cai quando ele é associado a objetivos paralelos, pois os alunos necessitaram de bases educacionais para poder resolver os desafios que surgirem e ao resolver esses desafios aprenderão em que ocasião usar o conteúdo visto em sala. Os games são capazes de criar amizades entre desconhecidos e podem oferecer entretenimento, diversão, competição e inclusão às pessoas, então por que eles também não podem educar? VI. Referencias [1] ALVES, L. Artigo Cientifico: Relações entre Jogos Digitais e Aprendizagem: Delineando Percurso. Educação, Formação & Tecnologia. 2008. Disponível em: <http://www.eft.educom.pt/index.php /eft/article/view/58/38> Acesso em: 30/04/2014. [2] ARANHA, G. Artigo Cientifico: Jogos Eletrônicos como um Conceito Chave para o Desenvolvimento de Aplicações Imersivas e Interativas para o Aprendizado. Revista Ciências & Cognição. 2006. Disponível em: <http://pepsic.bvsalud.org/pdf/cc/v7n 1/v7a09.pdf> Acesso em: 30/04/2014. [3] AVILA, R. L. F. Jogos Digitais: Uma Brincadeira Levada a Serio. In. III Congresso Tecnológico InfoBrasil TI & Telecom, 2010, Fortaleza. Anais... Fortaleza: Revista InfoBrasil, 2010, Edição Eletrônica. [4] CARVALHO, A. S. Jogos e Aprendizagem: Uma Proposta de Ação Pedagógica. 2013. 25 fls. Monografia (Esp. em Metodologias de Ensino da Física e Matemática). Faculdade Evolução. Coreaú. [5] GEE, P. J. Artigo Cientifico: Are Video Games Good For

Learning?. Curriculum & Leadership Journal. 2007. Disponível em: <http://cmslive.curriculum.edu.au/lea der/default.asp? id=16866&issueID=10696>. Acesso em: 25/04/2014. [6] GOUVEIA, E. A. A Importância das Novas Tecnologias da Informação e Comunicação – NTIC's no Aprendizado dos Alunos. 2012. 17 fls. Monografia (Esp. em Metodologias de Ensino da Língua Portuguesa). Faculdade Evolução. Barroquinha. [7] LIMA, L. S; FELIX, P. C; FAÇANHA, A. R. Desenvolvimento de games para Deficientes Visuais. In. IV Congresso Tecnológico InfoBrasil TI & Telecom, 2011, Fortaleza. Anais... Fortaleza: Revista InfoBrasil, 2011, Edição Eletrônica. [8] LOULA, A. C; OLIVEIRA, E. S; MUÑOZ, Y. J; VARGENS, M. M. F; APOLINÁRIO, A. L; CASTRO, L. N; ROCHA, P. L. B; EL-HANI, C. N. Modelagem Ambiental em um Jogo Educativo. In. VIII Brazilian Symposium on Games and Digital Entertainment, 2009, Rio de Janeiro. Anais... Rio de Janeiro: IEEExplore, 2009. Edição Eletrônica. [9] PRENSKY, M. Artigo Cientifico: “Simulations”: Are They Games?. Universidad Pontifícia Bolivariana. 2001. Disponível em: <http://cmap.upb.edu.co/rid=1GQBR 21SS-53V57D-7QC/Prensky %20-%20Simulations-Are%20They %20Games.pdf> Acesso em: 29/04/2014. [10] VOLKER, M. B. Escola de Jogos. <www.escoladejogos.com.br> Acesso em: 10/04/2014

6



Desenvolvimento de Solução utilizando Redes de Petri Aplicado na Modelagem do Processo de Especificação de Equipamentos Letícia Naresse Zambon de Oliveira1, Carlos Frajuca2, Francisco Yastami Nakamoto3 INSTITUTO FEDERAL DE SÃO PAULO, São Paulo, Brazil, e-mail: leticia03@ig.com.br 1, frajuca@gmail.com 2, nakamoto@poli.usp.br 3

Abstract - The continuous technology development of telecommunications components and equipment provides many options to reach client necessities. Consequently, the activities control of productive process is critical to assure product flexibility to client and a market differential for company. Moreover, the quality of project bill of materials for installation of telecommunications equipment is critical to keep costs within limits of forecast project budget. Mistakes on quantities or lack of materials to accomplish equipment installation in field results in delivery delays and project costs increase. This paper aims to present the modeling of a process design specification of the telecommunications equipment components using Petri nets. Index Terms - Petri Nets, PFS (Production Flow Schema), Requirements analysis (design specifications), Telecommunications. Resumo - O contínuo desenvolvimento tecnológico dos componentes e equipamentos nas telecomunicações fornecem uma gama de opções para o atendimento das necessidades dos clientes. Consequentemente, o controle sobre as atividades do processo produtivo é fundamental para garantir ao cliente a disponibilidade e a flexibilidade de produto e à empresa um diferencial de mercado. A qualidade da lista de materiais para instalação de equipamentos de telecomunicações é fundamental para que se mantenham os custos dentro dos limites previstos no projeto. Um erro de quantitativo e/ou a falta de materiais necessários para a instalação do equipamento em campo resultam também em atraso na entrega da instalação, elevando mais ainda os custos do projeto. O presente trabalho tem como objetivo apresentar a modelagem do processo de especificação de componentes de equipamentos de telecomunicações utilizando a redes de Petri. Palavras chave - Análise de Requisitos, Especificações de projeto, Redes de Petri, PFS (Production Flow Schema), Telecomunicações.

1. INTRODUÇÃO O mercado de projetos de engenharia na área de telecomunições é sazonal e tem grandes picos de produção associados a curtos prazos para atendimento das demandas de serviços. Consequentemente, a flexibilidade de produção e o controle sobre as atividades do processo produtivo são alguns dos atributos fundamentais para que se possa manter um alto nível de qualidade dos serviços prestados, sendo inadmissível o retrabalho das atividades envolvidas na cadeia produtiva. Uma das principais atividades para instalação de equipamentos para as redes de telefonia celulares é a Lista de Material (LM). Nela são contemplados todos os itens necessários para que se ocorra à instalação do equipamento de acordo com os requisitos definidos pelo cliente e registrados em contrato comercial. A qualidade da lista, considerando-se a especificação de cada item e na quantidade suficiente com previsão para possíveis imprevistos, influencia efetivamente no tempo de instalação e na

qualidade do serviço prestado. O presente estudo foi realizado em uma empresa de telecomunicações em que houve um aumento dos custos de projeto para a instalação de tais equipamentos. Dentro deste contexto, foram identificados não conformidades no atendimento aos prazos de entrega devido a erros na LM. A partir de um levantamento do histórico dos projetos implantados nos últimos anos pela empresa, constatou-se que grande parte dos erros é de natureza de especificações e/ou nas quantidades necessárias dos componentes requeridos no projeto. Outro aspecto identificado é que cada projetista consulta um conjunto de manuais técnicos e banco de dados individuais, o que dificulta o compartilhamento de informações atualizadas. Adotando-se uma abordagem estruturada, mediante emprego de uma ferramenta de modelagem, foi possível sistematizar o processo de elaboração da LM que resultou na implementação de uma ferramenta computacional. O presente trabalho tem como objetivo descrever o processo de modelagem e apresentar os resultados preliminares obtidos da etapa de validação da solução. 2. REVISÃO BIBLIOGRÁFICA 2.1 Sistemas a Eventos Discretos O processo de elaboração da LM possui um conjunto de atividades que são executadas sequencialmente e/ou paralelamente. Isto implica na ocorrência de um evento para iniciar uma determinada atividade e outro evento para finalizar a mesma. Tais sistemas pertencem à classe de Sistemas a Eventos Discretos (SED) [1]. Os SED são sistemas em que a evolução dos estados ocorre de forma assíncrona, com bases na ocorrência de eventos, que causam uma transição instantânea de estados. Sendo possível a ocorrência de conflito e concorrência de eventos. As teorias aplicadas a SED são relativamente recente se comparadas ao Sistema de Variáveis Contínuas (SVCs), em que as variáveis de estado evoluem de forma contínua no tempo, em função de fenômenos da natureza, isto é, baseadas em leis invariantes da física [2]. Os SEDs podem ser modelados utilizando-se Máquinas de Estado [1], Cadeia de Markov [1], Teoria das Filas [1], Redes de Petri [1][2][3][4], entre outros. 2.2 Redes de Petri (RdP) A Rede de Petri (RdP) é uma ferramenta gráfica e matemática, desenvolvida por Carl Adam Petri em 1962 [2] para a modelagem de SEDs. A RdP, como uma ferramenta gráfica, permite uma comunicação visual entre os projetistas. Por outro lado, como ferramenta matemática, é o modelo que


representa o comportamento do sistema real por meio de equações algébricas. A RdP é um grafo bipartido, composto de círculos e barras conectados por arcos orientados (fig. 1) que representam os estados que um sistema pode alcançar e os eventos que causam a mudança destes estados. Em uma RdP condição-evento, o círculo, chamado de lugar ou condição, representa um estado que o sistema modelado pode assumir, enquanto à barra, denominada de transição, associa-se os eventos que causam a transição de estados. O último elemento é o token, que determina o estado em que se encontra a rede em função da marcação no lugar. Consequentemente, o processo de modelagem utilizando RdP consistem em identificar os estados do objeto de controle e os eventos associados às transições que causam a transição entre os estados. Outro aspecto importante da RdP é a capacidade da ferramenta em modelar conflito, concorrência e paralelismo de eventos.

a) Transição.

execução simultânea de tais atividades. O PFS possui três elementos:  Elemento ativo ou atividade: são elementos que realizam a ação;  Elemento passivo ou distribuidor: são elementos que apresentam o estado em que se encontra o objeto que sofre a ação;  Arcos orientados: são elementos que associam a atividade ao distribuidor e vice-e-versa. A estrutura do modelo do PFS dos elementos-atividade tem como função representar um subprocesso, caracterizado por uma seqüência de atividades pertencente a um processo maior, não sendo guiada por nenhuma teoria ou esquema, do mesmo modo que a escolha de procedimentos e funções em uma linguagem estruturada. Portanto, as atividades podem ser interpretadas como módulos em que há uma entrada e uma saída bem definida, caracterizando a funcionalidade de cada um destes módulos, [6]. Além disso, o PFS permite a modelagem de conflito, concorrência e paralelismo de atividades. O refinamento sucessivo em PFS é realizado a partir de uma macro atividade subdividindo-se em subatividades inerentes a mesma ou a partir de um distribuidor detalhando-o em uma sequência de subatividades (fig. 2).

b) Paralelismo.

a) Atividade PFS.

c) Conflito. Figura 1. Marcação na Rede de Petri, (a) transição, (b) paralelismo e (c) conflito.

2.3 Production Flow Schema (PFS) e Sistemática PFS/RdP Considerando-se um processo como um conjunto de atividades sequenciais e/ou paralelas que resultam em um produto ou uma prestação de serviço [5], a modelagem de um sistema utilizando-se a RdP somente, dependendo da complexidade do objeto modelado, pode gerar uma rede desestruturada e de difícil análise e validação. Isto ocorre devido ao fato da RdP permitir modelagem sob o ponto de vista de alto nível, isto é, as atividades do processo, e de baixo nível, isto é, no nível de sensores e atuadores. Consequentemente, se faz necessário o emprego de uma ferramenta complementar que auxilie a geração de uma RdP de forma estruturada. Neste sentido, a ferramenta Production Flow Schema (PFS), proposto por [4] para modelar o fluxo de operações mediante uma abordagem top-down com refinamento sucessivo, permite a modelagem do sequenciamento das atividades de um processo, inclusive a

b) Elemento distribuidor do PFS. Figura 2. Elementos da PFS (a) e (b).

A sistemática PFS/RdP [4] permite o mapeamento do modelo PFS para a RdP. Após o refinamento sucessivo do PFS até o nível de abstração desejado, os elementos-atividade podem ser expandidos em duas transições e um lugar (lugar-atividade) em RdP. Quando é necessária a indicação do início e da conclusão de uma atividade, é diferenciada a transição de entrada (como a transição de início) da transição de saída (como a transição final). Na figura 3, m e n são, respectivamente, os números de entradas e saídas simultâneas de um elemento. Para o elemento-distribuidor pode ser também expandido em um


lugar (lugar-distribuidor) com transições à entrada e à saída, como indicado na figura 4.

Figura 3. Elemento atividade em RdP [5].

elaboração da LM foi modelado de forma macro, considerando-se as principais atividades que devem ser executadas, além da relação de sequenciamento destas atividades. Após esta primeira modelagem, foi realizada uma análise prévia a fim de verificar a possibilidade de possíveis melhorias no processo mediante alterações nas atividades e/ou no sequenciamento, inclusive a possibilidade de agrupar duas ou mais atividades em uma única ou desmembrar uma atividade em duas ou mais para melhorar a eficiência global do processo. Definido o processo macro, aplicou-se o refinamento sucessivo e o detalhamento das atividades do processo. Cabe salientar que neste trabalho as macro-atividades indicadas no PFS apresentam as condições e funções que melhor se aplicam para a solução do equipamento requisitado, ou seja, que resulta em uma LM mais adequada para cada projeto de instalação. Na figura 5, é possível visualizar o início da modelagem das atividades macros da PFS para a LM.

Figura 4. Elemento distribuidor em RdP [5].

3. MODELAGEM DO SISTEMA DE EXECUÇÃO DA LISTA DE MATERIAIS A localização (endereço) da instalação do equipamento de telecomunicações é definida a priori pelo cliente. Esta localização é denominado de site. Para efetivar a instalação, são necessários materiais que envolvem o próprio equipamento (hardware), materiais para instalação do sistema irradiante, composto pelos cabos que interligam as antenas e o equipamento, pequenas infraestruturas, tais como fixação do equipamento, alimentação, alarmes, sincronismo com a rede existente, aterramento, acabamentos e identificação dos cabos. A partir da apresentação das necessidades do cliente, mediante estudo da documentação do projeto apresentado pelo mesmo, verificam-se os requisitos necessários quanto às tecnologias disponíveis e soluções técnicas viáveis para a implantação do projeto. A partir da definição das especificações do equipamento, componentes e insumos, a proposta de solução é então definida junto ao cliente. A partir da proposta final, o projetista elabora a Lista de Materiais (LM) que deve conter as especificações de todos os componentes com os respectivos quantitativos. Esta atividade é uma das mais importantes dentro do escopo recebido pelo fornecedor com relação às atividades de pré-instalação do equipamento, pois as especificações incorretas ocasionam diversos retrabalhos na cadeia produtiva dentro da empresa. 4. MODELO PFS Primeiramente, o processo de especificação para a

Figura 5. Inicio da modelagem em PFS.

A primeira macro-atividade “Ler PN, QRF e Projeto Executivo” indica que devem ser lidos os respectivos documentos indicados pelo cliente para se determinar a solução tecnológica que será adotada para a instalação do equipamento. Observa-se que cada macro-atividade definida na PFS realiza o “ato de analisar” ou “definir” a solução, ou seja, a ação de analisar e definir os itens necessários para efetivar a instalação do equipamento em campo. Em seguida, é possível observar que a partir do distribuidor há três possibilidades distintas que podem ser seguidas: GSM (Global System for Mobile Communications), WCDMA (Wideband CDMA) e hibrido (equipamento que contempla as duas tecnologias citadas). Estes serão os três principais ramos da PFS a serem modelados. Em telecomunicações a tecnologia de transmissão/recepção do sinal (GSM/WCDMA/hibrido) definem várias características internas dos equipamentos, principalmente devido as diferentes frequências de banda. A tecnologia GSM utiliza as freqüências de 900 e 1800 MHz, WCDMA utiliza 850 e 2100 MHz e os híbridos são equipamentos projetados para serem


utilizados com as duas tecnologias em um mesmo gabinete. E assim sucessivamente, para diversas atividades macros definidas para estas três ramificações. 5. MODELAGEM EM REDES DE PETRI A modelagem em RdP emprega a sistemática PFS/RdP. Nesta etapa da modelagem, a partir do PFS define-se a relação estado-evento-estado das atividades no PFS para a RdP. A primeira macro-atividade definida na figura 5 “Ler QRF, PN e Projeto Executivo”, foi refinada sucessivamente em PFS e mapeada para a RdP, conforme apresentado na figura 6 apresenta seguir.

Figura 6. Verificação da configuração dos documentos QRF/PN/Projeto Executivo em RdP.

Observa-se que o refinamento sucessivo da atividade, resulta em três subatividades:  Analisar documento QRF;  Analisar documento PN;  Analisar Projeto Executivo  Definir a tecnologia. A ação de analisar nas atividades citadas anteriormente

permite a escolha das tecnologias a serem empregadas com critério. Isto implica de forma positiva o processo de elaboração da LM sob dois aspectos. Primeiro quanto à sistemática, uma vez que formaliza os procedimentos internos para a especificação dos componentes, e segundo quanto á utilização de uma mesma base de dados técnicos, permitindo inclusive a rápida atualização da mesma. Além disso, direciona o projetista da LM para quais definições futuras são as mais adequadas com relação à definição anterior, diminuindo a possibilidade de erros de definições por falta de conhecimento específico do projetista 6. DESENVOLVIMENTO DA FERRAMENTA PARA ESPECIFICAÇÃO DA LISTA DE MATERIAIS Com base na RdP gerada a partir da sistemática PFS/RdP, foi possível o desenvolvimento da ferramenta computacional para auxiliar o projetista na elaboração da LM, no trabalho em questão, optou-se pela planilha eletrônica (MS Excel). Existem duas etapas da ferramenta, a primeira consiste na definição dos materiais que serão utilizados para instalação dos equipamentos, e a segunda etapa consiste na definição dos materiais do sistema irradiante. O desenvolvimento da ferramenta foi dividido em duas etapas: (i) implementação de um banco de dados e a (ii) implementação da planilha efetivamente incluindo o questionário, tanto para a etapa de especificação dos materiais dos equipamentos tanto quanto para o sistema irradiante. A base de dados unificada permitiu o compartilhamento de uma mesma fonte para consulta e, consequentemente, uma fácil manutenção da mesma. Na aplicação em questão, optou-se por uma tabela em planilha eletrônica, podendo futuramente utilizar-se de um banco de dados com recursos SQL, por exemplo. O software efetivamente foi elaborado seguindo-se o formato de questionários que devem ser respondidos pelo projetista. As questões são estabelecidas a partir da RdP gerada, considerando-se as pré-condições, as pós-condições e o respectivo acesso ao conjunto de informações dos componentes e especificações em cada estado. Desta forma, guiado pela execução da RdP e a partir da resposta dada pelo projetista, ao término da execução do questionário, o aplicativo disponibiliza uma LM com todas as especificações do projeto de instalação, os respectivos quantitativos e as ordens de produção dos componentes manufaturados. O banco de dados foi um item de díficil desenvolvimento, pois cada projetista possuí os itens que acreditam ser os mais adequados para cada solução. Dessa maneira, alcançar um banco de dados único garantindo que todas as premissas fossem atendidas, e atendendo todos os modelos de soluções, dispendeu-se muitas horas de estudo das possibilidades, além da consulta de vários especialista e projetistas. Após este estudo, modelando com base nas ferramentas PFS/RdP, a etapa do questionário tornou-se intuitiva. 7. RESULTADOS OBTIDOS O teste e validação da ferramenta computacional foram realizados considerando-se as LM geradas em projetos


anteriores, realizados pelos projetistas da empresa. Comparando-se as LMs obtidas pela ferramenta com os registros de projetos realizados anteriormente à proposta do presente projeto, não foram identificados problemas qualitativos e quantitativos nas especificações. Paralelamente, foi realizado o teste e validação da RdP do processo de elaboração das LMs mediante emprego da ferramenta de simulação HPSim (disponível em http://www.winpesim.de/index.html). A etapa seguinte foi a obtenção de dados referente ao uso da ferramenta computacional pelos projetistas da empresa. Para a atividade em questão, foram convocados sete projetistas para utilizarem a ferramenta computacional. A partir dos registros de projetos de instalação realizados anteriormente, foram escolhidos de forma aleatória cinco projetos de cada um dos projetistas convocados e os mesmos deveriam executar novamente a elaboração de LM utilizando o método atual e utilizando a ferramenta computacional. Ao término da atividade, cada projetista respondeu a um questionário composto de quatro questões e as respostas foram registradas e tabuladas, conforme apresentado a seguir: a) A ferramenta atendeu às expectativas? A aceitação foi de 85,71% (tabela I). A justificativa apresentada pelo Projetista_4 foi quanto limitação da ferramenta em apresentar maiores possibilidades de configuração e não permitir a inclusão de outros elementos necessários à configuração.

Projetista_6 Projetista_7

A sugestão apresentada nesta questão foi disponibilizar apenas a quantidade mínima de informações e permitir que, em caso de necessidade do projetista, ele possa acessar a base de dados. c) A ferramenta foi de fácil manuseio? A aceitação foi de 100% (tabela III). TABELA III. RESULTADO DA QUESTÃO C. Projetista Projetista_1 Projetista_2 Projetista_3 Projetista_4 Projetista_5 Projetista_6 Projetista_7

Os resultados obtidos pelos projetistas foram organizados e tabulados a fim de realizar uma análise dos resultados obtidos. A tabela IV apresenta os tempos gastos em cada projeto pelos projetistas selecionados. TABELA IV: RESULTADO DA QUESTÃO D – ELABORAÇÃO DA LM MANUALMENTE (PROCESSO ATUAL).

Projetista

Projetista Projetista_1 Projetista_2 Projetista_3 Projetista_4 Projetista_5 Projetista_6 Projetista_7

Projetista_1 Projetista_2 Projetista_3 Projetista_4 Projetista_5 Projetista_6 Projetista_7

Em relação às sugestões de melhoramento apresentadas pelos projetistas, destacam-se duas: (i) a quantidade de perguntas com as mesmas opções podem ser reduzidas consideravelmente melhorando a interface da ferramenta com o usuário e a (ii) possibilidade durante o processo de especificação em voltar para questionamentos anteriores. b) A ferramenta foi de fácil manuseio? A aceitação foi de 85,71% (tabela II). A justificativa apresentada pelo Projetista_7 foi o volume excessivo de informações apresentadas em cada pergunta que podem dificultar o entendimento do processo de elaboração da LM para o projetista que não realizou o processo de forma manual. TABELA II. RESULTADO DA QUESTÃO B. Projetista Projetista_1 Projetista_2 Projetista_3 Projetista_4 Projetista_5

Resposta Sim Sim Sim Sim Sim

Resposta Sim Sim Sim Sim Sim Sim Sim

d) A ferramenta foi de fácil manuseio?

TABELA I. RESULTADO DA QUESTÃO A. Resposta Sim Sim Sim Não Sim Sim Sim

Sim Não

Elaboração da LM manualmente LM_1 LM_2 LM_3 LM_4 (min) (min) (min) (min) 30 30 40 45 30 35 40 50 30 35 45 40 25 25 30 35 20 25 35 20 35 35 40 45 50 50 60 65

LM_5 (min) 35 50 40 30 25 40 40

A tabela V apresenta os tempos gastos em cada projeto pelos projetistas selecionados. TABELA V. RESULTADO DA QUESTÃO D – ELABORAÇÃO DA LM NA FERRAMENTA.

Projetista Projetista_1 Projetista_2 Projetista_3 Projetista_4 Projetista_5 Projetista_6 Projetista_7

Elaboração da LM na ferramenta LM_1 LM_2 LM_3 LM_4 (min) (min) (min) (min) 6 6 6 6 5 5 6 6 8 7 9 7 11 12 10 11 7 7 9 7 10 11 10 11 10 10 11 10

LM_5 (min) 7 6 9 12 8 13 12

A ferramenta diminui de forma expressiva o tempo de execução da LM. Entretanto, em relação às sugestões de melhoramento apresentadas pelos projetistas foram: (i) Adicionar opções de antenas, suportes de parede e postes, a fim de aumentar o número de soluções possíveis com este equipamento.


8. CONCLUSÃO

9. REFERENCIAS

A partir dos dados colhidos, verificou-se que nas LMs geradas pela ferramenta computacional, em sua totalidade, não houve erros nas especificações, falta de itens e/ou no quantitativo dos componentes. A aceitação da ferramenta entre os projetistas foi muito positiva na linha de produção (Tabela VI).

[1]

TABELA VI: ANÁLISE DOS RESULTADOS OBTIDOS.

[5]

Projetista Projetista_1 Projetista_2 Projetista_3 Projetista_4 Projetista_5 Projetista_6 Projetista_7 Total(méd.)

Média com a ferramenta (min) 6,6 6 8 11,2 7,6 11 10,6 8,71

Média manualmen te (min) 36 41 38 29 25 39 53 37,28

Otimização de execução (min)

Otimização de execução (%)

29,4 35 30 17,8 17,4 28 42,4 28,57

81,67 85,36 78,95 61,38 69,6 71,79 80 76,64

Além de melhorar o nível de qualidade nas execuções das LM, para acertos de 100% das listas, foi constatada uma redução do tempo de execução da LM de cada projetista em média de 76,64%. Os comentários, em geral feitos pelos projetistas indicam a necessidade de maior quantidade de itens de material e assim ampliar as soluções possíveis existentes. Cabe destacar que, para o propósito do presente trabalho, em que o objetivo é aplicar uma nova metodologia para o desenvolvimento de soluções em instalação de equipamentos de telecomunicações, foi considerado um número limitado de soluções para a elaboração da LM. Isto se fez necessário para validar o conceito. Destaca-se ainda, a melhoria da qualidade das LMs geradas e o potencial em relação à redução de custos do projeto de implantação de equipamento de telecomunicações. Do ponto de vista teórico, as ferramentas PFS, RdP e a sistemática PFS/RdP permitiram a modelagem do processo de elaboração de LMs e a implementação de uma ferramenta computacional baseada na plataforma Windows-Excel, uma vez que a RdP gerada é um algoritmo implementável. Como trabalhos futuros, pode-se desenvolver um maior banco de dados dos itens a serem especificados e com um número maior de soluções em instalações de equipamento de telecomunicações. Isto significa, em termos práticos, aplicar a mesma metodologia para diferentes clientes, com premissas diferenciadas, podendo ser incluída soluções com a tecnologia LTE (Long Term Evolution), infra-estrutura responsabilidade do fornecedor ou adaptar modelos para condições específicas solicitadas pelo cliente, por exemplo: modernização de equipamentos existentes, ampliações apenas de hardware, adaptações para melhoria de consumo ou otimização de espaço físico. Um aspecto interessante é a possibilidade de utilizar qualquer linguagem de programação comercial para a implementação da RdP do processo de elaboração de LM, gerando um software dedicado para o propósito.

[2] [3] [4]

[6]

[7]

C.G. Cassandras, S. Lafortune. Introducition to Discrete Evente System, 2nd, Ed Springer Science, 2008. T. Murata, Petri Nets: Properties, Analysis and Applications. Proceedings of the IEEE, vol.77, no 4, april 1989. J. Cardoso, R. Valette, “Redes de Petri”, Editora da UFSC, 1997. P.E. Miyagi. Controle Programável Fundamentos do Controle de Sistemas a Eventos Discretos. 1nd ed., Ed. Edgard Blücher Ltda, 1996, 4nd reimpressão, 2011. F.Y. Nakamoto, “Projeto de Sistemas Modulares de Controle para Sistemas Produtivos”. Tese de Doutorado. Engenharia de Controle e Automação Mecênica. Escola Politecnica – USP, 2008. A.G.S. Almeira, “Modelagem de Sistema de controle de ar condicionado baseado em redes de Petri” . Tese de mestrado. Engenharia de Controle e Automação Mecânica, Escola Politécnica USP, 2008. D. J. S. Filho, et al. “Estruturação da Modelagem de Processos em Sistemas Produtivos”. In:V Simpósio Brasileiro de Automação Inteligente. Porto Alegre, 2001.

Leticia Naresse Zambon de Oliveira. Possuí os títulos: Eletricista de Manutenção (SENAI, 2002), Técnico em Eletrônica (CEFET-SP, 2003), Engenheira Eletricista com ênfase em eletrônica (USJT, 2010). Desde 2008 atua na empresa Ericsson Telecomunicações como suporte técnico e coordenação técnica na área de engenharia na elaboração de documentação para instalação e especificação de materiais. Tem interesse nas áreas de telecomunicações, modelagem de processos e otimização de processos através da automação. Carlos Frajuca. Possui curso técnico em Mecânica pela Escola Federal de São Paulo (1982), bacharelado em Física pela Universidade de São Paulo (1987), Licenciatura em Mecânica pela Universidade Federal de São Carlos (1986), mestrado em Física pela Universidade de São Paulo (1992), doutorado em Física pela Universidade de São Paulo (1996) com bolsa modalidade "Sandwich" na Universidade Estadual da Louisiana e pós-doutorado na Universidade da Austrália Ocidental. Atualmente é Professor Titular de ensino profissional do Instituto Federal de Educação, Ciência e Tecnologia de São Paulo (IFSP), aonde foi diretor de ensino e diretor de pesquisa e pós-graduação, exercendo a posição de diretor de pós-graduação e recebendo, em 2014, uma bolsa de produtividade do CNPq na área de Engenharia Mecânica, Naval e Oceânica e Aeroespacial. Cedido ao Instituto Federal de Educação, Ciência e Tecnologia de Brasília, aonde foi Pró-Reitor de ensino (graduação), Pró-Reitor de Pesquisa e PósGraduação e Reitor Substituto. Parecerista da revista Classical and Quantum Gravity e Journal of Physics: conference series. Membro do Corpo Editorial da Revista Sinergia (CEFETSP) e Journal of Gravity. Tem experiência na área de Ensino Profissional e na área de Física, com ênfase em Instrumentação, atuando principalmente nos seguintes temas: transdutores paramétricos, detetores de ondas gravitacionais e educação profissional e tecnológica. Também é avaliador institucional pelo INEP/MEC, instituição responsável pela avaliação de instituições de educação superior. Professor do curso de mestrado profissional em automação e controle de procesos e do curso de mestrado acadêmico em engenharia mecânica do IFSP. Francisco Yastami Nakamoto. Bacharel em Engenharia Mecânica pela Escola de Engenharia da Universidade Presbiteriana Mackenzie em 1999, Especialista em Automação e Informática Industrial pelo Programa de Educação Continuada em Engenharia da Escola Politécnica da Universidade de São Paulo (EPUSP) em 2001, Mestre em Engenharia Mecânica pela EPUSP em 2002 e Doutor em Engenharia Mecânica pela EPUSP em 2008. Desde 2004 atua como docente do Centro Universitário Fundação Santo André. Desde 2010 atua como docente e pesquisador do Instituto Federal de Educação, Ciência e Tecnologia de São Paulo, desenvolvendo pesquisas na área de modelagem e controle de sistemas produtivos flexíveis e sistemas dinâmicos a eventos discretos. É membro da Associação Brasileira de Ciências Mecânicas desde 2007, membro da Sociedade Brasileira para o Progresso da Ciência desde 2009 e membro ISA - International Society of Automation desde 2013.


1 de 6

Desenvolvimento Ágil de sistemas alinhado com as boas práticas da Governança de TI Manuel F. Costa Filho1

Wellington S. Aguiar1,2 Otávio Fernandes Frota1 Henrique N. da Gama Mota1

manuelferreira.costa@gmail.com

wellington@tecsist.com

otaviofernandesfrota@gmail.com

mota.henrique@gmail.com 1

Centro Universitário Estácio do Ceará, Fortaleza-CE Universidade Estácio de Sá – UNESA, Rio de Janeiro-RJ2 RESUMO - O presente artigo tem como objetivo pesquisar

A Governança de TI se faz necessária para apoiar esta

tendências que o mercado está seguindo para melhorar a gestão

nova Governança Corporativa exigida pelo mercado e pelos

de riscos em projetos de desenvolvimento de sistemas, alinhando

acionistas.

o Desenvolvimento Ágil com as boas práticas da Governança de TI. Também é objetivo deste artigo, identificar evidências nas empresas que conseguiram um alinhamento aceitável entre estas

melhor gerenciar riscos em Projetos de desenvolvimento de Sistemas, considerando um ambiente onde se aplicam as boas

duas vertentes. Palavras

O objetivo geral desta pesquisa é buscar entendimento para

Chaves:

Governança

de

TI;

Scrum;

Cobit;

Desenvolvimento Ágil; Gestão de riscos; PMBOK; PMI;

práticas da Governança de TI. Em termos mais específicos, o propósito deste trabalho é

CMMI; SW-CMM.

pesquisar características e contribuições que o Framework

ABSTRACT - The present article has the objective to search the

SCRUM dispõe para melhor gerenciar riscos nos projetos de

market trends that are following to improve risk management in

desenvolvimento de sistemas, e assim, tornar a equipe do

systems development projects aligning Agile with good practice of

projeto mais assertiva em suas entregas.

IT governance. Another objective of this paper, identify evidence in companies that achieved an acceptable alignment between these two aspects. Keywords: IT Governance; Scrum; Cobit; Agile Development; Risk

Este artigo limita-se a apresentar tendências que o mercado está seguindo para alinhar desenvolvimento de sistemas com a Governança de TI, principalmente os pontos de controle na gestão de riscos, com foco no framework

management; PMBOK; PMI; CMMI; SW-CMM.

SCRUM. I. INTRODUÇÃO II. REFERENCIAL TEÓRICO

Na década de 90 surgiu nos Estados Unidos, um movimento visando garantir maior segurança aos acionistas

"a Governança de TI é influenciada pela Governança

de grandes companhias com relação à gestão de suas

Corporativa

organizações. Nestas organizações, os executivos, mesmo

segurança, o rastreamento e a transparência dos processos

contratados pelos próprios acionistas, tomavam decisões

intrínsecos da TI" [1].

comprometedoras para a companhia sem alinhar com seus

e

propõe

mecanismos para

aumentar

a

De uma forma geral, a Governança de TI apresenta dois

os

tipos de componentes em seu fluxo (partindo do alinhamento

em

estratégico até o resultado final); os componentes típicos da

demonstrativos, alterando informações de forma não muito

Governança de TI e os de gestão e operacional. O primeiro

ética.

componente (típico da Governança de TI) é composto por

acionistas. executivos

Além

desse

disfarçavam

comportamento resultados

abusivo,

negativos

Essas atitudes e comportamentos aconteciam devido à

[2]:

fragilidade dos controles do modelo de gestão da época, as

Riscos e compliance - definição da tolerância de riscos da

fraudes eram uma constante e os acionistas ficavam cada vez

organização;

mais incrédulos com a saúde financeira de seus investimentos

Avaliação independente - auditorias independentes para

[1].

verificar a conformidade de TI com os requisitos de compliance;


2 de 6

Gestão de mudança organizacional - processo de avaliar a

Fornecedores - gerenciamento de contratos e serviços

disponibilidade de mudanças das áreas de TI em função de

fornecidos por terceiros;

inovações em processos de gestão;

Resultados da TI - indicadores de desempenho de resultados

Alinhamento estratégico - interação entre TI e a alta

da TI;

administração

Resultados para o negócio - resultados da TI para o negócio

no

sentido

de

obter

direcionamentos

estratégicos;

em termos de apoio e aumento da rentabilidade;

Entrega de valor - avaliação dos programas e projetos e do

Comunicação e suporte de resultados - comunicação às

valor entregue;

partes interessadas sobre o desempenho da TI.

Gestão do desempenho - mecanismos de coleta e análise de

O PMBOK foi criado em 1986 pelo PMI (Project

indicadores;

Management Institute) com o objetivo de oferecer um guia

Comunicação - comunicação do valor entregue por TI ao

para o Gerenciamento de Projetos e tem evoluído com

negócio;

atualizações que tornam os processos ainda mais maduros.

Gerenciamento de recursos - supervisão do investimento e a alocação dos recursos de TI. O Segundo componente da Governança de TI (gestão e operacional) é composto por:

O PMBOK é um guia das melhores práticas de Gerenciamento de Projetos e a área de TI provavelmente é a área que mais utiliza estes conhecimentos. No PMBOK a gestão de riscos é considerada uma área do

Estratégia do negócio - são direcionamentos estratégicos do

conhecimento dentro dos processos de planejamento e de

negócio, objetivos ou mapas estratégicos da organização;

monitoramento e controle que define os seguintes processos:

Estratégia de TI - elaboração do plano de TI que pode ter

Plano de gestão de riscos (como conduzir a gestão de

uma visão externa para projetos do negócio e uma visão

riscos), identificação de riscos (determina riscos através de

interna para implantar projetos internos que permitam atender

probabilidade

aos seus clientes e usuários;

qualitativa de riscos (priorização de riscos), análise

Plano de TI (negócios) - projetos de TI para o negócio pode

quantitativa de riscos (análise numérica dos efeitos dos

ser considerado como implantação de novas aplicações ou

riscos identificados), plano de respostas aos riscos

projetos de inovações;

(desenvolve ações para aumentar oportunidades e reduzir

Plano de TI (internos) - são planos de TI que precisam

riscos) [3].

de

ocorrência

com

impacto),

análise

implantar para atender seus clientes internos, como processos

Os riscos em projetos podem ser positivos ou negativos.

operacionais, desenvolvimento de recursos humanos e

Os riscos positivos podem indicar uma oportunidade de

capacitação pessoal;

melhoria no processo, já os riscos negativos podem resultar

Mecanismos de decisão - apoio aos comitês necessários para

em atrasos em cronogramas, aumento do orçamento ou até

tomada de decisões em TI e priorização de investimentos em

mesmo divergência na finalização do produto com o esperado

TI;

pelo cliente.

Portfólio de TI (orçamento e investimentos) - o portfólio é

"o Scrum foi criado em 1996 por Ken Schwaber e Jeff

criado a partir da priorização aprovada nos mecanismos de

Sutherland, como um método ágil que aceita que o

decisão;

desenvolvimento de software é imprevisível e formaliza a

Clientes/usuários - relacionamento da TI com seus clientes e

abstração, sendo aplicável a ambientes voláteis" [4].

usuários;

SCRUM é um framework que está sendo utilizado para

Operações de serviços - gerenciamento de projetos e

gerenciar projetos complexos de desenvolvimento de

serviços de TI para o negócio ou interno;

software apresentando uma definição com várias técnicas e processos que podem ser aplicadas ou melhoradas enquanto


3 de 6

gerencia o projeto. E ainda, podemos acrescentar que o

requisitos solicitados pela ANS (Agência Nacional de

SCRUM permite que pessoas possam resolver problemas

Saúde), usando o SCRUM para monitorar e controlar de

complexos e adaptativos de forma produtiva e criativa,

riscos eminentes nos projetos de TI.

enquanto entregam produtos com o mais alto valor e também podemos dizer que o SCRUM é; Leve, simples de entender e

Foi aplicado um questionário na Empresa, onde o gestor

extremamente difícil de dominar [5]. O time SCRUM é composto por três papéis que são: o Product Owner, o Development Team e o Scrum Master. Os times Scrum são auto-organizáveis e multifuncionais e assim escolhem a melhor forma para completarem seu trabalho

e

IV. LEVANTAMENTO DOS DADOS

também possuem todas as competências

responsável pelo setor de desenvolvimento de software respondeu sobre algumas questões relacionadas aos Projetos de TI e a Gestão da equipe de desenvolvimento, como segue: Primeira questão: A Empresa utiliza apenas o framework SCRUM para gerenciar Projetos de TI?

necessárias para completar o trabalho sem depender de outros

"Não. Para o gerenciamento de Projetos de TI a Empresa

que não fazem parte da equipe. Esse modelo de time Scrum é

utiliza a metodologia do PMBOK e para planejar e

desenhado para aperfeiçoar a flexibilidade, criatividade e

acompanhar o trabalho da equipe de desenvolvimento é utilizado o framework SCRUM".

produtividade [5]. Uma recomendação do Scrum para a gestão de riscos é que se deve trabalhar primeiramente nas estórias que apresentam maior valor quanto ao incremento no produto e menores riscos [5].

Segunda questão: Qual a interação do SCRUM e o PMBOK na Empresa? "Os projetos são criados e gerenciados utilizando a metodologia guiada pelo PMBOK e após sua priorização

No framework SCRUM, os riscos são identificados durante

entram em contato com o framework SCRUM para

a inspeção realizada em cada evento time-box, e isso reforça

planejar, acompanhar e revisar o trabalho da equipe de

a ideia que quanto mais eventos a organização utilizar maior

desenvolvimento".

será o grau de oportunidades de identificar e prever riscos no Terceira questão: Quais os eventos do SCRUM são

projeto [5].

utilizados na Empresa ? III. METODOLOGIA

"A Empresa utiliza os seguintes eventos time-box: O

O estudo de caso é uma “investigação empírica que

Sprint, a reunião de Planejamento do Sprint e a reunião de

investiga um fenômeno contemporâneo em profundidade e

Revisão do Sprint. E no caso da Reunião Diária a Empresa

em seu contexto de vida real... especificando quando os

não adotou, mas criou uma reunião semanal com objetivo

limites entre o fenômeno e o contexto não são claramente

semelhante onde a equipe de desenvolvimento comenta

evidentes” [6].

sobre o que foi feito, o que falta ser feito e os

Esta pesquisa é do tipo qualitativa e tem como método a pesquisa bibliográfica para criar um referencial teórico capaz

impedimentos". "Na Empresa, o Sprint foi definido como sendo um evento de time-box de 15 dias."

de direcionar este trabalho. A abordagem é qualitativa, onde a coleta de dados é feita através de um questionário aberto

Quarta questão: Como o SCRUM contribui para a Gestão

aplicado

de Riscos na Empresa?

em

uma

Empresa

que

apresenta

ótimas

contribuições no campo desta pesquisa.

"É na Reunião Semanal (adaptada pela Empresa), que a

Esta pesquisa qualitativa foi realizada em uma Empresa de

equipe de desenvolvimento comenta sobre o trabalho

grande porte no segmento de planos de saúde odontológica

realizado e os impedimentos. É desse trabalho realizado

do Estado do Ceará, mas com atuação em todo Brasil, que

que o gestor da área coleta informações para atualizar na

utiliza as boas práticas da Governança de TI para atender a

EAP do PMBOK e no Gerenciamento de riscos."


4 de 6

Quinta questão: Como o SCRUM contribui para a

contribuem muito para que a Governança de TI atenda aos

transparência e previsibilidade nos Projetos de TI na

requisitos desejados. Dentre estes frameworks, o COBIT,

Empresa?

PMBOK, CMMI e SCRUM, onde cada um tem sua

"A

reunião

de

Planejamento

de

Sprint

mostra

contribuição e particularidade que deve ser estudada e

transparência para a equipe de desenvolvimento e para a

analisada para encontrar a melhor solução a ser utilizada na

Empresa em Geral, apresentando os projetos que serão

Empresa.

trabalhados e entregues no Sprint seguinte."

No estudo de caso aplicado nesta pesquisa, a Empresa

Sexta questão: A direção da Empresa foi bem receptiva ao

utilizada como modelo, utiliza as boas práticas da Governança de TI para atender alguns itens regulados pela

framework SCRUM?

ANS e também utiliza o guia do PMBOK com algumas "Sim. A diretoria aceitou o SCRUM por ter sido indicado

adaptações para o Gerenciamento de Projetos de TI. E para o

pela TI da Empresa e oferecer melhor organização e

gerenciamento da equipe de desenvolvimento de software, a

controle de riscos nos projetos de TI."

Empresa utiliza o framework SCRUM para planejar o Sétima questão: A Equipe de desenvolvimento foi bem

trabalho a ser realizado e inspecionar o trabalho que foi feito,

receptiva a utilização do framework SCRUM?

e assim conseguiu o nível aceitável de produtividade e

"Sim. A própria equipe de desenvolvimento sugeriu a

melhorou a gestão dos riscos nos Projeto de TI.

utilização do SCRUM para gerenciamento dos projetos de

Nesta pesquisa, também foi observado que é possível fazer

TI, por ser ágil, adaptável, dinâmico e permitir melhor

adaptações no framework SCRUM de acordo com as

visibilidade, transparência e planejamento pela equipe."

necessidades da Empresa, de forma que, seja possível o alinhamento com outros frameworks de gerenciamento de

V. RESULTADO DA PESQUISA

Projetos. No entanto, o gestor deve estar atendo quando

Conforme questionário aplicado na respectiva Empresa, o

realizar essas adaptações no SCRUM para não perder a

número de perguntas e a qualidade das respostas fornecidas

essência de seus pilares que são: transparência, inspeção e

pelo

adaptação.

profissional

metodologias,

responsável

foram

em

satisfatórias

aplicar para

ambas

aceitar

as

como

indicativo sobre o grau de contribuição que o framework SCRUM pode trazer para a Governança de TI, e ainda facilitar para uma maior produtividade dentro da equipe de desenvolvimento de software.

No caso da Empresa que participou desta pesquisa, podemos concluir que além do SCRUM a Empresa também utiliza o PMBOK para Gerenciamento de Projetos de TI. E que, as possíveis perdas de inspeção e transparência devido às adaptações no SCRUM, foram compensadas pela Gestão de Riscos e de Comunicação do PMBOK.

VI. CONCLUSÕES Conforme

apresentado

anteriormente

no

referencial

teórico, as Empresas passaram a demandar muito da Governança de TI após as cobranças da Governança Corporativa, intensificando a segurança das informações, melhorando os controles, monitorando riscos e alinhando Projetos de TI com a estratégia da Empresa para atingir seus objetivos. E, para auxiliar no atendimento dessas demandas, diversos frameworks foram criados com modelos e práticas de gerenciamento de riscos em Projetos de TI, que

Diante do exposto aqui apresentado, espero ter contribuído para que o leitor amplie seus conhecimentos sobre os aspectos da Governança de TI e o Gerenciamento de Projetos de TI em Desenvolvimento de sistemas usando metodologias ágeis. Novas pesquisas são indicadas para contribuir nas conclusões deste trabalho, como por exemplo: aplicar o


5 de 6

questionário da pesquisa em outras empresas do mesmo setor da economia ou em outros setores.

REFERÊNCIAS [1] AGUIAR, Wellington S. A Governança em Tecnologia

[2]

[3]

[4]

[5]

da Informação em Empresas de Planos de Saúde Suplementar: Estudo de Casos no Estado do Ceará, 2013, Dissertação de Mestrado - UNIVERSIDADE ESTÁCIO DE SÁ, Rio de Janeiro-RJ, 2013. FERNANDES, Aguinaldo Aragon; DE ABREU, Vladimir Ferraz. Implantando a Governança de TI - da Estratégia à Gestão de Processos e Serviços (3a. edição). Brasport, 2012. SILVA, Priscila Coelho da. Análise da gestão de riscos em projetos de sistemas de informação. 2011. Disponível em <http://www.lume.ufrgs.br> acesso em 11/06/2013. MARÇAL, ANA SOFIA C. SCRUMMI: Um processo de gestão ágil baseado no SCRUM aderente ao CMMI, Dissertação (Mestrado em Informática Aplicada da Universidade de Fortaleza UNIFOR) UNIVERSIDADE DE FORTALEZA, CE, 2009. SCHWABER, Ken; SUTHERLAND, J. Guia do SCRUM. Trad. Heitor Roriz Filho, Michel Goldenberg, Rafael Sabbagh. Disponível em: http://www. Scrum. org/scrumguides, 2009.

[6] YIN, Robert K. Estudo de caso: Planejamento e

métodos. 4ª ed. Porto Alegre: Ed. Bookman, 2010.


6 de 6


e-PID: Electronic Professional Identity Document Ricardo Alexandre Afonso1,2, Davi de Sousa Garcia1, Vinicius Cardoso Garcia 2, Alexandre Álvaro3 1

NCEx – Núcleo de Ciências Exatas - (UFAL) Universidade Federal de Alagoas Arapiraca – Alagoas - Brasil ricardo.afonso@arapiraca.ufal.br; dsgcc@gmail.com 2 CIn – Centro de Informática - (UFPE) - Universidade Federal de Pernambuco Recife – Pernambuco – Brasil raa4@cin.ufpe.br; vcg@cin.ufpe.br 3 DComp – Departamento de Computação - (UFSCar) - Universidade Federal de São Carlos São Carlos – São Paulo - Brasil alexandre.alvaro@gmail.com Resumo— Atualmente dados profissionais e pessoais se encontram distribuídos em varias redes sociais, dificultando a mineração de dados em busca de determinados perfis para a seleção de recursos para projetos. A falta de acompanhamento do histórico evolutivo da carreira dessas pessoas impossibilita uma política de cargos e salários baseada no desenvolvimento de habilidades. O objetivo desse trabalho é apresentar uma ferramenta de mapeamento de perfis e habilidades profissionais baseada em conteúdo de redes sociais que acelera a busca por profissionais com as habilidades desejadas. Palavras chaves— Big Data, Gestão de Projetos, Redes Socais,

I. INTRODUÇÃO As redes sociais atualmente produzem grandes massas de dados que vêm sendo utilizados como insumo para adotar estratégias de seleção, entrada e permanência dos trabalhadores no mercado de trabalho. Segundo [1], o poder implícito nas informações disponíveis em redes sociais sobre vagas estende-se nas hierarquias das empresas, explicitamente, nas funções hierárquicas de decisão sobre a permanência no emprego. A principal motivação deste trabalho é apresentar uma ferramenta que possibilite o mapeamento de perfis e habilidades profissionais baseada em conteúdo de redes sociais, catalogando e acompanhando o desenvolvimento de habilidades profissionais dos usuários mapeados. Para isso, a seção II deste trabalho apresenta uma visita aos trabalhos prévios em redes sociais e seus conceitos básicos. A seção III define a proposta desse trabalho, chamada de e-PID. Fica a cargo da seção IV ilustrar alguns resultados alcançados até o momento, enquanto a seção V discute as conclusões as quais chegamos com a utilização desta ferramenta e metodologia. II. REDES SOCIAIS: ESTRUTURA E CONCEITOS BÁSICOS Compreender os conceitos básicos das redes sociais permite compreender os atores envolvidos no processo de produção de

dados, e na relação entre esses atores por conta do interesse que esses dados causam. Especificamente redes sociais que incluem dados profissionais têm sido cada vez mais utilizadas na filtragem e seleção de candidatos para vagas de emprego e alocação em projetos. O jornal Estadão [2] aponta três iniciativas mais utilizadas em termos de Redes Sociais Profissionais (LinkedIn, Bayt e Xing). Embora as duas últimas sejam mais conhecidas na Ásia e Europa, através de consultas na internet é possível analisar o crescimento do interesse dos usuários nessas iniciativas no Brasil, e essa busca possui maior intensidade nas regiões sul e sudeste como observado na Figura 1.

Fig. 1 Busca de Redes Sociais Profissionais utilizando o Google Trends. Fonte: Google Trends [3]

As subseções a seguir apresentam uma breve contextualização das Redes Sociais e sobre a forma como os dados podem ser coletados dos atores envolvidos.


A. Redes Sociais: Atores e Relações Segundo [4] as redes sociais podem ser definidas como conjuntos de atores, grupos, organizações e comunidades que mantem elos através de relações sociais. Toda rede social é formada por atores, que podem exercer papeis centrais ou periféricos na rede social. Entender o papel desses atores em uma rede social pode tornar mais fácil a compreensão da influencia que ele exerce em outros atores e quais propriedades o tornam um ator com capacidade de melhor relacionamento e influencia dos demais. Tais propriedades podem incluir habilidades, opiniões, formação acadêmica ou profissional, e assim por diante. A Figura 2 apresenta um exemplo de busca na rede social Facebook [5], onde devem ser indicados atributos do usuário e de sua relação com outros, como por exemplo, local de trabalho. Fig. 3. Usuários que replicaram a palavra “Infobrasil” na rede social Twitter. Fonte: do autor, pelo NodeXLGraph [7]

Para obter a análise de origem desses dados foi utilizada a ferramenta NodeXLGraph [7] que após filtragem dos dados, indica em vermelho na parte superior direita da figura a origem do texto, e de que forma esse dados se espalharam pela rede social através dos contatos do usuário. C. Descoberta de conhecimento em banco de dados Para formalizar o processo de análise de redes sociais, se faz necessário utilizar uma metodologia. Atualmente a Atores não agem de forma independente, por isso, é Extração ou descoberta de conhecimento, também conhecido importante também catalogar os tipos de contatos existentes como processo KDD, do acrônimo em inglês KDD entre eles, atribuindo assim propriedades como: (Knowledge Discovery in Databases) é um processo que relacionamentos de trabalho, amizade, parentesco ou interesse permite a extração de informações de uma base de dados, e específico. geralmente em bases de dados contendo grandes volumes. Dessa forma é possível personalizar buscas tanto por Este processo caracteriza-se por etapas, com finalidades propriedades dos atores de uma rede social, quanto das distintas de extração de dados e transformação destes dados relações que moldam o comportamento dos envolvidos em em informações. determinados assuntos. Segundo Fayyad [8] o KDD trata-se de um conjunto de etapas bem distribuídas, que processam os dados seguindo a B. Análise de Redes Sociais (ARS) A análise de redes sociais, ou SNA (Social Network seguinte ordem: 1) Seleção: Coletar e buscar dados no Banco de Analysis) é o mapeamento e medição de relações e fluxos Dados; entre pessoas, grupos, organizações, computadores ou outras 2) Pré-processamento: Tratar os dados e separar entidades de processamento de dados, e até mesmo na caracteres especiais e codificação textual; transformação destes dados em conhecimento. 3) Transformação: Definir padrão de dados e corrigir Scott [6] define a análise de redes sociais como sendo um erros de grafia; método de visualização de conexões e interações entre pessoas, 4) Mineração: Aplicar algoritmos e técnicas de produtos e processos. analise de dados para realizar a interpretação da Dessa forma, segundo o autor, se torna possível identificar informação desejada e comportamentos e padrões. A Figura 3 apresenta uma análise 5) Interpretação: Transformar a informação em dos dados obtidos com a replicação de dados dos usuários da gráficos. rede social Twitter. Para obter uma medição de replicação de informação, foi citada a palavra “Infobrasil”. A Figura 4 apresenta as etapas do KDD, que foram utilizadas nesse trabalho para realizar a coleta e interpretação dos dados utilizados na proposta da ferramenta apresentada na seção III. Fig. 2 Busca de Pessoas no Facebook [5] com detalhes específicos sobre local, educação e trabalho.


O objetivo principal de criar um documento temporário eh acompanhar o desenvolvimento pessoal de habilidade dos recursos. Desta forma, gestores poderão acompanhar a curva de aprendizagem e aquisição de habilidades dos seus recursos, bem como propor novas regras para incentivos à gestão de cargos e salários. O recurso por sua vez não precisará se preocupar em atualizar diversos repositórios de dados com suas novas competências, pois a ferramenta fará a coleta desses dados contidos nas redes sociais (Facebook 1 e LinkedIn 2 ), e automaticamente vai gerar as atualizações no seu e-PID. Fig. 4. Etapas do KDD (Knowledge Discovery in Databases)

A Seção seguinte apresenta a proposta da ferramenta ePID e como se pretende armazenar e coletar os dados profissionais dos recursos a serem utilizados em projetos.

IV. RESULTADOS Para criar o e-PID de um usuário, foram seguidos os processos do KDD apresentados na Seção 2, definindo da seguinte maneira as etapas envolvidas:

III. E-PID: DOCUMENTO ELETRÔNICO DE IDENTIDADE PROFISSIONAL Segundo o PMBOK [9] o gerenciamento de recursos humanos do projeto, que representa uma entre as nove áreas de conhecimento, possui como atribuição, identificar e documentar as funções, responsabilidades e relações hierárquicas do projeto em relação aos recursos humanos envolvidos, além de permitir que seja criado o plano de gerenciamento de pessoal. Tanto a etapa de contratação quanto de desenvolvimento da equipe precisa ser subsidiada pelos dados sobre as habilidades adquiridas pelos recursos humanos do projeto envolvido. Entretanto, obter esses dados nem sempre é uma tarefa simples, quando não se conhece ou não se possui a documentação fornecida pelos candidatos, sendo assim, necessário recorrer aos dados disponíveis em redes sociais. Esse trabalho propõe a criação de um documento chamado e-PID (Eletronic Professional Identity Document) cuja função é armazenar em um grande repositório de dados (Big Data) as propriedades dos atores e seus relacionamentos com palavras chave que identifiquem a aquisição de algum tipo especifico de habilidade dos recursos durante intervalos de tempo determinados. Na Figura 5 é apresentado um perfil de determinado recurso, e quais habilidades foram modificadas entre o segundo semestre do ano de 2013 e o primeiro semestre de 2014. Desta forma se torna possível acompanhar quais habilidades se manteve estáveis e quais foram incrementadas através de cursos de capacitação, certificações ou treinamentos.

. Fig. 5. Perfil de um usuário e sua possível aquisição de novas habilidades.

1) Seleção: Foram utilizadas as ferramentas LinkedIn Maps3 e NodeXL [10] para selecionar as propriedades do usuário e seus relacionamentos. Para isso foram importados os registros das redes sociais Facebook e LinkedIn; 2) Pré-processamento e Transformação: Foram localizadas palavras chave como (ERP e Java) para identificar as habilidades de cada usuário; 3) Mineração: A importação diária de dados para cada usuário forneceu em média trinta mil registros e foi realizada no período de 16 de Setembro de 2013 a 4 de Agosto de 2014, totalizando assim, 543 mil registros relacionados a mudanças no perfil ou atualizações referentes aos dados de trabalhos de todos os contatos dos quatro autores deste trabalho e 4) Interpretação: Os perfis que registraram as palavras chave mineradas deram origem a um gráfico que indicava os relacionamentos entre os autores deste trabalho, permitindo assim identificar quais usuários da rede social dos autores possuem interesse ou competência relacionadas as palavras chave relacionadas. A Figura 6 apresenta o mapa de relacionamentos profissionais entre os autores do artigo e seus locais de trabalho (UFAL, UFSCar e UFPE).

1

Facebook. Disponível em: http://www.facebook.com LinkedIn. Disponível em: https://br.linkedin.com 3 Linkedin Maps. Disponível em: http://inmaps.linkedinlabs.com 2


Fig. 6. Usuários conectados por habilidades relacionadas a “ERP” ou “Java”. V. CONCLUSÕES Através deste trabalho foi possível concluir que a busca por informações sobre perfil profissional nas redes sociais é uma tarefa relativamente simples e usual, entretanto, ferramentas que acompanham o histórico de evolução destes perfis ainda não possuem referências na literatura ou desenvolvimento. Auxiliar a Gestão de projetos na busca por recursos habilitados nas demandas desejadas pode ser o principal foco desta metodologia, e o armazenamento das capacidades adquiridas pode auxiliar nas politicas de cargos e salários para incentivar a capacitação dos recursos. Este trabalho apresentou uma metodologia baseada na aquisição de conhecimento (KDD) combinada com técnicas de armazenamento de grandes volumes de dados (Big Data) para permitir uma seleção de recursos e o acompanhamento de suas mudanças de habilidades referentes a determinadas palavras chave. Como trabalho futuro, esses passos dados precisam ser sistematizados em uma única ferramenta capaz de filtrar palavras chave e automaticamente efetuar a busca e armazenamento de dados sem a interferência humana, dando assim, maior independência para a ferramenta e deixando o Gestor sem a preocupação de dominar as tecnologias envolvidas no processo.

.

AGRADECIMENTO Este trabalho e Ricardo A. Afonso foram parcialmente financiados pela FACEPE (Fundação de Amparo à Ciência e Tecnologia do Estado de Pernambuco), concessão IBPG0499-1.03/11.. REFERENCIAS [1]

[2]

[3]

[4]

[5] [6] [7]

[8]

[9]

[10]

LIMA, Jacob Carlos; DE SOUSA CONSERVA, Marinalva. Redes sociais e mercado de trabalho: entre o formal e o informal. REVISTA POLÍTICA & TRABALHO, v. 24, 2006. Jornal Estado de São Paulo. “Conheça três redes sociais profissionais”. [Online]. Disponível em: http://blogs.estadao.com.br/procurase/linkedin-bayt-xing/ (2014) Google Trends Website. [Online]. Disponível em: https://www.google.com.br/trends/explore#geo=BR&q=LinkedIn,+Ba yt,+Xing&cmpt=q MARTELETO, Regina Maria. Análise de redes sociais: aplicação nos estudos de transferência da informação. Ciência da informação, v. 30, n. 1, p. 71-81, 2001. MURTEIRA, Mário et al. A" Nova" Economia do Trabalho. 2005. SCOTT, J. Networks of corporate power: a comparative assessment. Annual Review of Sociology, v. 17, p. 181-203, 1991. DUNNE, Cody. Charting collections of connections in social media: creating visualizations with NodeXL. In: Proceedings of the 13th Annual International Conference on Digital Government Research. ACM, 2012. p. 300-301. FAYYAD, Usama; PIATETSKY-SHAPIRO, Gregory; SMYTH, Padhraic. The KDD process for extracting useful knowledge from volumes of data. Communications of the ACM, v. 39, n. 11, p. 27-34, 1996. PMBOK, GUIA. Um Guia do Conjunto de Conhecimentos em Gerenciamento de Projetos (Guia PMBOK®). Em português. Project Management Institute, Inc. EUA. Versão em Pdf para associado PMI, 2008. HANSEN, Derek; SHNEIDERMAN, Ben; SMITH, Marc A. Analyzing social media networks with NodeXL: Insights from a connected world. Morgan Kaufmann, 2010.


Ricardo Alexandre Afonso possui Mestrado em Ciência da Computação pela UFPE. (2008), Especialização em Engenharia de Software pela UFSCar/Unilins (2002) e Graduação em Análise de Sistemas pela FATEB/SP (2000). Residiu durante um ano na cidade de Dublin, Irlanda. Profissionalmente, atuou como Consultor para implantação e customização de sistemas ERP, Gestor de tecnologia e projetos e Professor universitário. Tem experiência nas áreas tecnológica e administrativa, com ênfase em Banco de Dados e Engenharia de Software, atuando principalmente nos temas relacionados às áreas de E.R.P., Sistemas Autônomos, Ontologias, Educação, Cidades Inteligentes e Big Data. Atualmente é Professor da Universidade Federal de Alagoas (UFAL), Doutorando em Ciência da Computação pela UFPE e avaliador de cursos e instituições de ensino superior pelo INEP-MEC.

Vinicius Cardoso Garcia possui graduação em Ciência da Computação pela Universidade Salvador (2000), mestrado em Ciência da Computação pela Universidade Federal de São Carlos (2005) e doutorado pela Universidade Federal de Pernambuco (2010). Durante 5 anos (2005 a 2010) atuou como Engenheiro de Sistemas, Consultor e Pesquisador em Reuso de Software no Centro de Estudos e Sistemas Avançados do Recife (C.E.S.A.R). Tem experiência na área de Ciência da Computação, com ênfase em Reengenharia de Software, Desenvolvimento Baseado em Componentes, Desenvolvimento de Software Orientado a Aspectos, Linha de Produtos de Software e Adoção de Reuso de Software. Nos últimos anos tem desenvolvido pesquisas intensivas e avançadas em Computação em Nuvem, Sistemas de Armazenamento Escaláveis, Governança de TIC, Cidades Inteligentes e Internet das Coisas com um foco principal em melhorias para a indústria brasileira e para a melhoria do estado da prática destas áreas.

Alexandre Álvaro possui graduação em Tecnologia em Informática pela Universidade Estadual de Campinas UNICAMP (2002), mestrado em Ciência da Computação pela Universidade Federal de Pernambuco - UFPE (2005), doutorado pela Universidade Federal de Pernambuco - UFPE (2009) com período sanduiche na Mälardalen Univesity / Suécia (2007). Atuou como Gerente de Projetos de uma Fábrica de Software e foi responsável por prover melhorias nos processos organizacionais, aumento de produtividade e qualidade do software produzido pela empresa. Foi co-founder da RiSE e atualmente é co-founder da aaTag. Orientador do Programa Agente Local de Inovação (ALI/SEBRAE) em Sorocaba e São Carlos, assessor Ad-hoc do Programa PIPE da FAPESP e conselheiro da Agência de Desenvolvimento e Inovação de Sorocaba (Inova Sorocaba). Atualmente é Prof. Adjunto da Universidade Federal de São Carlos (UFSCar) Sorocaba e vem trabalhando em conjunto com o ecossistema de empreendedorismo e inovação de Sorocaba, fazendo a ponte entre universidade-empresa, para promover a transferência de conhecimento para a sociedade através de inovação tecnológica. Possui mais de 50 artigos nacionais e internacionais, publicou 4 livros e atuou em mais de 10 projetos de TI.

Davi de Sousa Garcia é Graduando do curso de ciência da computação na Universidade Federal de Alagoas, (UFAL) monitor da matéria de Lógica, informática e comunicação. Com conhecimentos básicos em: diversas linguagens de programação e de desenvolvimento para Web. Atualmente desempenha a função de desenvolvedor de softwares de Gestão Empresarial (ERP) para empresas de grande porte no estado de Alagoas.


O Uso De Ferramentas Tecnológicas No Sistema De Agendamento De Consultas Especializadas Do SUS. J. T. M. da SILVA, D. M. das NEVES, D. V. VIANA and I. B. de Oliveira Resumo— O setor de saúde, que é um tradicional usuário de tecnologia em seus processos e procedimentos no sentido de aprimorar cada vez mais seus serviços, apresenta um grande contraste em sua realidade. Uma vez que em alguns pontos que compõe este setor são adeptos a altas tecnologias, outros ainda utilizam seus dados de forma manual através de papel, provocando grande redundância de dados, perca de informações de pacientes e/ou procedimentos, além de causar grande incômodo aos pacientes que utilizam desse processo. Mas o que pode ser feito para que haja uma descentralização, agilidade, atendimento integral e a participação da comunidade, bem como utilizar-se desses recursos de modo universal, com equidade e integralidade? Buscando a esta resposta o presente estudo mostra que essa realidade pode ser mudada e que é possível descentralizar, com direção única em cada esfera de governo; proporcionar atendimento integral, com prioridade para as atividades preventivas, sem prejuízo dos serviços assistenciais; além de obter grande participação da comunidade no desenvolvimento da Saúde. Além de que, apropriar-se de todos os recursos que existem atualmente, como também obter uma ferramenta de software, tendem a solucionar as implicações do sistema de agendamento de consultas especializadas tanto no Município de Icó como em outros Municípios, já que essa realidade não se limita apenas em um município, mas em vários por todo o Estado. Como também pode ser possível fazer diferente no modo de trabalhar com a Regulação do SUS. Palavras-Chave— Consulta Especializada. Sistema de Agendamento. Unidade Básica de Saúde. Abstract— The health sector, which is a traditional user of technology in their processes and procedures in the sense of constantly improve their services, shows a stark contrast in your reality. Once in a few points that make up this sector are adept at high technology, others still use your data manually through paper, causing great redundancy of data, loss of patient information and / or procedures and causes great discomfort to patients using this process. But what can be done so that there is decentralization, agility, comprehensive care and community participation, as well as use up those resources so universal, with fairness and integrity? Seeking the answer this present study shows that this reality can be changed and that it is possible to implement with a single management in each sphere of government; providing comprehensive care, with priority to preventive activities, without prejudice to assistance services; plus get great community participation in the development of Health. Besides that, appropriating all resources that currently exist, as well as get a software tool, tend to address the implications of the scheduling system specialist consultations in both the City Ico as in other municipalities, since that reality is not limited to a municipality, but in several throughout the state.

As may also be possible to do differently in order to work with the regulation of SUS. Keywords— Specialty Consultation. Scheduling System. Basic Health Unit.

I. INTRODUÇÃO

N

o auge do século XXI, em plena explosão e cume dos avanços e expansão das tecnologias no dia-a-dia do homem moderno, ainda se encontra diversos setores que não aproveitam esse momento para estar em dia com a demanda tecnológica. Houve-se uma grande preocupação em modernizar grandes processos e consequentemente foi-se deixando de lado os processos básicos e necessários, como a marcação de consultas especializadas. Essa realidade não está tão distante, basta observar com mais atenção. No Município de Icó (Ceará, Brasil) o sistema de agendamento de consultas especializadas inclui-se no grupo dos processos nãoinformatizados. Atualmente todo o processo é feito de modo manual, o que provoca grande redundância de dados, perda de informações de pacientes e/ou procedimentos, além de causar grande incômodo aos pacientes que utilizam-se desse processo. “Sugere-se que é necessário provocar processos avaliativos principalmente quando se encontra problemas de acessibilidade em saúde para que haja melhoria que possa garantir os direitos que o SUS proporciona aos usuários. ” [1] Essa afirmação, José Reginaldo Pinto concluiu em um estudo do agendamento online de consultas médicas especializadas através da central de regulação do SUS (Sistema Único de Saúde). Com base nessa problemática o presente estudo vem de modo a esclarecer e apresentar uma proposta de ferramenta de software e gerenciamento para o agendamento de consultas especializadas diretamente das Unidades de Atendimento Básico de Saúde através de recursos existentes no que tange as tecnologias da informação. Para que esse objetivo seja alcançado, faz-se necessário pesquisar e conhecer o funcionamento das Unidades Básicas de Saúde e seus processos e sistemas atuais no agendamento de consultas especializadas; como também investigar a infraestrutura tecnológica básica para implantação de um sistema para que, se possa propor um sistema de software para agilização no processo de agendamento das consultas. Mas para introduzir ações de regulação em um sistema de saúde


requer um diagnóstico apurado de uma série de processos e fluxos que estão necessariamente ligados à assistência, às ações de controle e de avaliação. Inicialmente, deve-se conhecer a estrutura do processo assistencial na atenção básica, buscando apurar o conhecimento sobre o perfil epidemiológico da população, fator decisivo na definição de prioridades para as ações reguladoras. Levantar e mapear a população que este sistema de saúde pretende atingir, os seus fluxos, conhecer a abrangência da Estratégia de Saúde da Família e a situação cadastral dessa população, também têm um papel importante nas ações de planejamento da regulação. O levantamento da estrutura, fluxos e capacidade resolutiva da atenção básica, por si, já embasa a montagem do processo regulatório intrínseco a própria atenção básica, que corresponde fundamentalmente à implantação do agendamento das consultas básicas (clínica, pediatria, cardiologia) e de outros procedimentos básicos. Mas porquê utilizar-se de recursos tecnológicos para sanar a lentidão e centralização no processo de agendamento de consultas especializadas encaminhadas a partir das Unidades Básicas de Saúde para a Central de Regulação Municipal? A agilidade e a descentralização no sistema de agendamento de consultas justificam-se mediante seus benefícios a sociedade municipal. Maior comodidade, rapidez e rastreabilidade são alguns dos benefícios que o sistema trará a população com sua implantação. Outro beneficiado é a melhoria no gerenciamento das informações, uma vez que este acontecerá de forma digital, excluindo do processo a necessidade de papel, diminuindo assim a burocracia e contribuindo com o meio ambiente. De acordo com a Constituição Brasileira [2], no artigo 198 é apresentada as diretrizes das ações e serviços públicos de saúde que integram uma rede regionalizada e hierarquizada e constituem um sistema único: “I - descentralização, com direção única em cada esfera de governo; II - atendimento integral, com prioridade para as atividades preventivas, sem prejuízo dos serviços assistenciais; III - participação da comunidade. ” Assim a busca pela descentralização, agilidade, atendimento integral e a participação da comunidade é uma obrigação que todo e qualquer sistema, bem como serviço na área da saúde deve ter como base social na sua construção e fundamentação. Além de que potencializar a capacidade resolutiva da atenção básica reduz a demanda para os níveis mais complexos e especializados, viabiliza a adequada hierarquização da rede, e por consequência a adoção de fluxos referenciados e mais equânimes, aproximando o processo assistencial da população e da comunidade. Contudo, ainda é necessário investir em estrutura, em recursos humanos e em protocolos que definam níveis resolutivos e de atenção para as ações básicas.

Pela classificação disposta pelo CNPq este estudo classifica-se como Ciências Sociais de acordo com sua área de conhecimento e apropria-se como método de pesquisa, a pesquisa bibliográfica, segundo Marconi e Lakatos [3]. Utilizando-se da técnica de análise documental, segundo Ludwig [4], pois os documentos, enquanto elementos de pesquisa são muito importantes, pois revelam-se como fontes ricas e estáveis, servem de base a diferentes estudos, além de complementar informações obtidas por meio de outras técnicas. Cabe ao pesquisador utilizar-se dos documentos da forma como melhor se enquadra o seu estudo. II. PROCESSO DE AGENDAMENTO DE CONSULTAS ESPECIALIZADAS O Pacto pela Saúde, instituído pelo Sistema Único de Saúde, através da Portaria/GM nº. 399 de 22 de fevereiro de 2006, no seu componente de gestão, define a Regulação em Saúde como uma diretriz que configura uma linha de financiamento de custeio específico através do bloco de financiamento da Gestão; conceitua ainda as principais estruturas regulatórias; lista os princípios orientadores do processo de Regulação, define metas e explicita as responsabilidades dos gestores municipais, estaduais, do Distrito Federal e do gestor federal. As Centrais de Regulação Municipal assumem a responsabilidade pela organização do acesso aos usuários no SUS às consultas e exames/procedimentos especializados a fim de garantir um atendimento integral, humanizado e equânime. A função de regulação é entendida como estratégia em estreita interface com o planejamento, o controle, a avaliação e com os diversos níveis de complexidade da assistência, buscando garantir a integralidade aos usuários do SUS. A regulação é um dos instrumentos de gestão que viabiliza o ordenamento da relação dos usuários com os prestadores de saúde. Segundo o Ministério da Saúde [5], nas diretrizes do pacto de gestão, os Processos de Consultas Especializadas são o conjunto de relações, saberes, tecnologias e ações que intermedeiam a demanda dos usuários por serviços de saúde e o acesso a eles. No instante em que um paciente necessita de um atendimento de um médico especialista (Cardiologista, Ortopedista, etc.) o mesmo deve ser encaminhado das Unidades de Atendimento Básico de Saúde às Centrais de Marcação/Regulação para que seja feito a marcação e consequentemente a consulta na especialidade solicitada. Muitos pacientes buscam as Unidades de Atendimento Básico de Saúde a fim de um atendimento primário frente algum sintoma apresentado pelos mesmos. Nos postos de Atendimento encontra-se médicos Clínicos Gerais, sem


especialização. Caso seja necessário os médicos solicitam uma consulta especializada, onde o paciente recebe a via de solicitação de consulta especializada e a leva até a Central de Marcação, onde o mesmo realiza a marcação do seu procedimento e recebe outra via de comprovação de marcação. No dia marcado o paciente desloca-se até o Centro de Especialidades Médicas e realiza o procedimento solicitado. Todo esse procedimento é realizado de modo manual, sem nenhuma informatização e utilizando-se apenas de vias de papeis impresso. Nesse sistema é notório grandes implicações na forma como esses procedimentos são realizados. A maioria das Centrais de Marcação/Regulação já possuem algum Software que o Ministério da Saúde já disponibiliza de modo gratuito, em sua maioria o SISREG que é um sistema de informações on-line disponibilizado pelo DATASUS para o gerenciamento e operação das centrais de regulação. É um programa (software) que funciona por meio de navegadores instalados em computadores conectados à Internet. O SISREG é composto por dois módulos independentes: a Central de Marcação de Consultas e a Central de Internação Hospitalar. Porém, frente a esse Sistema e diversos outros, após uma avaliação de todos os Softwares já implantados, Pinto [1] afirma que “Os softwares implantados nas Secretarias de Saúde não estão totalmente descentralizados, pois em muitos municípios com população menor que cem mil habitantes, eles não funcionam em rede dentro dos níveis de assistência, uma vez que muitos pacientes necessitam se deslocar de unidades distritais (interior) para as secretarias de saúde, localizadas na sede dos municípios, para agendar seus procedimentos. Esse distanciamento provoca a perda de muitas consultas. Foi revelado ainda pela leitura dos artigos, que a guia de referência em papel escrito continua sendo utilizada pelo médico, antes do usuário ter contato com agendamento online. ”. Os pacientes são os mais prejudicados com essa forma de agendamento, já que, muitas vezes debilitados pela doença, necessitam estar fazendo diversas vezes o deslocamento para realização do agendamento de suas consultas, outra vez que são feitas filas e mais filas em busca de uma vaga para determinada especialidade. Em continuidade as avaliações dos Sistemas já utilizados, em reafirmação das teses e citações de Pinto[1], em seus estudos Tronchin[6] conclui que “Ao se fazer uma análise dos sistemas de informação em saúde vigentes, percebe-se que estes não vêm atendendo aos princípios de sistemas de informação nesta área, tendo como consequência a dificuldade de elaboração de indicadores confiáveis para o nível local, impossibilitando a identificação dos grupos populacionais prioritários. Também ocorre a sobrecarga de tarefas para os profissionais responsáveis pela coleta de dados, uma vez que há variedade de questionários, fichas, formulários, boletins

que as unidades de saúde têm de preencher e encaminhar para as diferentes coordenadorias de saúde. ” Dessa forma os pacientes são os responsáveis pelo seu próprio procedimento. O gestor adquire todas as ferramentas necessárias como computadores, internet, entre outros recursos necessários mas, não utiliza-os de modo eficaz, alegando muitas vezes dificuldade do sistema, falta de tempo para o treinamento e desenvolvimento no Sistema implantado. III. A AGILIDADE E A DESCENTRALIZAÇÃO DO PROCESSO DE AGENDAMENTO DE CONSULTAS ESPECIALIZADAS O uso de tecnologias nos diversos setores do mercado tende a angariar diversos benefícios como agilidade nos processos, redução de tempo e custos, bem como proporcionar uma vantagem competitiva frente as outras organizações que fornecem os mesmos produtos e serviços. Scartezini [7] afirma que a TI (Tecnologia da Informação) é utilizada para melhorar os processos existentes na obtenção dos produtos e/ou serviços. Neste nível, a TI auxilia na execução dos processos e na forma como foram concebidos, reduzindo o tempo de execução dos mesmos. Dias [8], reafirma mostrando que na agitada realidade que vive as empresas, a utilização da Tecnologia da Informação assume importância vital, apresentando-se como um instrumento capaz de propiciar a competitividade necessária à sobrevivência/crescimento das organizações. A administração dos recursos de materiais, humanos e financeiros pode ser realizada com mais rapidez e precisão com a utilização da Tecnologia da Informação. No setor de Saúde essa realidade não é diferente. Tronchin [6] aponta que: “O sistema de informação no setor da saúde representa um grande impacto na melhoria da gestão, da qualidade da assistência e da satisfação dos pacientes, por contribuir para ampliar a conectividade em toda a rede de atenção; por possibilitar o desenvolvimento de métodos de comparação de práticas e de ferramentas para assegurar a qualidade e a eficiência em função de redução de custos. “ A utilização de recursos tecnológicos tornou-se um meio viável e que angaria benefícios desde que a PNGTS (Política Nacional de Gestão de Tecnologias em Saúde) no ano de 2010, definiu gestão de tecnologias em saúde como o conjunto de atividades gestoras relacionadas com os processos de avaliação, incorporação, difusão, gerenciamento de utilização e retirada de tecnologias do sistema de saúde. Seu objetivo geral é maximizar os benefícios de saúde a serem obtidos com os recursos disponíveis, assegurando o acesso da população a tecnologias efetivas e seguras, em condições de equidade. Visivelmente nota-se que utilizar de recursos manuais tende a retardar os processos uma vez que, tudo é feito de modo escrito, desde a sua coleta até a análise de dados. Para


isso faz-se necessário aproveitar as Tecnologias da Informação, uma vez que hoje conta-se com ferramentas Open Source, de modo que os gastos são feitos apenas com a aquisição dos instrumentos para coleta e análise de dados. Sendo assim, para o desenvolvimento de uma ferramenta não é necessário nenhum gasto com licenças ou aquisições das mesmas. IV. PROPOSTA DE SOLUÇÃO, FERRAMENTA DE SOFTWARE Considerando que as inovações são capazes de gerar vantagens competitivas a médio e longo prazo, inovar torna-se essencial para a sustentabilidade das empresas e serviços além dos países no futuro. A inovação tem a capacidade de agregar valor aos produtos de uma empresa, diferenciando-a, ainda que momentaneamente, no ambiente competitivo. Aqueles que inovam neste contexto, seja de forma incremental ou radical de produto, processo ou modelo de negócio, ficam em posição de vantagem em relação aos demais. Quando se quer buscar uma nova tecnologia, Lacerda et al. [9] recomendam algumas questões que devem ser consideradas, como: a) preparo da empresa para a tecnologia; b) capacitação tecnológica; c) integração entre o pessoal especializado e as demais áreas da empresa; d) capacidade de adaptação; e) adequação da tecnologia com a missão da empresa; f) recursos humanos adequados: g) gestão tecnológica adequada para estimular a inovação. Assim para que uma ferramenta de Software seja aplicada e desenvolvida de modo eficaz é necessário fazer uma profunda análise, desde o departamento financeiro até o departamento de recursos humanos, pois em todo e qualquer produto/serviço ofertado a organização é afetada como um todo. Para que uma ferramenta de software seja eficaz, segundo Pinto [1] é necessário que possa: gerar agenda por especialidade, subespecialidade, profissional e período de validade da mesma; distribuir cotas por Unidade Solicitante e tipos de consultas/procedimentos: 1ª consulta e retorno; possibilitar o gerenciamento da fila de espera por prioridade, procedimento e diagnóstico; configurar impedimentos por estabelecimento e profissional. Não se faz necessário apenas o desenvolvimento de modo preciso e computacional sem antes fazer um Planejamento e Gerenciamento de modo Assistencial, como mostra Trancredi, Barrios e Ferreira [10]: O planejamento e o gerenciamento de um sistema de saúde dependem de um conjunto de informações adequadas que orientem o planejador quanto às necessidades de saúde da população e a ordem de prioridade dessas necessidades, assim como da oferta de serviços existentes e sua capacidade de atendimento. Essas informações devem expressar as diferentes características que

evidenciam as condições de vida dessa população, sejam culturais, sociais, econômicas e epidemiológicas, e que são responsáveis pela geração de suas demandas de saúde. Todas estas questões devem ser consideradas, pois segundo Pereira [11], a tecnologia tem um papel importante na Era do Conhecimento facilitado pela adoção de técnicas que estimulam a captação, a estruturação e a disseminação do conhecimento, antes disperso nas empresas. Não é só na empresa que as novas tecnologias têm seus impactos, mas também em outras atividades humanas. Elas afetaram os comportamentos das pessoas, como os celulares que experimentaram um notável crescimento no país. Os computadores que antes ocupavam um prédio inteiro, hoje são reduzidíssimos, como os Notebooks. O advento da Internet trouxe o mundo inteiro para dentro de casa, pois é possível a comunicação para qualquer parte do globo. V. CONSIDERAÇÕES FINAIS A globalização abriu espaço para a introdução de novas tecnologias no mundo e, trouxeram mudanças de comportamentos na produção dos diversos setores, com a introdução de novas tecnologias nos processos produtivos, trazendo impactos dentro do setor da produção e no intelecto dos participantes das organizações, nos comportamentos individuais, e na maneira de produzir melhor e de forma competitiva, mostrando que os impactos das inovações tecnológicas foram percebidos devido às tecnologias adotadas e, por isso, as mudanças tecnológicas mostraram que a competitividade foi alavancada pelo acesso fácil e rápido de equipamentos sofisticados, com a importação facilitada e financiamentos abrangendo a implantação de inovação tecnológica incentivada. Após o estudo, foi possível reconhecer a realidade que cerca o Sistema de agendamento de consultas especializadas além de permitir apropriar-se de todos os recursos que existem atualmente, além de que obter uma ferramenta de software tende a solucionar as implicações do Sistema de Agendamento de Consultas Especializadas atualmente, tanto no Município de Icó, quão a nível de outros Municípios já que essa realidade não limita-se apenas em um município, mas em vários por todo o Estado. O estudo evidenciou aspectos da estrutura organizativa do sistema de informação em saúde informatizados, e acenou para possibilidades de um “fazer diferente” no tocante ao modo de trabalhar com a Regulação do SUS. Os diferentes aplicativos já disponibilizados pelo DATASUS – SIA (Sistema de Informações Ambulatoriais), SIH (Sistema de Informações Hospitalares), SINASC (Sistema de Informações de Nascidos Vivos), SINAN (Sistema de Informações de Agravos de Notificação) e SIM (Sistema de Informações de Mortalidade) - carecem de facilidades de integração, repetindo


no nível da saúde pública a compartimentalização observada em aplicativos dirigidos à prestação de cuidados individuais em saúde. Um dos aspectos-chave para o sucesso deste tipo de tecnologia diz respeito ao acesso e uso informação de plataformas tecnológicas. Assim, usando padrões abertos e licenciado para uso livre irá reforçar sinergias e serviços de implantação dentro do ambiente que conduza à realização melhoria da qualidade na prestação de soluções e a redução das brechas digitais. No futuro a curto prazo, podemos identificar que para assegurar a integração eficaz de serviços de saúde em linha com as estruturas a níveis nacionais. Isto é conseguido através do uso de agentes inteligentes que aproveitam, e não os dados na rede, para a aquisição conhecimento e poder de tomar ou recomendar ações de forma autônoma. REFERÊNCIAS [1] PINTO, José Reginaldo; CARNEIRO. Avaliação do agendamento online de consultas médicas especializadas através da central de regulação do SUS. Revista Saúde Coletiva, vol. 58, núm. 9, 2012, pp. 123-128. Editorial Bolina: São Paulo, Brasil. [2] BRASIL. Constituição da República Federativa do Brasil. Brasília, 1988. [3] MARCONI, Marina de Andrade; LAKATOS, Eva Maria. Metodologia do Trabalho Científico. São Paulo: Atlas, 2011. [4] LUDWIG, Antonio Carlos Will. Fundamentos e Prática de Metodologia Científica. Rio de Janeiro: Vozes, 2012. [5] BRASIL. Departamento de Ciência e Tecnologia do Ministério da Saúde. Consolidação da área de avaliação de tecnologias em saúde no Brasil. Rev Saúde Pública n. 44, 2010. [6] TRONCHIN, Daisy Maira Rizatto ... [et al.]. Gerenciamento em enfermagem/ coordenadora Paulina Kurcgant. Rio de Janeiro: Guanabara Koogan, 2011. [7] SCARTEZINI, Luís Maurício Bessa. Análise e Melhoria de Processos. Goiânia, 2009. [8] DIAS, Donaldo de Souza. Motivação e resistência ao uso da tecnologia da informação: um estudo entre gerentes. Foz do Iguaçu: ANPAD, 2000. [9] LACERDA, Antonio Corrêa de et al. Tecnologia: estratégia para a competitividade. São Paulo: Nobel, 2001. [10] TANCREDI, Francisco Bernadini; BARRIOS, Susana Rosa Lopez; FERREIRA José Henrique Germann. Planejamento em Saúde, volume 2. São Paulo: Faculdade de

Saúde Pública da Universidade de São Paulo, 1998. Série Saúde & Cidadania [11] PEREIRA, Rita de Cássia de Faria. Organizações do conhecimento-infraestrutura. São Paulo: Saraiva, 2002.


Os Fatores relacionados à Implantação de Escritório de Projetos nas Organizações - Um estudo exploratório Eliseu Castelo Branco Júnior

Alberto Sampaio Lima

Centro Universitário Estácio do Ceará Fortaleza, Ceará, Brasil ecastelob@gmail.com

Universidade Federal do Ceará Fortaleza, Ceará, Brasil albertosampaio@ufc.br

Resumo: A implantação de um escritório de projetos em uma organização envolve muitos aspectos importantes. Nesta pesquisa, foi realizado um estudo que buscou mostrar uma visão de projetos, gerenciamento, processos e aplicações de técnicas para atender às necessidades de inovação. A pesquisa de campo realizada envolveu uma entrevista com coordenadores de projetos na área de tecnologia da informação de uma empresa prestadora de serviços. Os resultados indicaram que embora existam alguns fatores críticos, as vantagens identificadas foram bem maiores e as empresas que optam por essa implantação tendem a se diferenciar no mercado. Palavras-Chave: Gerenciamento de projetos, escritório de projetos.

Esse novo cenário demanda a adoção de uma nova metodologia de gestão, que é o gerenciamento de projetos. Através do gerenciamento de projetos os gestores da área são direcionados para as melhores práticas, visando o sucesso dos empreendimentos, fato almejado pelas organizações. O respaldo da proposta para implantação do PMO pode ser exemplificado através de um estudo realizado pela Pricewaterhouse Coopers citado por Arrais P.D (2006), onde ficou evidenciado que de um total de 100 projetos realizados na empresa, apenas 2,5% são entregues dentro do prazo estipulado previamente. O custo e escopo pré-definidos também só alcançam esse percentual. Essa realidade pode ser modificada a partir do momento em que as organizações apresentem maturidade em sua dinâmica e que o gerenciamento de projetos apareça como uma área funcional, como por exemplo, a área de tecnologia, a qual deve caminhar sempre em uma mesma direção, e não simplesmente atuar como um departamento da empresa. A partir da obtenção de um maior nível de maturidade, as empresas perceberão que vivem de projetos, quer sejam como seu principal negócio ou, como áreas de apoio. Com o propósito de melhorar a eficiência e eficácia dos seus projetos, as empresas tem buscado novas alternativas para que todas as atividades desenvolvidas sejam acompanhadas desde a sua iniciação até o encerramento, se preocupando principalmente com o escopo, custo, prazo e qualidade do projeto.. Baseado nesse cenário e nas necessidades das empresas em se reestruturar para receber esse novo modelo de gestão, procurou-se investigar o processo de implantação de um PMO - Project Management Office, termo que se refere a um escritório de projetos. O PMO serve como uma estrutura física de apoio para a equipe de gerenciamento de projetos em suas diversas atividades. Buscou-se identificar por que implantar um PMO, quais são as principais dificuldades para sua implantação e como essa nova metodologia pode ser útil dentro das empresas. Esta pesquisa teve como objetivo central identificar as criticidades da implantação de um PMO. Foi observado através de depoimentos de coordenadores de projetos que o sucesso de uma implantação do PMO não está somente nos indicadores, controles e metodologia, mas principalmente no relacionamento uniforme com os clientes, assim como entre todos os níveis da empresa.

Abstract: The implementation of a project management office (PMO) involve some important aspects. In this work we proceeded a literature review and a case study about processes and techniques to help innovation in PMOs. We interviewed IT project managers and the results indicated that there are advantages in project management offices implementation that increase the organization results. Keywords: Project management, project management office. I.

INTRODUÇÃO

Em um cenário de mudanças constantes do mercado, a conquista dos consumidores tem sido cada vez mais difícil, devido aos mesmos terem se tornado mais exigentes. Existe uma dificuldade em se obter a fidelização a uma marca ou empresa. A satisfação com produtos e serviços recebidos tem sido predominantemente o critério mais significativo utilizado pelos consumidores em suas escolhas. Dessa forma, as empresas tem buscado se tornar mais competitivas, a partir do seu fortalecimento, crescimento e amadurecimento. As empresas estão buscando se reestruturar internamente, em todos os seus departamentos, aprimorando seus processos, diminuindo desperdícios, controlando a qualidade de seus serviços e produtos e gerenciando a execução das suas atividades, tornando-se cada vez mais dinâmicas. Busca-se uma forma inteligente para o controle das tomadas de decisões e diminuição de custos. O desafio atual consiste no direcionamento e na gestão de atividades que nunca foram tentadas no passado e não podem ser repetidas no futuro. Desta forma, as empresas tendem a elaboração de projetos maiores e mais complexos.


II.

REVISÃO DE LITERATURA E TRABALHOS RELACIONADOS

Dentre várias terminologias utilizadas no ambiente empresarial, a definição de projetos possui algumas versões, dentre elas a idéia de que projeto é na verdade um conjunto de processos de rotinas empresariais. Para outros, projeto seria definido como uma atividade multidisciplinar; pelo fato do papel de diretor de projeto ter sido redirecionado de um perito técnico para um gestor. Alguns entendem projetos como soluções para alguma atividade ou serviço. Para a área de engenharia, um projeto é tratado como um desenho arquitetônico, contudo, o entendimento também se estende na compreensão de que projeto seria um programa do governo. Mediante pesquisas e estudos específicos sobre o conceito de projeto dentro do ambiente empresarial, o PMI (2008) afirma que um projeto é: “Um empreendimento único que deve apresentar um início e um fim claramente definidos e que deve ser conduzido por pessoas que possam atingir seus objetivos, respeitando os parâmetros de prazo, custo e qualidade”. Segundo Barbosa (2005), um projeto possui três características: ser temporário exclusivo e progressivo. Temporário ocorre quando se possui um fim, ou seja, quando os objetivos do projeto são alcançados. A segunda característica é ser exclusivo, ou seja, ocorre quando o projeto é desenvolvido para a criação de um produto ou serviço inédito, diferente de qualquer outro. A terceira característica é ser progressivo, o que se evidência quando o projeto é compreendido e aplicado por todos, quando o entendimento do objetivo do projeto é disseminado entre os membros da equipe e todos os envolvidos no mesmo. 2.1. Análises da viabilidade e importância do projeto Segundo ARCHIBALD (2003 apud Maximiano, 2008): “Os projetos criam inovações destinadas ao mercado (novos produtos), ou processos de renovação interna (implementação de novos sistemas). Tudo isso conduz a uma nova situação, quer gera novos projetos, num ciclo que se repete”. O primeiro elemento a se considerar para desenhar um projeto consiste no problema que se vai abordar e sua magnitude. Para isso, é necessário se realizar uma avaliação inicial ou diagnóstico da situação. Esse diagnóstico se realiza com a utilização de dados provenientes de diferentes fontes de informação, como por exemplo: os dados de segurança alimentados provenientes das folhas de balanço, estatísticas contínuas, elementos micro e macro econômicos, etc. Segundo Heldman (2003), uma vez encontrado o problema que se vai tratar, é necessário construir o marco conceitual e teórico no que se inscreve. Desta forma, o problema fica emoldurado no conjunto de conhecimentos existentes. O marco teórico como segundo elemento, ajuda a precisar e organizar os componentes contidos na descrição do problema, de forma tal que possam ser melhorados e convertidos em ações concretas. Esse elemento confere ao projeto a estrutura conceitual de todos os trabalhos a serem desenvolvidos.

Os objetivos dentro do contexto da organização do projeto se refere às metas almejadas, construídas de forma concisa e direcionadas especificamente à pretensão final. Dentro da organização geral das metas, descrevem-se os processos seqüenciais das atividades, devidamente amparadas pelo objetivo maior, determinando-se assim, todos os passos a serem realizados. As hipóteses por sua vez, consistem em uma solução possível para um determinado problema, disposto em forma de explicação ou predição, porém passível de verificação empírica no decorrer da aplicação do projeto. Os mecanismos de solução ficam determinados a partir da identificação do problema. Deve-se realizar um desenho metodológico que compreende: o tipo e área de estudo, a seleção da população alvo, os métodos e instrumentos de coleta de dados, o plano de tabulação e análise, bem como os diferentes procedimentos que serão empregados. Assim sendo, a identificação do problema e o desenho metodológico permitem determinar os interessados no projeto e as instituições ou organismos participantes. Dois grupos de interessados são especialmente importantes no desenho do projeto: os níveis de tomada de decisão e os beneficiários. Segundo Valeriano (2001), os níveis de tomada de decisão são as instituições patrocinadoras ou executoras, cujos interesses e objetivos de trabalho devem tomar-se em conta no desenho. Os beneficiários compreendem a população destinatária do projeto. Com respeito a esses, deve-se ter em conta a estrutura de suas necessidades, suas exigências e suas características populacionais. A viabilidade do projeto se evidencia através da mistura entre a forma de ajuste do projeto aos perfis e interesses de trabalho dos executores, associados às expectativas dos beneficiários. Vale destacar que a viabilidade possui um componente técnico e uma política. O componente técnico se refere fundamentalmente aos aspectos metodológicos, os quais devem garantir que o projeto cumpra seu encargo. Estes se desenvolvem no marco da sociedade e as relações entre os grupos envolvidos. Ambos os elementos garantem que um projeto cumpra seu objetivo. A análise da viabilidade consiste em um importante componente da avaliação prévia que se deve fazer para se avaliar se um projeto é executável. A viabilidade de um projeto possui dois componentes fundamentais: a pesquisa de mercado e a análise sócio-econômica. A pesquisa de mercado constitui uma revisão e análise de antecedentes que permitem se estimar a conveniência de que se produza um bem ou serviço para atender uma necessidade, seja quando se manifesta no mercado pela disposição da comunidade em pagar os preços fixados ao produto do projeto, ou quando se manifesta por pressões sociais alheias ao mercado. Em correspondência, a pesquisa de mercado, deve conter três componentes: demanda, oferta e cobertura. O estudo da demanda se refere aos aspectos relacionados com a existência da demanda ou necessidade dos bens ou serviços que se espera oferecer. A análise da demanda deve considerar as necessidades históricas do bem ou serviço,


estudar a demanda atual, partindo da análise de séries históricas e de outros dados que possam influir sobre a mesma. A análise da oferta se relaciona com as formas atuais e previsíveis (futuras) em que as necessidades estão sendo ou irão ser atendidas. Além disso, devem ser consideradas as diferentes modalidades de pagamento desses bens ou serviços e a previsão da maneira pela qual os serviços do projeto chegam aos usuários. A análise da oferta deve incluir o grau de atenção dado às necessidades em estudo, com uma ênfase especial na oferta atual e nas possibilidades futuras. A análise da cobertura consiste na avaliação do efeito das regulações, políticas prioritárias e doações sobre a lei da oferta-demanda. A análise sócio-econômica, como segundo aspecto referente à viabilidade, combina ou relaciona os benefícios econômicos ou sociais do projeto, com os custos incorridos em sua execução. Esta análise forma parte da componente de avaliação da fase de desenho do projeto e suas técnicas, em geral, são utilizadas para comparar projetos. A análise sócio-econômica possui dois elementos: análise de custo-benefício e a análise de custo-efetividade. A análise de custo-benefício identifica e pondera os custos frente aos benefícios, visando avaliar tanto o mérito econômico quanto o financista dos projetos. Segundo Heldman (2003), a análise de custo-benefício é utilizada para: • Proporcionar os elementos necessários, com a finalidade de decidir se um projeto é viável financeiramente e considerar, durante o processo de análise, todas as questões relativas ao redesenho da execução. • Classificar os projetos em termos de prioridade de recursos financeiros. • Decidir entre as políticas, estratégias ou componentes de um dado programa. Uma das principais limitações da análise custobenefício consiste no fato de que, para sua execução se deve conhecer os fluxos financeiros dos custos e benefícios. Esse fato limita seu uso nos projetos de saúde, pois neles, um dos rasgos distintivos é o fato de que os benefícios nem sempre podem ser expressos por meio de fluxos monetários. A análise de custo-efetividade é utilizada para corrigir a limitação dos métodos de análise de custo-benefício. O princípio desta análise é o mesmo do de custo-benefício, mas nele se substituem os benefícios econômicos ou o fluxo monetário pelo impacto esperado, o qual se estuda em sua relação com os custos. Nesse sentido, valores como o custo por unidade de impacto ou o impacto unitário, constituem os elementos fundamentais da análise. Após a análise da viabilidade do projeto, deve-se pensar na execução do mesmo, por meio da organização do trabalho. Para isso, deve-se considerar as seguintes questões: como, onde, quando e quem realizará as atividades. 2.2 Organização do projeto Cada projeto pode ser considerado como um problema independente, o qual demanda, em sua organização, elementos originais. Entretanto, e de maneira geral, é possível se isolar

alguns elementos que devem ser considerados na execução do projeto: Administração do pessoal, Gerência dos Recursos e Coordenação com outras organizações ou instituições. (MAXIMIANO, 2008). A execução correta desses aspectos garante a execução do projeto, mas deve haver um Plano de Trabalho que planeje as atividades. No primeiro elemento, a administração do pessoal, o planejamento deve considerar tanto a execução do trabalho de mesa da equipe interdisciplinar, como o trabalho do pessoal de campo. Na gerência dos recursos, o trabalho de campo é essencial para um controle efetivo. Para controlar os recursos é necessário a utilização de serviços de contabilidade e sistemas de registros, os quais, em correspondência com o projeto, permitem a execução das ações de controle. Considera-se importante o registro de toda a informação que necessária uma boa administração dos recursos financeiros e materiais. Para melhor aplicar os recursos, sejam humanos, materiais ou físicos, as empresas devem pensar em suas atividades de duas maneiras: uma como atividade rotineira e outra como atividade inovadora. Somente dessa forma pode-se definir melhor como são os processos e quais as atividades que devem ser tratadas como projetos. Outro elemento consiste na coordenação e integração com outras organizações locais, fato que ajuda na criação de equipes multidisciplinares. Dessa forma, se evitam situações contraditórias ou de confrontação e se garante a correta execução do projeto. A confiança e satisfação dos Stakeholders são essenciais para que os recursos necessários estejam disponíveis, sejam recursos materiais, técnicos ou humanos. Os projetos devem ser satisfatórios ao ponto de contribuirem para o cumprimento dos objetivos e metas traçados pela organização. Não deve haver a preocupação com um projeto de forma individual, mas se deve pensar nos projetos em função dos seus benefícios para a empresa. 2.3 Gerenciamento de projetos PRAZO

CUSTO

QUALIDADE Figura 1. Restrição tripla em projetos Fonte: Menezes (2009, p. 68)

Gerenciar projetos é a arte de administrar o processo de tomada de decisões, buscando a realização de atividades temporárias, atingindo as expectativas dos Stakeholders. Mesmo com restrições de tempo e custo, administrar um projeto inclui a aplicação de técnicas apropriadas para se alcançar resultados. Deve-se orientar o esforço para o resultado, controlando custos, riscos e prazos, como mostra a Figura 1.


Embora seja uma metodologia pouco desenvolvida pelas empresas brasileiras, o gerenciamento de projetos não é algo novo, pois desde a construção das pirâmides do Egito já se utilizava essa técnica. Segundo Menezes (2009, p. 68) o objetivo do gerenciamento de projetos consiste no alcance do controle adequado do projeto, assegurando a sua conclusão no prazo e no orçamento determinado, com a qualidade estipulada. 2.4 Processos de gerenciamento de projetos Segundo o PMI (2008), os cinco processos interligados que dinamicamente interagem entre si com trocas de informações, onde o resultado de um processo são entradas para outros processos, são o planejamento, organização, execução, controle e execução, conforme mostrado na Figura 2.

Figura 2. Mapeamento dos Grupos de Processos de Gerenciamento de Projeto e Ciclo PDCA Fonte: Barbosa (2005, p. 3)

O planejamento, como o primeiro desses processos, começa com um problema. Nesse procedimento é realizada uma compreensão do problema ou oportunidade, bem como é determinado a precisão dos prazos, recursos e custos. No processo de execução, os recursos são disponibilizados de forma a realizar as metas propostas no projeto. Para tanto, deverá ser designado um gerente de projetos. Nessa fase, as diferentes tarefas ou atividades planejadas são realizadas, visando obter resultados que levem a realização dos objetivos. A execução é o núcleo da gerência de projetos, fase em que os recursos são transformados em resultados esperados. O objetivo da execução do projeto é obter seu propósito. Segundo Barbosa (2005), a execução do projeto compreende duas ações básicas: • A gerência e controle de todos os recursos (humanos, financeiros e físicos), de forma tal que se assegure que os resultados do projeto sejam obtidos de maneira oportuna e eficaz em função dos custos. • Desenvolvimento para assegurar que os resultados produzidos sejam os mesmos que se identificaram na fase de desenho e que são os que tem uma maior repercussão sobre o problema principal. Barbosa (2005) complementa ainda que em correspondência às funções principais da execução de projeto, torna-se necessário:

• •

Realizar as atividades e as tarefas planejadas. Vigiar o progresso comparando-o com o planejamento. • Fazer os ajustes necessários em correspondência com os problemas observados. • Manter a alta gerência informada sobre os progressos e dificuldades. Os projetos bem-sucedidos dependem tanto de um bom desenho como de uma execução eficaz. Diferentes fatores confluem para a obtenção de uma execução bem-sucedida. Esses fatores podem ser agrupados em três grupos: direção, controle e comunicação. O aspecto de dirigir ou exercer a liderança é crítico para o êxito da fase de execução do projeto. Assim, o papel do gerente do projeto é fundamental para uma execução bem-sucedida. Definido o processo de monitoramento deve-se destacar o controle e sua associação inerente, na qual compete uma função do sistema que compara o grau de avanço com os planos, visando assegurar a obtenção do propósito do projeto. Dentro da estrutura do controle, o foco está relacionado às atividades de acompanhamento durante a execução do projeto, o que consiste em uma revisão contínua ou periódica do trabalho realizado. Segundo Menezes, (2009, p.28) o controle também compreende o acompanhamento do nível de gastos para assegurar a eficiência na utilização dos recursos, assegura que se respeitem os cronogramas e subministra o feedback necessário para fazer ajustes, à medida que os fatores externos do projeto são modificados. Para tanto, se faz necessário a utilização das metodologias aplicadas para cada área de conhecimento em projetos. O PMI (2008) sugere nove áreas de conhecimento, que consistem nas partes que concentram todo o gerenciamento do projeto e estão distribuídas da seguinte forma: integração, escopo, tempo, custo, qualidade, recursos humanos, comunicações, risco e aquisições. Uma das tendências modernas do novo perfil gerencial consiste no incentivo à formação de trabalhos em grupos, pois as equipes possuem maior integração ao realizarem uma tarefa, que se constitui em um objetivo comum. Uma equipe poderá agir eficazmente com a presença de um líder que não esteja atento apenas às questões financeiras e técnicas, mas que saiba lidar adequadamente com o elemento humano. Os processos internos são revistos e as mudanças precisam ser gerenciadas, de forma a amenizar as resistências a essa reestruturação nas organizações. Deve-se trabalhar com uma coordenação do projeto horizontal, não como na direção tradicional (vertical), onde os trabalhadores estão organizados de cima para baixo, por cadeias de comando. Como resultado, os trabalhadores não possuem virtualmente, oportunidades de trabalhos em outras áreas funcionais da empresa. Assim como a prática da direção e gestão de projetos cresceu, existe também uma demanda significativa por um método sistemático para a implantação das metodologias, técnicas e ferramentas nas organizações. A demanda por uma gestão eficaz, a multiplicação do número de projetos, assim


como a crescente complexidade dos mesmos, são aspectos que justificam a implantação do Project Management Office – PMO. Da mesma forma, a disciplina de gerência de projetos começou a ser reconhecida como uma habilidade específica e houve necessidade do surgimento dos PMOs, com o objetivo de prover uma unidade organizacional responsável por processos de gestão de projetos. Os escritórios de projetos (PMOs) muitas vezes são criados de forma reativa, depois que a empresa já perdeu dinheiro com seus projetos. Seu papel consiste em reorganizar os processos da empresa, no que diz respeito a projetos, dando suporte ao projeto, consultoria, treinamentos, gerenciando recursos e aplicando a metodologia para padronização dos processos. Além disso, o PMO é responsável por fazer a ligação entre o gerente de projeto e a alta administração, através de um sistema de feedback que permite o aperfeiçoamento contínuo da disciplina na organização. Um PMO também pode denominar-se “escritório de gestão de programas”, “escritório do projeto” ou “escritório do programa”, e fiscaliza a direção de projetos, programas ou uma combinação de ambos. O PMO possui ênfase no planejamento coordenado, na priorização e na execução de projetos vinculados com os objetivos de negócio. Para escolher o modelo adequado, deve-se considerar o nível de maturidade da gestão de projetos na organização. Analisando o modelo de gestão, pode-se mencionar os tipos de PMO que podem ser utilizados (HELDMAN, 2003). Quando o problema da empresa é a confusão causada por diferentes tipos de informes, elaborados por diretores de projetos distintos, a solução seria a estação de controle de processo. Este tipo de PMO informa a evolução dos projetos, mas não tenta influenciá-los. A estação de controle de processo não está autorizada a dizer aos gestores de projetos e a seus clientes como e o que fazer. Responde a perguntas do tipo: Como está nosso projeto? Quanto já foi gasto de nosso investimento até aqui? Quais são nossos riscos? Este tipo do PMO também pode ser responsável por manter uma base de dados com documentos históricos de projetos e lições aprendidas. Por outro lado, quando a organização apresenta problemas de treinamento de pessoal, ou seja, quando pode existir treinamento, mas não se traduz em aplicação eficaz, advêm dentre outros da aplicação de metodologias caras e pouco utilizadas; altos executivos com pouca compreensão ou visão equivocada sobre direção e gestão de projetos; lições aprendidas não utilizadas em novos projetos; uso e mudança constantes de qualquer método e ferramentas. Nesse caso, indica-se o modelo de escritório de projetos painel de controle, constituindo a solução mais adequada. Assim, o diretor do PMO passa a direção aos gestores de projetos. Cada diretor dirige sua estação de controle e tem responsabilidade pelo processo da planta, mas deve seguir as instruções do painel de controle, particularmente durante a execução e o controle de processo. Dessa forma, os diretores fornecem muita atenção ao painel de controle, pois a estação pode falhar se as regras não forem seguidas. Esse modelo estabelece a metodologia de

gestão de projetos, incluindo gestão de risco, definição de papéis e responsabilidades, comunicação, gestão de objetivos, lições aprendidas e ferramentas. O painel de controle também é responsável pela consultoria interna, no sentido de garantir que a metodologia será seguida, e pela melhoria constante nos processos. As organizações cujo negócio seja realizar projetos, precisam estar permanentemente atentas à capacitação de seu pessoal em gestão de projetos. Em geral, a pessoa que realiza a tramitação com os diretores de projetos, sabe muito pouco sobre a função. Por outro lado, é fundamental para a empresa que estas pessoas sejam bem selecionadas, bem treinadas e que permaneçam na empresa. A solução, neste caso, consiste em se possuir uma equipe de reserva de recursos. A participação do gestor de um PMO é bastante forte. Ele indica aos diretores de projetos quando entrar na estação de controle. Todos os diretores devem estar em estreita consonância e controlar as variáveis em uma mesma direção. Uma equipe de reserva de recursos pode oferecer um conjunto de gestores de projetos com habilidades necessárias para administrar os diferentes tipos de projetos para os quais foram designados. E ainda uma supervisão para garantir que estas habilidades serão efetivamente aplicadas. Os executivos não podem contratar gestores de projetos que não sejam da equipe de reserva de recursos ou, pelo menos, sem consultar ao diretor. O diretor da equipe de reserva de recursos é a autoridade máxima no que diz respeito aos seus funcionários. Segundo Kerzner (2002, p.86), o nível de organização aumentou com a criação do PMO, a qual se baseia em um ambiente de treinamento, coaching, e em uma cuidadosa seleção de projetos e recursos. Um PMO pode ajudar a criar uma organização para a aprendizagem, a qual continuamente se desenvolva e melhore a cultura do gerenciamento de projetos. O PMO identifica as melhores idéias para sucessivos projetos que se originam dos empregados. Esse processo inclui a geração de idéias para ajudar no desenvolvimento de negócios, a apresentação de diretores júnior e sênior para passar e manter o PMO através do esforço. Dessa forma o PMO passa a ser a casa dos gerentes de projetos, onde os mesmos encontram o respaldo necessário para administrar seus projetos dentro do prazo, custo e qualidade requeridos, por meio da utilização de métodos e processos de planejamento, acompanhamento e controle. Os PMOs podem operar com continuidade em aspectos que vão proporcionar as funções de respaldo para a direção de projetos, sob a forma de formação, software, políticas padronizadas e procedimentos, até a direção e responsabilidade diretas para se obter os objetivos do projeto. Pode-se delegar a um PMO a autoridade para atuar como interessado integral e estar encarregado de tomar decisões chave durante a etapa de iniciação de cada projeto. O PMO também pode estar autorizado a fazer recomendações ou concluir projetos, objetivando ser congruente com seus objetivos de negócio. O tamanho do escritório de projetos variará dependendo da necessidade e da complexidade dos projetos da organização.


Embora os resultados da implantação de um PMO façam parte do conjunto de conhecimentos estratégicos de uma organização (aqueles que dificilmente saem do âmbito organizacional), pode-se dizer que seu tamanho é tão variável que são encontrados desde escritórios com seis funcionários até alguns com 90 ou mais. Neste ponto não existe uma melhor prática, mas se poderia dizer que a quantidade de pessoas é proporcional à participação do PMO nos projetos, à quantidade de serviços oferecidos e à sua necessidade de controlá-los. 2.5 Fatores críticos para a implantação de um escritório de projetos Na implantação de um PMO empresarial existem diversos fatores críticos, pois a forma de gerenciamento de projetos ocasionará em uma mudança cultural muito grande na empresa. Pode-se citar como um dos fatores críticos mais relevantes o recurso financeiro, o qual por sua vez será disponibilizado pela alta gerência. Sem esse apoio, a tentativa de implantação pode se tornar um fracasso. Outro fator que impede a implantação de um escritório de projetos, consiste na resistência por parte das pessoas envolvidas no processo. Dentre esses fatores de impedimento, pode-se citar: • A dificuldade de justificar com cifras sua implementação; • A percepção de que os benefícios da implementação são a longo prazo, enquanto que o aumento da carga burocrática é imediato; • Conflitos potenciais que possam ser gerados ao inserir um grupo de pessoas que disputará o poder com os grupos já existentes. Em alguns estudos realizados sobre a implantação de escritório de projetos, foi identificado que como os benefícios ao curto prazo são difíceis de serem demonstrados, é difícil que sua realização seja bem recebida pela empresa, sobretudo se traz necessidades de infra-estrutura e capacitação. A escolha certa do tipo de PMO a ser implantado também é considerada um fator crítico. Torna-se necessário a avaliação do tipo de empresa e dos tipos de projetos executados, pois a missão e os objetivos da organização precisam ser contemplados, afim de que o PMO não sugira mudanças desnecessárias, causando uma insatisfação em massa. A participação do líder repercute no desafio de demonstrar que estes aspectos podem ser superados com as habilidades adequadas e podem ser identificados na organização. Observa-se que os fatores que geram a necessidade de implementação de um PMO estão diretamente ligados ao grau de utilização dos processos do PMO e à sua maturidade. Em outras palavras, quanto mais arraigada esteja a cultura do PMO na organização, mais profissionais impactados por sua implementação perceberão seus benefícios. O trabalho realizado por De Carvalho (2013) buscou responder como a implantação do PMO impactava na administração pública. Os resultados apresentados pelo autor indicaram que foi possível

o alcance das diretrizes estratégicas, bons resultados junto ao público-alvo, desenvolvimento de novas competências da equipe, bem como o sucesso institucional. III.

ESTUDO DE CASO

O presente trabalho teve como objetivo principal pesquisar as criticidades encontradas ao se implantar um PMO, levando a uma reflexão de que o sucesso de uma implantação de PMO não está somente nos indicadores, controles e metodologia, mas principalmente no relacionamento uniforme entre todos os níveis da empresa. A pesquisa de campo realizada foi do tipo exploratória, através de entrevista estruturada realizada com três coordenadores de projetos de uma empresa prestadora de serviços na área de tecnologia da informação. Por questões de confidencialidade do negócio, os nomes não serão citados. O principal objetivo da entrevista foi obter um posicionamento dos coordenadores de projetos em relação às criticidades encontradas ao se implantar um PMO e identificar quais as vantagens de se ter um PMO para o suporte da implantação de projetos. Além da pesquisa de campo, foi realizado um estudo que teve por base uma pesquisa bibliográfica exploratória com autores conhecidos no meio acadêmico, como Menezes (2009); Maximiano (2008); Barbosa (2005); Kerzner (2002); Heldman (2003), entre outros. Como instrumentação da pesquisa de campo realizada, utilizou-se um questionário com oito perguntas. Segundo Lakatos (2006), esse tipo de pesquisa proporciona que as respostas sejam comparadas, tendo como objetivo principal a obtenção de informações dos entrevistados a respeito de um determinado assunto ou problema de forma empírica, não sendo permitindo ao pesquisador a adaptação das perguntas para situações diferentes. A pesquisa bibliográfica realizada teve como base as recomendações de Richardson (1999), que considera este tipo de pesquisa imprescindível a qualquer intento científico, oferecendo a possibilidade de leituras de obras, livros, periódicos, mapas, entre outros, de forma sistemática na composição de um estudo delimitado e específico. Isso porque a pesquisa bibliográfica tem por objetivo conhecer as diferentes contribuições científicas disponíveis sobre determinado tema. Richadson (1999) ainda afirma que existe referência a pesquisa documental como um tipo de busca de dados mais detalhada.. IV.

ANÁLISE DOS RESULTADOS

Observa-se que a mudança do cenário econômico é um fato presente no mundo dos negócios, fazendo com que as empresas se reestruturem para sobreviver aos novos cenários. Nesse contexto, a existência de um escritório de projetos é extremamente necessária para propiciar essa reestruturação, pois no PMO serão arquitetados planos de mudanças, disseminação de conhecimento, análise das lições aprendidas com outros projetos, assim como a priorização e a viabilidade de cada projeto. Os recursos serão melhor alocados às atividades designadas, para atender os objetivos do projeto, deixando todos os envolvidos satisfeitos e reduzindo todos os


prejuízos que a empresa venha a ter com recursos materiais, físicos e humanos. Diante do cenário apresentado, foi aplicado um questionário para três coordenadores de projetos, abordando a implantação de projetos. Os resultados foram analisados sob dois prismas: primeiro em relação à visão da coordenação dos projetos com apoio de um PMO; e outra análise, em relação a coordenação de projetos em empresas sem o PMO, tendo o objetivo de identificar as vantagens e desvantagens da implantação de um PMO. Apresenta-se em seguida os principais resultados da análise realizada. Quando abordados sobre a questão do escopo de projeto contratado versus o escopo do projeto entregue, os entrevistados responderam que em empresas que não possuem um PMO, 75% dos projetos são entregues em conformidade com o escopo contratado. Entretanto, nas empresas que possuem um PMO, 96% dos projetos são entregues em conformidade com o escopo e contrato. Conforme Barbosa (2005), somente através de um planejamento do escopo, é possível alinhar os processos e fazer uma utilização adequada dos recursos para se alcançar o objetivo final do projeto, que é a entrega do produto ou serviço solicitado. Em relação à questão que abordou o percentual de retrabalho nos projetos a serem implementados, foi identificado o seguinte resultado: nas empresas que não possuem o PMO, é realizado 31% de retrabalho dentro do projeto, enquanto em uma empresa que possui o PMO o retrabalho é reduzido a 5%. Dessa forma, uma empresa que possui um escritório de projetos, economiza 26% do esforço de seus recursos para melhoria do sucesso do projeto. O “tempo” é um recurso considerado importante por Barbosa (2005), conforme sua citação: "Por certo, tempo gasto é tempo perdido, não é possível recuperar. Dessa forma, o correto gerenciamento do tempo assume uma importância vital na implantação dos empreendimentos (BARBOSA, 2005) ". Segundo Maximiano (2008), “riscos são eventos ou condições prováveis que comprometem a realização do projeto e a entrega do produto”. Ao se tratar da questão de riscos, os resultados do estudo indicaram que nas empresas que não possuem um PMO, a identificação de novos riscos durante do projeto chega a 35%, enquanto nas empresas que utilizam o apoio de um PMO esse percentual é de somente 10%. A identificação dos riscos do projeto exige uma atenção especial do gerente de projetos e sua equipe. A quarta questão abordada relaciona-se com o percentual de comunicação do projeto entre clientes e membros da equipe de projetos. Para uma empresa que possui um PMO, o nível de comunicação é de 95%. Já para uma empresa que não possui um PMO, a comunicação chega ao índice de 68%. Levando-se em consideração a indicação do PMI (2008), para o sucesso do projeto o índice de comunicação é de 90%. Foi verificado no estudo que com o PMO atuando nos projetos, é possível superar esse índice indicado pelo PMI (2008). Ao serem questionados sobre a qualidade do projeto entregue, os entrevistados responderam que ao se comparar uma empresa que possui e outra que não possui um PMO, os

índices chegam a 70% e 98% respectivamente. O resultado mostra que nas empresas que possuem um PMO, a qualidade do projeto entregue é mais satisfatória, já que a coordenação dos padrões de qualidade do projeto (que viabiliza a análise da qualidade do produto ou serviço solicitado pelo cliente) é realizada no escritório de projetos.

Produtividade da Equipe 100 90 80 70 60 50 40 30 20 10 0

93

63

Empresas com PMO

Empresas sem PMO

Figura 3. Produtividade da equipe

A Figura 3 mostra os resultados sobre a produtividade da equipe, indicando que em uma empresa que possui o apoio de um escritório de projetos, o percentual de produtividade da equipe é de 93%, enquanto que em uma empresa que não possui um escritório de projetos, a produtividade da equipe fica em torno de 63%. Esse índice de produtividade da equipe é importante, fato justificado por Maximiano (2008): "Quanto mais alto o padrão de competência e motivação da equipe, mais seu interesse e disposição para participar do processo decisório. Quanto mais essa participação for desafiadora, maior a probabilidade de que o projeto venha a ter sucesso".

Satisfação em relação à metodologia de implantação de projetos 75

73

70 65 61 60 55 Empresas com PMO

Empresas sem PMO

Figura 4. Satisfação em relação à metodologia de projetos

Na questão que tratou do percentual de satisfação em relação à metodologia de implantação de projetos (Figura 4), os resultados indicaram que em empresas que possuem um PMO esse nível de satisfação chega a 73%, enquanto para as outras empresas essa metodologia aplicada chega a 61%. A metodologia aplicada para implantação de um projeto requer alguns cuidados tais como: auxiliar a priorização dos conteúdos, capacitação e treinamento de profissionais, envolvimento de todos os envolvidos no projeto, assim como todos os funcionários da empresa. Diante do exposto as empresas que não possuem um PMO apresentam uma dificuldade para a organização de seus processos.


Por fim, foi analisado o grau de satisfação dos coordenadores de projetos em coordenar as implantações de projetos nos dois modelos de empresas. O estudo apresentou como resultado os seguintes índices: 56% se sentem satisfeitos em trabalhar com projetos em empresas que não possuem o apoio de um PMO e 87% afirmam que se sentem satisfeitos em implantar projetos em empresas que possuam um PMO estruturado. V. CONCLUSÃO E TRABALHOS FUTUROS O presente trabalho apresentou uma pesquisa sobre implantação de escritórios de projetos e um estudo de caso. A partir dos resultados obtidos, verificou-se a importância da implantação de um PMO. Torna-se necessário que a empresa possua o conhecimento sobre alguns fatores, dentre eles o investimento em recursos humanos e financeiros. É importante ressaltar que não existe um retorno imediato. A empresa que decidir adotar essa a gestão por projetos necessita rever a sua cultura organizacional, abrindo as portas para transformações estruturais. Essas transformações não são realizadas a curto prazo. Para isso, a empresa deve estar preparada para mudar seus conceitos, paradigmas e gestão dos recursos, e essas mudanças servirão como alicerce para a implantação desse novo modelo de gestão. Com base na revisão de literatura realizada foi identificado que, além dos procedimentos operacionais, as empresas precisam pensar em uma mudança drástica na estratégia da organização, onde a figura do escritório de projetos poderá ser usada como um instrumento de gestão. Dessa forma, é possível então se aplicar a nova metodologia de gerenciamento por projetos. A partir do objetivo de pesquisa que envolveu as principais dificuldades apresentadas na implantação de um escritório de projetos, é possível se concluir com base no que foi avaliado, que a principal dificuldade encontrada consiste no envolvimento de todas as pessoas da empresa, desde a alta gerência até o nível operacional. Se existirem na empresa pessoas que não estejam envolvidas com essa nova abordagem, esse fato poderá prejudicar o projeto como o todo, trazendo prejuízos irreversíveis para organização. A implantação do escritório de projetos, assim como qualquer outra estrutura organizacional, pode trazer vantagens e desvantagens. Diversos direcionamentos apontam como vantagens da implantação do PMO: a possibilidade de melhoria da lucratividade, times produtivos de projetos, melhoria organizacional, mudança da cultura no tratamento de projetos, uma nova visão de alocação de pessoal, previsões mais assertivas, padronização dos processos, controle dos projetos, segurança no planejamento e por fim, melhoria na comunicação de todos os grupos. Como desvantagens, estão basicamente os fatores críticos, entre os quais se destacam os aspectos financeiros para o patrocínio de implantação e a disponibilidade de aceitação por parte dos colaboradores e alta

gerência. Contudo, conclui-se que, as vantagens superam as desvantagens, sendo possível se afirmar que a implantação de um PMO muitas vezes é necessária para que as empresas se torne cada vez mais competitivas. Como trabalhos futuros, pretende-se repetir o estudo em empresas de diversos ramos de negócio. REFERÊNCIAS ABE, César Kendi. Fatores críticos para implementação do escritório de projetos: um estudo de caso. Disponível em: <http://revista.feb.unesp.br/index.php/gepros/article/viewArticle/89> Acesso em: 28 Abril 2009. BARBOSA, Adriane Monteiro Cavalieri. Como se tornar um profissional em gerenciamento de projetos: livro-base de preparação para certificação de PMPs – Project Management Professional - 2. ed. Rio de Janeiro: Ed. Qualitymark, 2005. DE CARVALHO, K E. M. Impactos da implantação do PMO no desempenho da organização pública: o caso de uma instituição de ensino superior. Dissertação de Mestrado, Universidade Nove de Julho, 2013. HARRISON, Paulo Dias. Análise e resultados da aplicação de modelos de maturidade em gerenciamento de projetos em uma organização: um estudo de caso / P.D. Harrison. São Paulo: 2006. Disponível em: http://www.bbbrothers.com.br/scripts/Artigos/Escrit%F3rios%20de%20Projet o-Uma%20vis%E3o%20geral.pdf > Acesso em: 25 Abril 2009. HELDMAN, K. Gerencia de Projetos. Ed. Rio de Janeiro, Campus, 2003. KERZNER, H. Gestão de Projetos: as melhores práticas. Trad. Marco Antonio Viana Borges, Marcelo Klippel e Gustavo Severo de Borba. Porto Alegre: Bookman, 2002. LAKATOS, Eva Maria. Fundamentos e metodologia científica. – 6. ed. – 3. Reimpr. – São Paulo: Atlas 2006. MAXIMIANO, Antônio César Amaru. Administração por Projetos: como transformar idéias em resultados. – 3. ed. São Paulo: Atlas, 2008. MENEZES, L. C. de M. Gestão de Projetos. – 2. ed. – 8. reimpr. São Paulo: Atlas, 2009. MORAIS, Renato de Oliveira. Multidimensionalidade da maturidade em gestão de projetos de sistemas de informação. Disponível em: <http://www6.ufrgs.br/seermigrando/ojs/index.php/ProdutoProducao/article/vi ew/3506/2889> Acesso em: 20 Abril 2009. PATAH, Leandro Alves. Alinhamento estratégico de estrutura organizacional de projetos: uma análise de múltiplos casos. São Paulo: 2004. Disponível em: < :http://www6.ufrgs.br/seermigrando/ojs/index.php/ProdutoProducao/article/vi ew/3506/2889> Acesso em: 10 abril 2009. PMI - Project Management Institute, PMBOK. Um Guia do Conjunto de Conhecimentos em Gerenciamento de Projetos. 4 ed. Uma Norma Nacional Americana. ANSI/ PMI – 99-001,2008. QUELHAS, Osvaldo. Escritório de projetos. Disponível em: < http://www.bbbrothers.com.br/scripts/Artigos/Escrit%F3rios%20de%20Projet o-Uma%20vis%E3o%20geral.pdf>Acesso em: 18 Abril 2009 RICHARDSON, Roberto. J. Pesquisa social: métodos e técnicas. 3. ed. São Paulo: Atlas, 1999. VALERIANO, D.L. Gerenciamento Estratégico e Administração por projetos. São Paulo: MakronBooks, 2001.


1 de 5

Pesquisa e Inovação: Propondo Um Novo Sistema Para a Gestão de Projetos Alessandro O. Anjos, Denilde B. Bezerra, Hellen O. Lemos, Italo G. Medeiros, Maria J. Pinho, Marciana, O. Araújo, Raquel L. Oliveira, Tarso L. Casadei Núcleo de Desenvolvimento de Software - NUDES Diretoria Acadêmica de Gestão e Informática – DIATINF Instituto Federal do Rio Grande do Norte – IFRN Avenida Senador Salgado Filho, 1559, Natal, Brasil, 59015-000 Resumo – Este trabalho apresenta os elementos que constituem a proposta de um novo sistema para gestão de inscrição, avaliação e acompanhamento de projetos de pesquisa e inovação, denominado Sistema de Gestão de Pesquisa e Inovação (SIGEPI). Hoje, esse gerenciamento é realizado através de formulários do Google Drive, geridos e mantidos pela Pró-Reitoria de Pesquisa e Inovação (PROPI), do Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte (IFRN). O sistema também pretende auxiliar a obtenção de indicadores de desempenho dos projetos inscritos por Edital ou por Câmpus, por exemplo. Resumo – This work presents the elements that make up the proposal for a new system for registration, management, evaluation and monitoring of projects of research and innovation, called System of Management of Research and Innovation (SIGEPI). Today, this management is done through Google Drive forms, managed and maintained by the Office of the Dean of research and innovation (PROPI), the Federal Institute of Education, Science and Technology of the State of Rio Grande do Norte (IFRN). The system also intends to assist the achievement of performance indicators of the projects entered by Invitation or by campuses, for example..

I. INTRODUÇÃO Com a expansão da Rede Federal de Educação Profissional, Científica e Tecnológica promovida pelo governo federal, os gestores das instituições que compõem a rede passaram a manipular um volume crescente de informações relacionadas às diversas dimensões da atuação institucional. Além do aumento na quantidade de dados necessários à tomada de decisões, a expansão da rede (INSTITUTO FEDERAL DO RIO GRANDE DO NORTE, 2014) promoveu uma descentralização das informações, que agora permeiam os diversos Câmpus que compõem cada Instituto Federal. No âmbito de uma Pró-reitoria de Pesquisa e Inovação (PROPI, 2014), por exemplo, é necessário administrar as diversas atividades promovidas pela inovação institucional, como: lançamento de editais, avaliação de projetos inscritos, seleção de avaliadores, acompanhamento de projetos aprovados, dentre outras. Além dessas atividades principais, indicadores como a pontuação geral dos projetos submetidos por Câmpus, por Edital ou por Área de Conhecimento, são importantes para uma Pró-reitoria mensurar a participação de servidores e alunos nas atividades de pesquisa e inovação

desenvolvidas, podendo servir como parâmetros para a definição de políticas e ações institucionais para estender os benefícios da produção do conhecimento à sociedade. A estrutura de Tecnologia da Informação disponível na Pró-Reitoria provê acesso à internet e a computadores para todos os setores administrativos e de ensino. Entretanto, não há um sistema de informações específico para o gerenciamento da pesquisa e inovação. As informações a respeito de bolsistas, professores, e processos administrativos, ficam organizadas e gerenciadas através de planilhas eletrônicas. A realidade exposta dificulta os processos de tomada de decisão e retardam a emissão de relatórios específicos em cada área de conhecimento. Segundo JÚNIOR (2006), com o advento da globalização, a competitividade entre as empresas no mundo dos negócios vem aumentando intensamente nos últimos anos. As empresas contemporâneas, cientes da necessidade de adaptação a este cenário, têm investido na captação, armazenamento, tratamento e aplicação da informação em sistemas de gestão (LAUDON e TRAVER, 2011) como diferencial estratégico e competitivo na condução dos negócios. As organizações que não investem em tal sentido, tendem a evoluir de forma mais lenta, devido à baixa eficácia de análise dos processos pertinentes à sua realidade. Por consequência, perdem oportunidade de corrigir falhas e de implantar projetos e medidas que viabilizem o próprio crescimento. Neste panorama, o presente artigo apresenta um sistema de gestão desenvolvido para as Pró-reitorias de Pesquisa e Inovação (PROPI) dos Institutos Federais. O sistema, denominado de Sistema de Gestão de Pesquisa e Inovação (SIGEPI), permite o gerenciamento das atividades de pesquisa e inovação realizadas nos diversos Câmpus das Instituições. Utilizando a internet como meio, o sistema possibilita que uma PROPI divulgue editais, contemple e acompanhe projetos, além de avaliar as atividades realizadas em cada Câmpus dos Institutos Federais, tendo acesso às pontuações dos projetos, quantidade de projetos inscritos e quantidade de projetos aprovados de cada unidade do Instituto. Este artigo faz parte de um projeto de pesquisa do curso de Tecnologia em Análise e Desenvolvimento de Sistemas, do Instituto Federal do Rio Grande do Norte (IFRN) e também se coloca como item motivador para que os alunos envolvidos despertem novas habilidades e o interesse para a área tecnológica, especificamente relacionada com a programação, ao mesmo tempo em que estimula o interesse


2 de 5

pelo meio acadêmico através da aplicação de técnicas de pesquisa e de escrita de documentos formais para publicação em eventos relacionados com a área. Na

próxima

sessão,

apresenta-se

Material

e

Métodos, abordando as entrevistas realizadas com a PróReitoria do Instituto Federal do Rio Grande do Norte, a modelagem de dados e o desenvolvimento do banco de dados. Em seguida, são mostrados os resultados obtidos com o desenvolvimento do trabalho. Posteriormente, são feitas as conclusões relativas aos resultados e perspectivas de continuidade do trabalho. Por fim, se faz os devidos

Para a construção do Diagrama de Modelo Relacional foi utilizada a ferramenta administrativa MySQL Workbench 5.2, a qual, segundo MYSQL (2013) é uma ferramenta unificada

para

projetistas

de

banco

de

dados,

desenvolvedores e administradores de banco de dados. A ferramenta provê suporte para modelagem de dados, desenvolvimento

SQL

(Structured

Query

Language),

ferramentas administrativas para configuração de servidores, administração de usuários, entre outros. O software está disponível para os sistemas operacionais Windows, Linux e Mac OS. Trata-se de uma aplicação de uso livre e de código

agradecimentos e referências.

aberto, disponibilizado sob a Licença GPL (General Public II. ENTREVISTAS

License).

A primeira etapa do desenvolvimento deste trabalho

IV. PROJETO DO SISTEMA

foi a realização de entrevistas na Pró-Reitoria de Pesquisa e Inovação do Instituto Federal do Rio Grande do Norte (PROPI). A PROPI é a responsável por controlar todos os projetos de pesquisa e inovação da instituição, bem como os bolsistas e os seus orientadores. A PROPI faz o controle via planilhas eletrônicas, dificultando, assim, tarefas rotineiras

A partir da compilação das informações adquiridas com as entrevistas realizadas com a Pró-Reitoria, foi desenvolvido um Diagrama de Modelo Relacional de um sistema de banco de dados para armazenamento das informações e alguns diagramas de projeto, como a UML (UML, 2013) (Unified Modeling Language), por exemplo.

como consultas e emissão de relatórios. Ao final das entrevistas, foram coletados modelos de formulários utilizados nos cadastros dos projetos de pesquisa e modelo de alguns Editais. A partir da análise de tais documentos, foi feita a modelagem de dados para o

Um papel importante no sistema são os usuários que atuam como administradores. Este usuário é responsável por realizar tarefas de suporte ao sistema, como controle de usuários, avaliação, gerência de editais, gerência de Câmpus, gerência de áreas de conhecimento, dentre outros. Cada usuário em

desenvolvimento de um sistema de banco de dados.

particular é associado a um Câmpus, de acordo com sua III. MODELAGEM DOS DADOS

lotação funcional.

O modelo de dados utilizado foi o relacional. De acordo com SILBERSCHATZ et al (2006), este é o principal modelo

de

dados

para

aplicações

comerciais

de

processamento de dados. Ele conquistou sua posição de destaque devido à sua simplicidade, que facilita o trabalho do programador, comparado com outros modelos de dados, como o modelo de rede ou o modelo hierárquico. A fim de organizar o trabalho e facilitar atividades de manutenção e atualização do banco de dados utilizou-se o diagrama de modelo relacional. Em tal diagrama, podem-se

Figura 1 - Diagrama de Casos de Uso de Professor e Coordenador

visualizar todas as tabelas, seus campos e tipos de dados, índices, chaves e relacionamentos.

Os administradores são também responsáveis por selecionar

avaliadores

para

um

determinado

projeto,


3 de 5

acompanhar o processo de avaliação dos projetos, além de aprovar ou não os projetos que foram submetidos. A Figura 1 apresenta o diagrama de casos de uso para o professor e os coordenadores de pesquisa. Estes usuários são responsáveis por realizar as tarefas alvo do sistema: submeter projetos, visualizar editais e também avaliar projetos mandados pelo administrador. Enquanto o professor é capaz de acessar apenas as informações de submissão de projetos, área de avaliação e área de visualização de editais, os coordenadores, além de herdar todas as funções do

Figura 2 - Diagrama Parcial do Banco de Dados

professor, poderão cadastrar as informações relativas aos

V. RESULTADOS

bolsistas do Câmpus de sua lotação. Uma vez definidas as funcionalidades requeridas para o sistema, o software é projetado e implementado, utilizando os princípios científicos e tecnológicos da área de Análise e

Para atender de forma mais adequada às necessidades requeridas para o sistema, foi desenvolvido um sistema para a Web, um Desktop e um Mobile, permitindo que as possam

ser

manipuladas

(classes de domínio) completamente desenvolvido de acordo com as ideias apresentadas na seção anterior. Esta camada, composta por nove classes, foi desenvolvida de maneira

Desenvolvimento de Sistemas.

informações

O software abordado neste trabalho teve o projeto

entre

as

três

plataformas através de um serviço web (PLAY, 2013), capaz de transmitir os dados pelo protocolo de internet HTTP, que são recuperadas utilizando a rede. Todas as informações são

independente da interface com o usuário (IU), sendo que sua execução também foi verificada através de testes unitários. O sistema foi desenvolvido em três plataformas: Web para realizar submissão de projetos, Desktop para gerenciar os usuários e editais, campus, e a plataforma para Dispositivos Móveis para realizar consulta dos editais e dos projetos de pesquisa, vide Figura 3.

então armazenadas em um banco de dados. Um diagrama parcial do banco de dados do sistema é apresentado na Figura 2. A tabela denominada Projeto é responsável por armazenar as informações do projeto de pesquisa, em que os professores os submetem a fim de solicitar bolsas de pesquisa aos seus bolsistas da Instituição. Cada projeto possui várias relações de envolvidos: os professores, responsáveis por submeter o projeto; o administrador, que gerencia os editais e os Câmpus, além de selecionar e aprovar ou não os projetos; e, por fim, os avaliadores desse projeto, que armazenarão os dados na tabela de Projeto Avaliado (projeto_avaliado). A tabela de usuários (usuario) é utilizada para controlar o acesso ao sistema. Conforme visto na figura, cada usuário é associado a um Câmpus.

Figura 3 - Tela de Visualização dos Editais Disponíveis

A Figura 4 apresenta o cadastro de um edital. Os editais são lançados contendo as informações necessárias para as propostas de submissão de bolsas de pesquisa.


4 de 5

Por exemplo, há uma conexão entre os projetos já cadastrados e os que podem solicitar renovação. Graças a um sistema integrado, é possível manter esse vínculo e todos poderão acompanhar a evolução das atividades através desse sistema. Como trabalhos futuros, pretende-se desenvolver novos módulos como, por exemplo, o módulo do Bolsista, que utilizaria o sistema para enviar os seus relatórios da pesquisa realizada à Pró-Reitoria do seu Câmpus, como Figura 4 - Página de Cadastro de Edital

também um módulo que possibilite a submissão de Artigos para conferências.

A Figura 5 mostra o processo de submissão de um

AGRADECIMENTOS

projeto à PROPI. Cada projeto é composto por um professor Os autores agradecem aos professores do curso de

coordenador e um candidato a bolsista, além de ser regido por um edital. No momento da submissão, é possível anexar um arquivo que contenha informações suplementares ao projeto.

Tecnologia em Análise e Desenvolvimento de Sistemas do IFRN, Câmpus Natal-Central, pela devida orientação ao projeto. REFERÊNCIAS [1] ANTUNES, A. (2012). Como consumir um Web Service pelo Android. Disponível em: http://www.portalandroid.org/comunidade/viewtopic.php?f=7& t=17465. Acesso em 15/04/2013. [2] ASTAH. (2013). Ferramenta de Modelagem UML. Disponível em http://astah.net/editions/community. Acesso em 09/07/2013.

Figura 5 - Página de Submissões de Projetos

VI. CONCLUSÃO Neste artigo, foi apresentado um sistema de gestão

[3] BALSAMIQ. (2013). Protipação de Telas com Balsamiq Mockups. Disponível em http://www.balsamiq.com/. Acesso em 15/04/2013. [4] BOOTSTRAP. (2012). Framework Front-End. Disponível em: http://getbootstrap.com/2.3.2/. Acesso em 15/04/2013. [5] CODE.Google. (2012). Acesso em 19/04/2013.

http://code.google.com/intl/pt-BR/.

e Inovação do IFRN. Espera-se que o sistema possa também

[6] ECLIPSE. (2012). Site do Ambiente de Desenvolvimento Integrado Eclipse. Disponível em http://www.eclipse.org/juno/. Acesso em 15/04/2013.

ser utilizado por outros institutos federais do Brasil e que

[7]

desenvolvido primeiramente para a Pró-Reitoria de Pesquisa

possa viabilizar o processo de realização das tarefas das PróReitorias, substituindo os dados atuais, que muitas vezes são realizados por planilhas eletrônicas. Nessa fase do sistema, ficou claro que a execução de todas as tarefas propostas pelo cliente ocorreria com dificuldades sem um sistema integrado como o descrito nesse trabalho. São muitas as informações e o acompanhamento da evolução dos projetos pela Pró-Reitoria será prejudicado caso não haja um ponto único de acesso para todos os envolvidos.

INSTITUTO FEDERAL DO RIO GRANDE DO NORTE. Plano de Desenvolvimento Institucional 2009-2014. Disponível em: http://portal.ifrn.edu.br/institucional/planejamento

[8] JUNIOR, F.G.; RIBEIRO, L.S.; ROQUE, U.; JOB, D.H.; VIEIRA, E.S.; GOLDSCHMIDT, R.R. Datawarehouse e Mineração de Dados nos Institutos Superiores da FAETEC. In: II Workshop De Computação Científica da UENF, 2006. [9] HILTON, Peter; BAKKER, Erik; CANEDO, Francisco. Play for Scala. 3ª versão, 2012. [10] KAPER, S., LEROUX, Nicolas. Play for Java. 3ª versão, 2012. [11] LAUDON, K. C. and TRAVER, C. G. (2011). Management Information Systems. PrenticeHall Press, Upper Saddle River, NJ, USA, 12th edition.


5 de 5

[12] METSKER, Steven John. Padrões de Projeto em Java. Bookman, 2004. [13] MySQL. (2013). Página oficial do banco de dados MySQL. Disponível em http://www.mysql.com/. Acesso em 11/04/2013. [14] PAS. (2009). Processo Acadêmico Simplificado. Disponível em http://nagano.cefetrn.br/pas-epf/. Acesso em 15/04/2013.

[18] SILBERSCHATZ, A.; KORTH, H.F.; SUDARSHAN, S. Sistemas de Banco de Dados. 5ª Edição. Rio de Janeiro: Elsevier, 2006. [19] SUBECLIPSE. (2013). Eclipse Team Provider plug-in providing support for Subversion within the Eclipse IDE. Disponível em: http://subclipse.tigris.org/. Acesso em 15/04/2013.

[15] PROPI. (2012). Pró-Reitoria de Pesquisa e Inovação do IFRN. Disponível em: http://portal.ifrn.edu.br/pesquisa/pro-reitoriade-pesquisa-e-inovacao. Último Acesso em 11/06/2013.

[20] TortoiseSVN. (2012). Software de Controle de Versão. Disponível em: http://tortoisesvn.tigris.org/. Acesso em 17/08/2013.

[16] PLAY FRAMEWORK. Desenvolvimento Web Acesso em 10/04/2013.

[21] UML. (2013). Unified Modeling Language. Disponível em http://www.uml.org. Acesso em 15/04/2013.

(2013). Framework Para http://www.playframework.com/.

[17] REDMINE. (2007). Gerência de Projetos. http://nagano.cefetrn.br/redmine/. Acesso em 15/04/2013.

[22] WAZLAWICK, Raul S.. Análise e Projeto de Sistemas de Informação Orientados a Objetos. 2 ed. Editora Elsevier, 2011.


UM ESTUDO SOBRE GERENCIAMENTO DE PROJETOS COM EQUIPES MULTIFUNCIONAIS Talles Eduardo A. de Assis

Germano Fenner

Alberto Sampaio Lima

Universidade de Fortaleza Fortaleza, Brasil talleseduardo@hotmail.com

Universidade Federal do Ceará Fortaleza, Brasil germanofenner@yahoo.com.br

Universidade Federal do Ceará Fortaleza, Ceará, Brasil albertosampaio@ufc.br

Resumo: A utilização de habilidades intrínsecas a cada profissional que possui afinidades com outras áreas nas quais não estejam diretamente ligados exige uma sensibilidade do gerente de projetos. Este trabalho apresentou um estudo sobre gerenciamento de projetos utilizando equipes de trabalhos multifuncionais. Foi mostrada a ligação entre a necessidade interpessoal de cada membro da equipe e a necessidade de sustentabilidade da empresa. Foi verificado em um estudo de caso que as atividades multifuncionais além de agregarem valor intelectual, tornaram cada profissional o dono do processo, criando responsabilidades antes não solicitadas, além de incentivar o desenvolvimento gerencial em cada um. Utilizando essa abordagem, o gestor consegue a formação de recursos de reserva e novos sucessores em vários níveis e área de atuação. Palavras-Chave: Equipes multifuncionais, Gestão de Projetos, Motivação. Abstract: Project manager has to use sensibility to work with the skills of the members that are not linked to their work area. This paper present some elements that form the basis for project management using multifunctional working teams, showing a link between the need for interpersonal of each team member and the need for sustainability of the company. We proceeded a case study where results indicated that managers can improve members motivation and create backup resources in organizations. Keywords: Multifunctional Management, Motivation.

teams,

Project

INTRODUÇÃO Na sociedade atual, o gerente de projetos trabalha muitas vezes na função de organização das entregas de pacotes e produtos contratados, além da coordenação dos grupos de trabalhos. Para que uma engrenagem baseada em projetos funcione corretamente, torna-se imprescindível que todos os membros da equipe estejam alinhados e conscientes sobre sua participação. A multifuncionalidade abordada nesta pesquisa não se trata da diversidade de cargos exercida, mas sim da utilização de habilidades intrínsecas a cada profissional, quando os mesmos apresentam afinidades com determinadas áreas nas quais não estão diretamente alocados na empresa. O presente estudo tem por parâmetro discutir o gerenciamento de equipes em uma ótica multidisciplinar, apresentando as tendências do mercado e valorizando a capacidade de os projetos poderem ser gerenciados desta forma. A importância do desenvolvimento deste trabalho se dá com a apresentação de fatos e casos de sucessos com a utilização de equipes multidisciplinares. Ao promover esse recurso o gestor apresenta oportunidades às pessoas do grupo para se desenvolverem e buscarem novos caminhos. Infelizmente não é tão fácil aplicar essa metodologia nas empresas e equipes, tendo em vista que alguns passos precisam ser seguidos. Segundo o PMBOK (Quarta versão), o gerenciamento e a liderança da equipe depende de fatores como: poder, influência social e manutenção da ética entre os parceiros. Existem algumas perguntas e questionamentos feitos pelos gerentes de projetos tais como: O que fazer ? Como fazer ? Como I.


melhorar ? Como extrair o melhor de cada membro da equipe, sem, no entanto, causar conflitos de interesses e disputas de vaidade, mantendo o mesmo clima profissional e ético no meio? Esse desafio faz parte da rotina diária e incessante do gestor. Segundo Ferri (2009), um gestor e sua equipe estão ligados para se alcançar e compartilhar de um objetivo comum, porém como pode um líder confiar sua carreira a seu time? A resposta é simples, o guia necessita que seus seguidores sejam uma extensão de suas idéias. Ainda conforme o mesmo autor, um gestor e sua equipe vão criando vínculos diante dos seus desafios no dia-a-dia de trabalho, compartilhando assim as conquistas e as derrotas, sendo esse comportamento democrático e familiar, uma das portas para o caminho de equipes multidisciplinares. Com essas características tão fascinantes aos olhos de quem deseja ingressar no universo do gerenciamento, serão apresentados os fatores de sucesso, as tendências do mercado, e o retorno social que um gerenciamento de equipes multidisciplinares pode trazer. Um estudo de caso foi executado, avaliando uma equipe de projetos industriais da empresa Mako Soluções Industriais, a qual utiliza do sistema de equipes multifuncionais e estrutura matricial para implantação de seus escritórios de projetos. II.

TRABALHOS RELACIONADOS

Conforme Bittencourt (2007), o gerenciamento de projetos teve seu conceito utilizado de forma isolada na década de 50, auge da guerra fria, onde após serem surpreendidos pelos soviéticos, os EUA decidiram investir em técnicas e ferramentas destinadas a aceleração das implementações de projetos. Hoje, mais de meio século após o início do estudo sobre gerenciamento de projetos, ainda existe a necessidade de se reinventar novas técnicas de gerenciamento, principalmente de pessoas e processos, a fim de se minimizar os retrabalhos e melhorar o controle das ações. Surgiu então a necessidade de se construir um sistema de gestão para definir como se trabalhar com essa diversificação de capacitação e de valores

humanos. A abrangência intelectual de uma equipe de trabalho agora composta por mais de um tipo de formação profissional, pode se interagir de forma harmônica entre si para que os objetivos organizacionais sejam atingidos. Mas porque essa dificuldade em implantar novas idéias já que nossos gerentes já têm tanto histórico para estudar? A resposta está no aumento da capacidade intelectual das equipes e na grande rapidez com que o saber se difundiu, fazendo com que o fator aprendizagem e pessoal sejam fundamentais ao sucesso do grupo. Ferri (2009) afirmou que os gestores e as equipes, com o tempo, seguirão caminhos diferentes, porém serão motivados pelo aprendizado e pelo sucesso interpessoal. Contudo, o sucesso de um projeto depende de pessoas e processos, e ambos devem caminhar juntos para que a finalidade seja alcançada. Em uma estrutura matricial, objeto de estudos desta pesquisa, Bittencourt (2007) identificou que grande maioria dos projetos é caracterizada por equipes multidisciplinares e interfuncionais, compostas por membros com habilidades e especialidades diferentes, atribuídas aos projetos em uma base de tempo variável. O mesmo autor ainda citou que se pode observar características fortes de influencia gerencial sobre os seguidores, tais como o fato de que os objetivos dos projetos são mais claros e difundidos entre a equipe, a máxima utilização dos recursos humanos e um maior interesse em disseminar as informações tanto horizontalmente como verticalmente. A seleção de uma equipe de projetos é uma tarefa rotineira, porém concentra necessidades que podem transformar essa triagem em uma operação nada fácil. Toda equipe é formada a partir de uma necessidade, seja ela de mercado, do projeto, do cliente ou mesmo de uma demanda em específica ou pontual de um objetivo. O primeiro passo é entender a necessidade do cliente. Para cada ramo de atividade, existem necessidades diferentes, e para cada cliente, existem necessidades e tratamentos diferenciados. Segundo Drucker apud Kotler 2000:30, a meta é conhecer e compreender tão bem o cliente, que o produto ou


serviço, se adapta a ele por si só. É indispensável que o gerente de projetos conheça o campo onde está pisando para que assim, possa definir o seu grupo de seguidores. O segundo passo é definir qual será a estrutura organizacional do projeto dentro da empresa. Segundo Verma (1996) apud André Bittencourt (2007), uma estrutura organizacional do projeto deve ser concebida de forma a atingir o objetivo do projeto, através de um ambiente que promova máxima interação humana com uma quantidade mínima de conflito destrutivo. Basicamente existem três estruturas de projetos, sendo elas a estrutura funcional, a matricial e a estrutura por projetos. Para se atingir os objetivos deste trabalho, o desenvolvimento foi elaborado tomando-se como base a estrutura matricial. Após a definição da estrutura organizacional, segue-se a etapa seguinte, que consiste na seleção da equipe de trabalho. Nesta fase, faz-se necessário definir o perfil profissional de cada membro da equipe, competências e habilidades técnicas exigidas, qualificação, experiência profissional de campo e sala técnica, conhecimento do ramo de trabalho, ambições de crescimento profissional e pessoal, etc. Após a definição do perfil, é hora de definir qual será o valor de sua remuneração e quais premiações são cabíveis dentro do universo de trabalho daquela pessoa, para que desta forma, a empresa consiga atender as expectativas interpessoais de seu novo funcionário e parceiro de conquistas. Definido o perfil de seus colaboradores, é imprescindível trabalharmos o lado motivacional da equipe, o qual caberá em sua maioria ao gerente de projetos. Conforme Ferri (2009), um gestor e sua equipe, devem estar atentos as necessidades pessoais de auto-realização, que impulsionam todo o ser. O trabalho motivacional de um grupo é bastante complexo. Extrair o melhor de seus pares e fazê-los crer em sua liderança, depende muito do comportamento dentro e fora da organização. O gestor dever ser um espelho o qual refletirá a vontade de seu subordinado em crescer profissionalmente. O gerenciamento pelo exemplo

talvez seja a melhor maneira de motivar uma equipe. O relacionamento de empresas e funcionários é sempre um tabu a ser quebrado. Por conta do sistema capitalista que impulsiona a gestão das empresas, é normal que a massa trabalhadora sintase um pouco incomodada com algumas políticas corporativas, como por exemplo a aplicabilidade ou não do plano de carreiras e salários. É normal também as empresas se mostrarem resistentes à mudanças que beneficiem mais o lado do trabalhador, como por exemplo a aplicabilidade dos seis meses de licença maternidade. Um novo funcionário sempre irá almejar um reconhecimento profissional e salarial, porém nem sempre estará disposto a lutar pelo que deseja. A empresa sempre irá cobrar de seus colaboradores um melhor rendimento e retorno de trabalho, porém nem todas estão dispostas a reconhecer um bom profissional e começar a investir em sua carreira e proporcionar um desenvolvimento profissional interno. O alicerce para que a relação entre equipes e empresa seja sólida está no conhecimento da cultura organizacional da empresa onde se trabalha. Ferri (2009) afirmou que um gestor e sua equipe devem compreender bem a cultura de uma organização, caso contrário, se acharão deslocados e até mesmo desmotivados. Segundo o PMI (2008), o gestor deve gerenciar as expectativas das partes interessadas de forma a criar uma interação entre elas para que assim, possa atender as suas necessidade e solucionar as questões à medida que ocorrerem. Desta forma, o gerente de projetos terá sucesso proporcional à sua capacidade de influenciar líderes e liderados, pois em um sistema onde todos poderão usufruir de retorno e reconhecimento, sendo estes financeiros, moral, profissional e etc, a probabilidade de um projeto ter sucesso, com certeza será maior. O gestor do projeto deverá utilizar de suas habilidades de líder de modo a extrair de seus liderados o maior aproveitamento possível de seus conhecimentos, mantendo a equipe sempre motivada e dentro dos padrões éticos de conduta profissional. O PMI (2008) cita que as equipes de gerenciamento de projetos devem estar cientes,


assumir o compromisso e garantir que todos os membros desta tenham comportamento ético. Segundo Pavarini (2006), cabe ao gerente de projetos acreditar sempre no sucesso de seu projeto, mesmo quando este é de alto risco e os problemas acontecem. Deve-se ter como uma das principais habilidades, a capacidade de demonstrar estar sempre motivado, pois com isso se transmite calma e confiança para toda a equipe do projeto, que deve se esforçar para atender à orientação e aos desejos de seu gestor. Ao gestor cabe também o desenvolvimento do gerenciamento de pessoas, onde um de seus componentes é denominado reconhecimento de recompensas, que de acordo com o PMI (2008), deve estabelecer critérios claros para recompensas, as quais devem se basear em atividades e desempenho que possam ser controlados por um sistema ou por pessoas. As recompensas devem ser autorizadas pela empresa, o que exige do gestor um nível de controle apropriado sobre tais decisões. Com todas essas aplicações, tanto a equipe quanto a empresa poderão usufruir de um bom convívio, o que será de grande importância para o sucesso dos projetos a serem elaborados. III.

METODOLOGIA

Um estudo de caso consiste em uma abordagem metodológica de investigação especialmente adequada ao momento onde procurase compreender, explorar ou descrever acontecimentos e contextos complexos, nos quais estão envolvidos diversos fatores simultaneamente. Yin (2005) afirmou ainda que esta abordagem se adapta à investigação em educação, quando o investigador é confrontado com situações complexas, de tal forma que dificulta a identificação das variáveis consideradas importantes, quando o investigador procura respostas para o “como?” e o “por quê?”, quando o investigador procura encontrar interações entre fatores relevantes próprios dessa entidade, quando o objetivo é descrever ou analisar o fenômeno, a que se acede diretamente, de uma forma profunda e global, e quando o investigador pretende apreender a

dinâmica do fenômeno, do programa ou do processo. O estudo de caso apresentado neste trabalho foi realizado em uma empresa de gerenciamento de projetos industriais, que trabalha projetos próprios e terceirizados. A coleta de dados foi realizada em uma fábrica de refrigerantes no estado do Ceará, (seu nome não pode ser citado, devido à cláusula de sigilo contratual) onde foi montado um escritório de projetos para atender as necessidades da mesma. Instrumentação e amostra A equipe de profissionais envolvida no estudo foi formada por cinco pessoas, sendo elas: um gerente de projetos corporativos, um gerente de escritório de projetos, um engenheiro eletricista, um técnico em edificações e um técnico em mecânica industrial. As atividades de observação do estudo de caso foi realizada durante a execução de 100 projetos no período de janeiro a dezembro de 2009, dentre os quais, 76 (setenta e seis) foram executados com sucesso. Buscou-se observar as recomendações de Runerson e Host (2009) bem como de Wohlin et al. (2000) durante a fase de planejamento da pesquisa e projeto das entrevistas. IV.

ESTUDO DE CASO

A investigação foi desenvolvida na empresa cearense Mako Soluções Industriais, localizada no bairro Itaperi. A empresa esta no mercado desde 2001, atuando no ramo de gerenciamento de projetos industriais. Fazem parte do seu quadro de funcionários, cerca de 40 profissionais, sendo estes divididos em equipes de gerenciamento de projetos, setor administrativo, mão de obra de execução e manutenção. O contrato com a empresa de refrigerantes dizia respeito ao fornecimento de mão de obra de apoio ao departamento interno de engenharia. As atividades consistiam em supervisão, controle, apoio ao gerenciamento e a elaboração dos documentos necessários à execução de obras de


melhoria, ampliação e reforma de suas unidades fabris. Fazia parte também deste pacote de trabalho documentos referentes à: ART (Anotação de Responsável Técnico) de obras e projetos, memoriais descritivos de projetos, orçamentos estimados, elaboração de editais de licitação, planilhas de equalização de preços, plantas arquitetônicas, elétricas, mecânicas, de automação e de processo, além de vistorias, análise de cotações e orçamentos de mercado, estudos de viabilidade técnica e financeira de obras. A cada obra solicitada pela cliente, era fornecido um número e o seu devido título de projeto. Definido qual o projeto, tornava-se necessário a identificação do escopo do mesmo, descrevendo quais seriam as áreas de trabalho, documentações e plantas necessárias para sua implantação. Todos os anos a empresa cliente detinha de verbas as quais eram liberadas mediante apresentação destes documentos. A verba ficava disponível durante o ano corrente, e caso não fosse utilizada ou destinada, voltaria ao cofre da empresa e o departamento responsável pelo não cumprimento da demanda seria responsabilizado pela falta de resultados. A responsabilidade da equipe da Mako se resumia a entregar a maior quantidade de projetos em um menor prazo possível, para que os mesmos pudessem ser licitados no seu devido período. Devido à grande carga de projetos que deveriam ser executados naquele ano, houve a necessidade de a equipe, composta por cinco membros, desenvolvesse atributos de trabalho diferentes de suas formações. Devido aos estudos realizados em gerenciamento de projetos, foi possível aplicar técnicas construtivas para o desenvolvimento do grupo, de forma a compensar a pouca quantidade de mão de obra. Cada membro da equipe deveria desenvolver pelo menos dois papeis em cada projeto, sendo um dos papeis aquele de sua formação profissional o outro papel seria o de “gestor” daquele projeto em si. Pode-se citar um dos projetos como exemplo: Projeto: Nova Linha de Refrigerantes;

Escopo do projeto: Instalar em uma fábrica uma nova linha de refrigerantes, este equipamento foi comprado na Alemanha e precisou de um galpão especialmente construído para recebê-lo, como segue abaixo:

Civil: elaboração de um projeto de galpão industrial com área de 2000,00m², constituído de piso em concreto, paredes em alvenaria e cobertura em estrutura metálica, conforme normas vigentes;

Elétrica: execução de projetos elétricos de força, iluminação e tomadas conforme normas vigentes;

Mecânico: execução de projetos de tubulações e utilidades como: ar comprimido, água, etanol, conforme normas vigentes;

Documentações: documentações estaduais, federais, CREA (Conselho Regional de Engenharia e Arquitetura), prefeitura, licenças ambientais e demais documentos necessários a implantação legal da nova linha;

Como a finalidade do projeto consistia em implantar um novo equipamento, que se chama linha de refrigerantes, os cinco membros foram alocados cada um em sua função, porém a responsabilidade da condução deste projeto ficou com o técnico em mecânica industrial, o qual possuía a percepção das necessidades desse projeto. Dessa forma, a figura do gerente de projetos passou a ser colaborativa e/ou subordinada às necessidades do técnico. Com essa atitude, o gerente de projetos do escritório promoveu um desenvolvimento intelectual na equipe e pode dividir a responsabilidade operacional da gestão deste evento. O papel do gestor não é desvirtuado, já que o mesmo existe e continua sendo o responsável pelo sucesso ou insucesso da ação, porém com essa medida, é possível alocarmos vários projetos simultaneamente, aumentando à velocidade de


elaboração e conseqüentemente as entregas dos mesmos. Essa prática foi repetida em vários projetos até que a equipe pudesse tomar ciência de como o papel do dono do processo é importante para o resultado positivo das obras. A presente técnica foi aplicada durante o período de estudo de doze meses. No ato da verificação, a qual de acordo com Marshall [1] é o momento no qual se verifica se o planejado foi consistentemente alcançado através da comparação entre metas desejadas e os resultados obtidos. Normalmente, utiliza-se nesta atividade ferramentas de controle e acompanhamento como cartas de controle, histogramas, folhas de verificação, entre outras. É importante ressaltar que essa comparação deve ser baseada em fatos e dados e não em opiniões ou intuição. Foi constatado que houve um aumento na produtividade e entrega dos projetos solicitados em relação ao ano anterior, o que foi considerado pela equipe como resultados positivos da utilização metodologia para gerenciamento de equipes multidisciplinares. V.

CONCLUSÃO E TRABALHOS FUTUROS

Foi realizado um estudo sobre o gerenciamento de projetos com equipes multidisciplinares onde, a partir de uma revisão de literatura, observações do ambiente real e de um estudo de caso realizado em uma empresa de gerenciamento de projetos industriais, foi identificado que a implantação da ferramenta da multifuncionalidade no escritório de projetos foi um sucesso, pois além de se conseguir o objetivo de entregar as atividades solicitadas pelo cliente em um prazo aceitável, teve-se a possibilidade de criar um ambiente de interação pessoal e desenvolvimento intelectual da equipe. A aplicação do gerenciamento de equipes multidisciplinares tornou a Mako cada vez mais competitiva no mercado, pois ao mesmo tempo em que a equipe desempenhava com louvor suas atividades, ainda estava formando novos líderes que poderão atuar em outros clientes e projetos.

Apesar dos resultados promissores apresentados nesta pesquisa, o estudo de caso realizado envolveu apenas uma empresa, o que pode dificultar a generalização dos resultados obtidos. Como trabalhos futuros, planeja-se avaliar o gerenciamento de equipes multidisciplinares em empresas de diferentes ramos de negócio. REFERÊNCIAS [1] MARSHALL JUNIOR, I, CIERCO A. A., ROCHA, A. V., MOTA, E. B., LEUSIN, S. Gestão de qualidade. 9ª Ed. – Rio de Janeiro: FGV, 2008. [2] PMI-Project Management InstitutePMBOK. Um Guia do Conhecimento em Gerenciamento de Projetos. 4ª Ed. Project Management Institute, 2008. [3] RAJ, P. P., BAUMOTTE, A. C, Trintenaro, FONSECA D. P., D’Alincourt, SILVA, L. H. C. M. Gerenciamento de pessoas em projetos. - Rio de Janeiro: FGV, 2006. [4] VALLE A. B., SOARES, PEREIRA C. A., FINOCCHIO JUNIOR J., SILVA, L. S. F. Fundamentos do gerenciamento de projetos. Rio de Janeiro: FGV, 2007. [5] GIL, A. C. Como Elaborar Projetos de Pesquisa. São Paulo: Editora Atlas S. A., 2002. [6] YIN, R. K. Estudo de Caso: Planejamento e Métodos. São Paulo: Bookman, 2005. [7] RUNERSON, P., HOST, M. Guidelines for conducting and reporting case study research in software engineering, Springer: Empiric Software Eng. ,14:31-164,DOI 10.1007, 2009. [8] WOHLIN C., RUNERSON P., HOST M., OHLSSON B. R., WESSLEN A. Experimentation in Software Engineering - An introduction, Kluwer Academic Publishers, 2000. [9] FERRI M. Gestão de equipes (observações úteis) artigo publicado em http://www.webartigos. com, 2009.


Um Estudo sobre a Gestão de Pessoas no Gerenciamento de Projetos José Gerônimo Bernardo Cândido

Eliseu Castelo Branco Jr.

Alberto Sampaio Lima

Centro Universitário Estácio do Ceará Fortaleza, Ceará, Brasil controle.multi@fortalnet.com.br

Centro Universitário Estácio do Ceará Fortaleza, Ceará, Brasil ecastelob@gmail.com

Universidade Federal do Ceará Quixadá, Ceará, Brasil albertosampaio@ufc.br

Resumo: Uma gestão de pessoas eficaz é uma atividade extremamente necessária no gerenciamento de projetos. Nesta pesquisa, buscou-se identificar a percepção dos gerentes de projetos e serviços sobre o gerenciamento de pessoas. Os resultados indicaram que na gestão de pessoas são identificadas atividades que envolvem o planejamento empresarial, a organização das atividades, assim como o desenvolvimento, a coordenação bem como o domínio de técnicas aptas a promover o desempenho hábil e de qualidade do pessoal. Ao mesmo tempo, a empresa deve garantir facilidades para que os funcionários busquem seus objetivos, quer sejam de cunho pessoal ou profissional. Palavras-Chave: Gerenciamento de projetos, gestão de pessoas. Abstract: People management is an essential activity in project management. In this work, we identified project managers perception about people management. We proceeded a survey and the results indicated that in people management activities involve the enterprise planning, the organization of the activities as well as the development, coordination and still domain of good techniques to promote the skillful performance and of quality of the staff. The company must guarantee easiness€s so that the employees search its objectives personal, wants either or not of professional matrix. Keywords: Project management, people management. I.

INTRODUÇÃO

Ao se analisar as relações da produção em empresas, pode-se perceber que diversas mudanças vêm ocorrendo ao longo da história, tornando mais complexas as atividades de gestão. Nesse sentido, ocorreram mudanças nas relações de produção que tornaram mais evidente a necessidade de sistematização das atividades de gestão. Um projeto consiste em um empreendimento de caráter temporário, cujo principal objetivo refere-se à criação de um produto ou um serviço exclusivo. Vale destacar que os projetos podem abranger setores isolados de uma empresa, ou, dependendo do caso, podem ultrapassar os limites empresariais. Diante desse cenário, tem-se observado que grandes mudanças, de abrangência mundial ocorreram nas empresas, tendo gerado uma renovação no modelo de gestão, sobretudo no que se refere à atuação das pessoas nos ambientes de projetos empresariais, pois atualmente o talento humano tem sido um fator gerador de grande competição empresarial.

A gestão de pessoas em projetos tem como objetivo fazer com que a relação existente entre o capital e o trabalho se torne mais produtiva, assim como evitar possíveis conflitos. Nessa linha de raciocínio, as habilidades, conhecimentos, assim como as competências de cada profissional, passam a ser considerados alicerces para o sucesso do projeto. Dessa forma, pode-se dizer que, a gestão de pessoas em projetos se apresenta como uma forma de resgatar o papel do homem perante a organização, com sua valorização. Agindo assim, as empresas tendem a sair na liderança de um mercado que está cada vez mais competitivo. Nesta pesquisa buscou-se identificar qual a percepção dos gerentes de projetos e serviços sobre o gerenciamento de pessoas, por meio de um estudo realizado em empresa do ramo de seguros. Os resultados obtidos foram promissores, ensejando novas pesquisas sobre o tema. II.

REVISÃO DE LITERATURA E TRABALHOS RELACIONADOS

De acordo com Chiavenato (2004), a administração de recursos humanos (RH) associa-se ao gerenciamento de pessoas dentro das empresas e ao papel desempenhado. O autor afirma que a necessidade de se aumentar o nível hierárquico nas empresas gerou um distanciamento entre as pessoas. Em decorrência desse fato, surgiu a área de Administração de RH. Em suas análises, Chiavenato (2004) defende que a principal atividade da Administração de RH era a excessiva preocupação aos custos da organização, restringindo-se aos cálculos da empresa. Nessa fase, as pessoas eram vistas como empregados, sem maiores individualidades ou necessidades, cujo salário deveria ser compensado com suas atividades profissionais, bem como deveriam trabalhar muito para produzir a mais valia aos seus patrões. Ao analisar o tema, Gil (2001) afirma que o governo brasileiro, na década de 1930 introduziu medidas para proteger os trabalhadores, criando também nessa época, o Ministério do Trabalho, Indústria e Comércio. As empresas incluíram na sua estrutura a Administração de Pessoal, antes chamada de Relações Industriais. As pessoas passaram a ser consideradas peças chave para o sucesso das organizações, fazendo com que a oferta de emprego fosse elevada e a qualificação incrementada. De acordo com Vergara (1999), permanecia o princípio de que as pessoas precisavam ser moldadas a partir das necessidades das empresas. Durante a década de 1980, foi iniciada a difusão de novas teorias e técnicas gerenciais, exigindo do setor de Administração de RH profissionais com


habilidades de negociação, evoluindo assim a visão diante dos operários. A era da informação se caracteriza principalmente pelas transformações velozes, inesperadas e súbitas, considerando o mundo uma aldeia global. Outra (2006) destaca que a competitividade entre as empresas tornou-se mais intensa, passando a se estruturar principalmente pelas pessoas, equipe, com objetivos bem definidos. O conhecimento e as habilidades passaram a ser o pilar das empresas. Com essa mudança de comportamento, o setor de RH passou a ser denominado Gestão de Pessoas. Segundo Bertero (2006), na era da informação o setor de RH não administra pessoas, mas atua com novos parceiros na gestão da empresa. Percebe-se, ao longo dos anos, uma evolução histórica do desenvolvimento do setor de Administração de RH. Na Tabela 1 é apresentado um resumo dessa evolução. Diante do exposto, nota-se uma grande transformação no mundo dos negócios, com isso muda também a filosofia do setor de RH, que passa a considerar o funcionário como parte importante da empresa e passa a prepará-los, capacitá-los e envolvê-los com os objetivos da organização, sendo um grande parceiro no que diz respeito ao sucesso do grupo. 2.1. A gestão de pessoas no PMBOK Em um determinado projeto, estão inclusos no gerenciamento de gestão de pessoas, processos voltados para a organização, além do gerenciamento da equipe envolvida. De acordo com o Project Management Institute (2004), compõem a equipe de projetos profissionais que têm como função e responsabilidades buscar finalizar o projeto. Vale ressaltar que, para atingir esse objetivo, a equipe precisa estar envolvida em boa parte do desenvolvimento do projeto para que dessa forma possam entendê-lo por completo e assim auxiliar nas tomadas de decisão. Segundo Sotille (2007), embora a função dessa equipe seja finalizar o projeto, o envolvimento da mesma, ainda na fase inicial, serve para agregar valores e conhecimentos em todas as etapas, além de fortalecer e engrandecer o compromisso com o projeto. No que se refere à quantidade de pessoas para compor essa equipe, pode-se dizer que essa determinação não está descrita em nenhum papel, pois vai depender do tipo de trabalho desenvolvido, assim como seu desenvolvimento ao longo das atividades (VARGAS, 2003). Ainda sobre a equipe de gerenciamento de projeto, o PMBOK (2004) explica que este se apresenta como uma subclasse da equipe de projeto, sendo de sua responsabilidade as atividade de planejamento, controle e conclusão. Com essas funções, a equipe pode ser chamada de grupo principal, de executivos ou de líderes. No caso de projetos menores, os quais requerem um menor número de profissionais envolvidos, estes podem ser administrados por uma única pessoa, ou seja, pelo próprio gerente de projetos, ou ainda, se for o caso, compartilhado com toda a equipe. Para que se tenha um bom desempenho nos processos de gerenciamento de recursos humanos do projeto estão inclusas as seguintes etapas: planejar recursos

humanos, contratar ou mobilizar a equipe do projeto, desenvolver a equipe do projeto e gerenciar a equipe do projeto. Tabela 1. Evolução da administração de recursos humanos Fonte: Adaptado de Chiavenato (2004, p. 38)

Defini€•o de RH: Rela€‚es

Definiۥo de RH:

Definiۥo de RH:

Industriais

Administraۥo de RH

Gest•o de Pessoas

Fases

Fases

Fases Preocupaۥo

Preocupaۥo

Preocupaۥo

Preocupaۥo

com novas as

com os

com os

com

teorias e

Preocupaۥo

custos

procedimentos

gerenciamento

t„cnicas

em administrar

das

legais ƒ Leis

dos problemas

gerenciais e

com pessoas

organiza€‚es

Trabalhistas

de pessoal

inova€‚es tecnol…gicas

At„ 1930

1930 a 1950

1950 a 1978

1978 a 1990

A partir de 1990

Era da Industrializaۥo

Era da Industrializaۥo

Era da

cl†ssica

Neocl†ssica

Informaۥo

Empregados como

Funcion†rios como recursos

Pessoas como

recursos

fundamentais para o sucesso

parceiras das

de produۥo

das organiza€‚es

organiza€‚es

Na gestão de pessoas, deve ser realizado inicialmente o planejamento de recursos humanos, sendo nesse momento estabelecidas as funções de cada membro e as suas responsabilidades. No planejamento também serão determinadas a hierarquia de cada equipe assim, suas funções, responsabilidades e relações hierárquicas do projeto, criandose o nível de gerenciamento dos grupos. De acordo com o escopo do PMI (2004), as funções estabelecidas para cada projeto podem ser divididas entre pessoas ou ainda classificadas por grupos, dependendo da necessidade ou do tamanho do projeto. Vale ressaltar ainda que as pessoas envolvidas nos projetos, ou mesmos os grupos, podem ou não fazer parte da empresa a qual está executando o projeto. Estão incluídas no plano de gerenciamento de pessoal, informações como: Como e quando os membros da equipe do projeto serão contratados ou mobilizados; Os critérios para sua liberação do projeto; A identificação das necessidades de treinamento; Os planos de reconhecimento e premiação; As considerações sobre conformidade; Os problemas de segurança e o impacto do plano de gerenciamento de pessoal na organização (PMI, 2004, p, 202). Para que o planejamento seja realizado em conformidade são seguidos alguns processos que envolvem a entrada das informações, as ferramentas e técnicas que serão utilizadas, as saídas que envolvem os organogramas, as funções e as responsabilidades. Em todo projeto, faz-se necessário avaliar a necessidade de mobilização da equipe já existente ou mesmo da contratação de pessoas novas para compor as equipes para que seja concluído o projeto. Essa etapa do projeto também


envolve fases que devem ser analisadas na entrada, ferramentas, técnicas e saídas. Na entrada, deve ser analisada a disponibilidade de cada profissional, a experiência, a competência e o interesse. No caso das ferramentas e técnicas, leva-se em consideração a pré-designação, a negociação e a contratação. Nesta etapa pode ser considerada a formação de equipes virtuais, pois dessa forma, é possível criar novas oportunidades que agregam valor ao projeto. E nas saídas são estabelecidas as funções do pessoal, os recursos disponibilizados e o plano de gerenciamento, sempre com o foco no melhor resultado do projeto. Como em qualquer outra atividade é necessário envolver a equipe no intuito de que seja desenvolvidas as competências de cada profissional e estabelecimento de melhor interação entre as equipes visando ao aperfeiçoamento cada vez mais o desempenho e o resultado do projeto. Estão inclusos os seguintes objetivos: € Aprimorar habilidades de membros da equipe para aumentar sua capacidade de terminar atividades do projeto ; € Aprimorar sentimentos de confiança e coesão entre os membros da equipe para aumentar a produtividade através de um trabalho em equipe de melhor qualidade (PMI, 2004, p. 212) . Nesse sentido, pode ser citada, como exemplos de projetos desenvolvidos em equipe, a ajuda recíproca dos seus integrantes para equilibrar a carga de trabalho, a existência de uma comunicação, evidenciando as características de cada e o compartilhamento tanto de conhecimentos como de recursos. Vale enfatizar que os esforços aplicados por todos os membros do projeto resultam em benefícios maiores que devem ser aplicados não somente em momento de dificuldade, mas sim durante todo o processo do projeto, ou seja, início, meio e fim. Ao procurar realizar o gerenciamento das equipes que estão envolvidas em um projeto, busca-se acompanhar o desempenho dos componentes das equipes, fornecer um feedback não só dos pontos positivos, mas também dos negativos, de modo que todos venham a crescer. No gerenciamento, busca-se solucionar eventuais problemas e coordenar as mudanças, as quais são necessárias para um bom desempenho das equipes e do próprio projeto. Para que o projeto alcance seus objetivos, a equipe de gerenciamento deve estar atenta ao comportamento profissional das pessoas envolvidas, para que assim possa gerenciar os possíveis conflitos existentes, avaliando ações e propondo mudanças, destacando o potencial de cada um e trabalhando os pontos negativos. Seguindo essa linha de raciocínio, pode-se dizer que como resultado do gerenciamento da equipe do projeto, o plano de gerenciamento de pessoal é atualizado, as solicitações de mudança são apresentadas, os problemas são resolvidos, são fornecidas entradas para as avaliações de desempenho organizacional e as lições aprendidas são adicionadas ao banco de dados da organização (PMI, 2004, p. 215). De certa forma, gerenciar equipes requer habilidades e não é uma atividade fácil, sobretudo, quando existe a necessidade de prestar contas dos resultados esperados ou para

um líder direto, ou para o gerente de projetos, ou para a matriz da empresa. Pode-se dizer também que a eficácia do gerenciamento, na maioria dos casos, pode ser considerada como um fator crítico para o sucesso do projeto, que, de um modo geral; é responsabilidade do gerente de projetos. Na revisão realizada, o trabalho de Costa et al. (2013) abordou os aspectos específicos da tomada de decisão em gestão de pessoas em equipes de desenvolvimento de projetos de software. Foram analisadas as variáveis dinâmicas e intangíveis, como o estresse, o conflito, a motivação e a performance, com um alto impacto nesta área. A importância da gestão de pessoas foi identificada como uma realidade para as empresas e seu tratamento uma necessidade para os projetos. III.

ESTUDO DE CASO

O trabalho desenvolvido foi baseado em pesquisa bibliográfica, com fonte de dados primários e secundários, por meio da aplicação de um questionário dirigido, realizando uma análise descritiva e exploratória, bem como qualitativa e quantitativa (Lakatos e Marconi , 2001). 3.1. Metodologia da Pesquisa A partir da revisão de literatura e observação do princípio de causa-efeito, buscou-se chegar a resultados que mostrassem informações relacionadas às expectativas iniciais do trabalho. Além da aplicação e tabulação do questionário, o estudo de caso também foi utilizado. Nessa linha, Oliveira (2001, p. 106) acredita que o estudo de caso "consiste em coletar e analisar informações sobre um determinado indivíduo, família, grupo ou comunidade, a fim de estudar aspectos variados de sua vida, de acordo com o assunto da pesquisa". A pesquisa qualitativa (Viana, 2001) foi utilizada quando os autores comportaram-se como intérpretes da situação ao longo de toda a revisão bibliográfica do estudo sobre gestão de pessoas. Já a pesquisa quantitativa foi usada ao longo da análise e interpretação, quando as opiniões dos cinco gestores de projetos participantes do estudo foram identificadas e analisadas através de gráficos e tabelas. O estudo de caso realizado seguiu os seguintes passos: 1.Revisão de literatura; 2.Desenvolvimento da proposta de pesquisa; 3.Execução da pesquisa; 4.Entrevistas; 5.Tabulação e análise dos resultados; 6.Publicação dos resultados. Buscou-se observar as recomendações de Runerson & Host (2009) bem como de Wohlin & Runerson (2000) durante a fase de planejamento da pesquisa e projeto do questionário utilizado. 3.2 População e amostra Na presente pesquisa, a população e a amostra populacional se confundem, pois os cinco gerentes de projetos e serviços do setor da empresa em estudo participaram da mesma, podendo opinar sobre o gerenciamento de projetos no que se refere à gestão de pessoas. O questionário foi aplicado


a 21 colaboradores de uma empresa de seguros. A pesquisa foi dividida em duas etapas: a primeira traça o perfil do sujeito da pesquisa. Em seguida, ocorre a análise da gestão de pessoas via PMBOK na equipe. IV.

na empresa, 47% (n=10) já se encontra de 1 a 3 anos de empresa, 24% (n=5) já está na empresa entre 3 e 5 anos, outros 5% (n=1) já estão na empresa de 5 a 7 anos.

ANÁLISE DOS RESULTADOS

A Figura 1 apresenta os resultados relativos ao gênero dos profissionais da empresa pesquisada, onde os dados apresentados revelam que 33% (n=7) são homens, enquanto que 67% (n=14) são mulheres. Sobre essa temática, pode-se dizer que a maioria da população de Fortaleza é formada por pessoas do sexo feminino (51 %).

Figura 3. Grau de escolaridade

Figura 1. Gênero

Nesta pesquisa, foi verificado que a maioria da equipe de colaboradores era do sexo feminino.

Figura 4. Tempo de atuação

Figura 2. Faixa etária

Percebe-se a partir dos resultados mostrados na Figura 2 que 19% (n=4) possui de 18 a 25 anos, bem como outros 33% (n=7) tem de 25 a 30 anos. Da amostra pesquisada, 24% (n=5) encontram=se na faixa de 31 a 35 anos, 9% (n=2) está na faixa de 36 a 40 anos, 10% (n=2) na faixa de 41 a 45 anos e 5% (n=1) entre 56 e 60 anos. Na faixa de 46 a 55 anos não encontramos profissionais, apresentando o percentual zero. Estes dados mostram um perfil diversificado dos colaboradores da empresa em estudo que são, na sua maioria, jovens, à exceção de um caso de profissional com bastante experiência comprovada nesse setor. A Figura 3 apresenta o atual nível de escolaridade dos respondentes da pesquisa, destacando que 43% (n=9) está participando de curso de nível superior, enquanto 33% (n=7) já concluiu o ensino superior; 9% dos respondentes (n=2) encontra-se cursando uma especialização ou MBA, enquanto outros 10% (n=2) já o concluíram. 5% dos respondentes (n=1) está cursando um mestrado. O tempo na empresa dos respondentes da pesquisa é mostrado na Figura 4, destacando que 24% (n=5) possui menos de 1 ano

Figura 5. Tempo de atuação como gerente

A partir dos resultados apresentados na Figura 5, podese observar que 5, 9% dos respondentes (n=2) está na área há menos de um ano; 48% (n=10) já está nessa área de 1 a 3 anos; outros 29% (n=6) já atua na área de 3 a 5 anos enquanto que outros 9% (n=2) já estão de 5 a 7 anos; Acima de 7 anos, apenas 5% (n=1). Percebe-se com essas respostas que os profissionais são capacitados e conhecedores dos processos que envolvem a gestão de projetos. Com base na Figura 6, observa-se que 44% (n=8) não possuem nenhum tipo de certificação, enquanto que 56% (n=10) possui certificação (Itil, CoBit ou PMP). Na segunda etapa da pesquisa foram identificadas e avaliadas questões referentes à gestão de pessoas via PMBOK na equipe em estudo, em que serão analisados seus pontos de vista sobre o planejamento de recursos humanos, sobre a contratação ou a mobilização da equipe do projeto, como também sobre a importância do desenvolvimento da equipe do


projeto e por fim sobre seu gerenciamento. Antes de iniciar as análises das questões da segunda etapa, foi solicitado à equipe que indicasse a principal característica da atual gestão de pessoas realizada na empresa, sendo o resultado apresentado na Tabela 2.

Figura 6. Certificação Tabela 2. Principal Característica da atual gestão de pessoas na empresa CARACTER€STICAS DA GEST•O Valoriza as pessoas em detrimento dos processos

As pessoas se consideram como verdadeiras parceiras das

Figura 7. Principais problemas enfrentados no setor

No.

%

10

48

7

33

3

14

1

5

empresas, contribuindo com o alcance das metas e objetivos individuais e organizacionais.

As pessoas se consideram seres ‡nicos com necessidades,

De acordo com o Project Management Institute (2004) esses planos existem para se completar, auxiliando uns aos outros para o sucesso do setor, caso um destes venha a apresentar algum tipo de problema afetará os demais.

Seguindo com as análises, foi solicitado ao grupo, quanto às ferramentas e técnicas do planejamento de recursos humanos, que indicasse qual seria a mais importante no setor, sendo o resultado apresentado na Figura 8. A partir das respostas apresentadas na Figura 8, percebe-se que 43% (n=9) dos entrevistados disse ser o organograma e a descrição de cargos a principal ferramenta técnica do setor, 24% (n=5) aponta como sendo a Network e 33% (n=7) afirma ser a teoria organizacional. Cada uma dessas técnicas e ferramentas apresenta seu grau de importância dentro da empresa, não existindo uma resposta certa ou errada para essa afirmação, pois o interessante é que o planejamento faça uso das três.

desejos e anseios que precisam ser respeitados, a fim de poderem exercer suas atividades profissionais da forma mais proveitosa possˆvel.

Concilia as necessidades individuais com as empresariais

A partir das respostas apresentadas, percebe-se que 40% (n=8) acredita que a principal característica da atual gestão de pessoas na empresa seja a evolução natural do setor de recursos humanos em que as pessoas são mais valorizadas em detrimento dos processos e as demais respostas, cada uma foi apontada por 20% (n=4) dos entrevistados. No entanto, vale ressaltar que, em uma gestão de pessoas de uma empresa, é necessário que a equipe de RH aplique no seu dia a dia todos esses princípios, ou seja, eles se completem. A segunda etapa foi subdividida em quatro etapas, sendo nesse momento iniciada a análise do planejamento de recursos humanos. Na primeira parte, os entrevistados foram indagados sobre as entradas do planejamento de recursos humanos, para indicar qual o principal problema enfrentado nesse setor. O resultado encontra-se apresentada na Figura 7. Com base nas respostas apresentadas na Figura 7, percebe-se que 57% (n=12) acredita serem os fatores ambientais da empresa o principal problemas do setor, outros 33% (n=7) aponta os ativos de processos organizacionais e 10% (n=2) afirma ser o plano de gerenciamento de projetos.

Figura 8. Ferramentas e técnicas principais do setor

Para finalizar essa parte, analisam-se as saídas no que se refere a principal dificuldade sentida nesse setor quanto ao planejamento de recursos humanos apontada pelo grupo. O resultado encontra-se na Figura 9. As respostas apresentadas na Figura 9 indicam que 48% (n=10) afirma serem as funções e responsabilidades a maior dificuldade, 43% (n=9) aponta como sendo o organograma do projeto e 9% (n=2) afirma ser o plano de gerenciamento de pessoal. A partir da análise realizada nesse tópico, é importante frisar que o planejamento de recursos humanos tem como principal finalidade conhecer as necessidades nesse setor, para que, desse modo, a empresa como um todo consiga atingir a sua principal meta em um determinado período pré-determinado. O grupo opinou sobre sua percepção acerca da principal dificuldade sentida pelo gestor. Com base nas respostas apresentadas na Figura 10, percebe-se que62%


(n=13) dos entrevistados disseram serem os fatores ambientais da empresa a principal dificuldade na contratação ou mobilização, 29% (n=6) aponta como sendo os ativos de processos organizacionais e 9% (n=2) afirma ser o plano de gerenciamento de projeto. É importante salientar que este é o processo de contratar ou mobilizar a equipe de projeto é importante para obtenção de recursos humanos necessários para concluir o projeto, portanto nessas etapas não pode haver falhas para não prejudicar o andamento do processo.

Figura 9. Principais dificuldades do planejamento de RH

disponibilidade de recursos e 27% (n=2) afirma ser o plano de gerenciamento de pessoal. Diante do que foi exposto, é importante destacar que tanto o ato de selecionar como o de alocar a mão-de-obra necessária para por em prática o projeto é de suma importância, pois vale ressaltar que a qualidade da mão-de-obra que será contratada irá depender da avaliação técnica e psicológica dos candidatos para o cargo.

Figura 12. Fatores de maior importância na saída de contratação ou mobilização

Uma questão a ser analisada referia-se à entrada da etapa de desenvolver a equipe do projeto, onde que foi solicitado para o grupo indicar a principal dificuldade sentida pelo gestor. As respostas apresentadas na Figura 13 indicam que 86% (n=18) afirma serem as designações de pessoal para o projeto o fator de maior dificuldade na entrada de desenvolvimento, 5% (n=1) aponta como sendo o plano de gerenciamento de pessoal e 9% (n=2) disse ser a disponibilidade de recursos.

Figura 10. Principais dificuldades na contratação ou mobilização

Na sequência são avaliadas as ferramentas e técnicas da etapa de contratar ou mobilizar a equipe do projeto, onde o grupo irá apontar a mais importante à gestão de pessoas do setor, conforme expõe a Figura 11.

Figura 13. Fatores de maior dificuldade na entrada de desenvolvimento Figura 11. Importância das saídas para a gestão de pessoas

As respostas apresentadas na Figura 11 indicam que 48% (n=10) disse que o mais importante é a pre designação, 33% (n=7,) afirmou ser a negociação e 14% (n=3) a contratação ou mobilização. Já outros 5% (n=1) afirmaram ser as equipes virtuais. Para finalizar essa parte, analisam-se as saídas da etapa de contratar ou mobilizar a equipe do projeto. Para isso, o grupo opinou sobre o fator mais importante à gestão de pessoas do setor, conforme mostra a Figura 12. As respostas apresentadas na Figura 12 indicam que 54% (n=14) afirmam serem as designações de pessoal para o projeto o fator de maior importância na saída de contratação ou mobilização, 19% (n=5) aponta como sendo a

Baseado nas respostas apresentadas na Figura 14, podese verificar que 48% (n=10) indicou como sendo de maior importância as habilidades de gerenciamento geral, 29% (n=6) afirmou que era o treinamento, 9% (n=2) acreditou que eram as atividades de formação de equipes e 9% (n=2), Agrupamento. 5%(n=1) do pessoal pesquisado apontou para Reconhecimentos e Premiação. É importante frisar que essas respostas de acordo com o PMI (2004) se completam, não existindo uma resposta mais importante que a outra. Com base nas respostas da Figura 15, percebe-se que 38% (n=10) afirma que concorda plenamente, 46% (n=7) concorda. Na percepção de 12% (n=3) disse discordar dessa afirmação enquanto que 4% (n=1) disse discordar plenamente.


Os entrevistados foram indagados sobre o processo de avaliação de desempenho (se os mesmo receberam o feedback de seu gestor de acordo com o previsto pela empresa).

Figura 14. Técnicas e ferramentas de maior importância

. Figura 17. Entrada do gerenciamento: principal dificuldade

Diante das respostas apresentadas na Figura 17, percebe-se que 33% (n=7) aponta como sendo o ativo de processos organizacionais, 24% (n=5) a designação de pessoal para o projeto, 19% (n=4) acredita serem as funções e responsabilidades e ainda 5% (n=1) Organograma do Projeto. Do pessoal pesquisado, 9% (n=2) identificam o Plano de Gerenciamento de Pessoal enquanto outros 10% (n=2) apontam para Avaliação do Desempenho da Equipe. Figura 15. Avaliação de desempenho da equipe na etapa de saída de desenvolvimento

Figura 16. Feedback

Observa-se a partir das respostas apresentadas na Figura 16, que 71% (n=15) afirmou que seus gerentes fizeram feedback, informando seus pontos fortes e fracos e 29% (n=6) disse que não; que esse processo não foi cumprido peio seu gestor imediato. De um modo geral, percebe-se que o desenvolvimento da equipe do projeto deve envolver treinamento, feedback, para que as normas, como os procedimentos a serem seguidos, sejam colocadas para as equipes, no intuito de que a mesma exerça suas atividades com produtividade, segurança, qualidade e, sobretudo, dentro do prazo exigido pelo cliente. A outra parte dessa etapa da análise refere-se ao gerenciamento da equipe do projeto. A primeira questão a ser analisada refere-se à entrada da etapa de gerenciar a equipe do projeto. Será indicada na opinião do grupo em estudo a principal dificuldade sentida pelo gestor. O resultado a esse questionamento está apresentado na Figura 17.

Figura 18. Desempenho: técnica e ferramenta mais importante

Em um gerenciamento de projeto é importante entender que esses pontos devem andar em consonância, não pode haver falhas ou dúvidas, para que o andamento do projeto não seja afetado. Em relação às técnicas e ferramentas da etapa de gerenciar a equipe do projeto, percebe-se as respostas apresentadas na Figura 18 que 52% (n=11) acredita que as observações e conversas são mais importantes, 24% (n=5) as avaliações de desempenho do projeto, 19% (n=4) o gerenciamento de conflitos e 5% (n=1) registro de problemas. De acordo com o PMI (2004), todas essas ferramentas e técnicas são importantes, devendo ser todas utilizadas no intuito de agregar valor ao projeto final. Foi solicitada uma avaliação de desempenho da equipe, de modo a indicar se a mesma está sendo realizada corretamente. Nota-se a partir dos resultados apresentados na


Figura 19 que 48% (n=10) aponta as mudanças solicitadas, 33% (n=7) as ações corretivas recomendadas e 19% (n=4) as ações preventivas recomendadas. Diante do que foi exposto nessa última parte da segunda etapa da análise, percebe-se que o gerenciamento envolve saber controlar a produtividade, e a qualidade dos serviços, além de fazer parte deste a observação do comportamento da equipe, sabendo administrar os possíveis conflitos existentes. Dessa maneira, por em prática a gestão de recursos humanos nas organizações apresenta a necessidade de serem usados instrumentos, ferramentas e técnicas, para que no final o sucesso seja de fato alcançado.

como o desenvolvimento, a coordenação e ainda o domínio de técnicas aptas a promover o desempenho pessoal hábil e de qualidade. Paralelamente a isso, a empresa deve garantir facilidades para que os funcionários busquem seus objetivos pessoais, quer sejam ou não de cunho profissional. Apesar da pesquisa ter alcançado a proposta planejada inicialmente, ainda pode ser aprofundada, haja vista que é um tema bastante complexo e envolve diferentes vertentes de análise. Como trabalhos futuros, pretende-se realizar um estudo mais focado mediante a aplicação de um instrumento de coleta de dados mais específico, bem como envolver uma amostra populacional maior, no intuito de identificar e analisar as principais percepções e opiniões sobre a área de gestão de pessoas em projetos. REFERÊNCIAS BERTERO, Carlos Osmar. Ensino e pesquisa em Administração. São Paulo: Thomson Learning, 2006. CHIAVENATO, Idalberto. Gestão de pessoas. São Paulo: FTO, 2004. COSTA S. D, BRAGA J. L, ABRANTES L. A, AMBRÓSIO B. G., Apoio à tomada de decisão na gestão de pessoas em projetos de software com base em modelos de simulação, RESI - Revista eletrônica de Sistemas de Informação, v.12, n.1, 2013. DUTRA, Joel Souza. Gestão de pessoas: modelo, processos, tendências e perspectiva. São Paulo: Atlas, 2006.

Figura 19. Desempenho final da equipe

V. CONCLUSÃO E TRABALHOS FUTUROS Na presente pesquisa foi apresentada uma revisão de literatura e estudo de caso sobre a gestão de pessoas, de acordo com as recomendações do PMI (2004). Foi verificada a sua importância, haja vista que a gestão de pessoas se apresenta entre os nove setores do conhecimento em gerenciamento de projetos. O planejamento estratégico de recursos humanos de uma empresa se refere a uma projeção de como serão adquiridos e utilizados os seus recursos humanos a favor do alcance dos objetivos esboçados pela organização. Deste modo, para o sucesso na gestão de pessoas, os recursos humanos existentes devem ser levados em consideração, com a mesma importância que é aplicada ao planejamento de marketing, finanças, etc. Deve-se ainda delinear as estratégias que serão utilizadas pelo departamento de recursos humanos, no intuito de viabilizar o alcance de tais objetivos projetados pela organização. Neste contexto, os profissionais necessitam acompanhar o que está acontecendo internamente na organização e conhecer o resultado final de seu trabalho. De modo geral, deve existir um reconhecimento completo das competências e potencialidades que envolvem o profissional como um todo. Por conseguinte, pode-se dizer que na gestão de pessoas são identificadas atividades que envolvem o planejamento empresarial, a organização das atividades, bem

GIL, Antônio Carlos. Projetos de pesquisa. 3. ed. São Paulo: Atlas, 2001. ___ o Gestão de pessoas. São Paulo: Atlas, 2001. IBGE - INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA. Instituto cidades. Disponível em: http://www.ibge.gov.br; Acesso em 1 out 2010. LAKATOS, Eva Maria; MARCONI, Marina de €Andrade. Metodologia do trabalho científico: procedimentos básicos, pesquisa bibliográfica, projeto e relatório, publicações e trabalhos científicos. 6. ed. São Paulo: Atlas, 2001. OLIVEIRA, S. L. de. Tratado de metodologia científica. São Paulo: Pioneira, 2001. PMI - PROJECT MANAGEMENT INSTITUTE. Project Management Body of Knowledge -PMBOK: Guia PMBoK. 3. ed. PMI. Disponível em: http://www.pmisp.org/downloads/PMBOKFourthEdition_Telmo_934564.PD F Acesso em: 1 out 2010. RUNERSON, P., HOST, M. Guidelines for conducting and reporting case study research in software engineering, Springer: Empiric Software Eng. ,14:31-164, DOI 10.1007, 2009. SOTILLE, Mauro. Capacitação em gerenciamento de projetos. 3. ed. São Paulo: PMTech Consultoria e Assessoria Empresarial, 2007. VARGAS, Ricardo Viana. Gerenciamento de projetos: estabelecendo diferenciais competitivos. 5 ed. Rio de Janeiro: Brasport, 2003. VERGARA, Sylvia Constant. Gestão de pessoas. São Paulo: Atlas, 1999. VIANNA, IIca Oliveira de Almeida. Metodologia do trabalho científico: um enfoque didático da produção científica. São Paulo: EPU, 2001. WOHLIN C., RUNERSON P., HOST, M., OHLSSON, B. R., WESSLÉN, A., Experimentation in Software Engineering - An introduction, Kluwer Academic Publishers, 2000.


Um Estudo sobre a Análise Qualitativa de Riscos em Projetos de TI através de uma Ferramenta de Software José Fernandes Almeida Junior

Alberto Sampaio Lima

Germano Fenner

Universidade Federal do Ceará Quixadá, Ceará, Brasil jrfernandessi@gmail.com

Universidade Federal do Ceará Quixadá, Ceará, Brasil albertosampaio@ufc.br

Universidade Federal do Ceará Fortaleza, Ceará, Brasil germanofenner@yahoo.com.br

Resumo: O presente estudo buscou propor e analisar uma ferramenta para análise qualitativa de riscos em projetos de tecnologia da informação, tendo como referencia o guia PMBOK. Através de um estudo de caso descritivo, buscou-se avaliar se a ação da prática de avaliação de riscos com uso de uma ferramenta automatizada melhoraria o processo de escolha de projetos para o portfólio de uma empresa. A ferramenta desenvolvida para avaliar os riscos foi testada em uma empresa de TI. O estudo ainda contou com a avaliação de gestores especialistas. Para tanto, foi realizada uma pesquisa entre os meses de novembro de 2013 a março de 2014, e um estudo de caso sobre a utilização da ferramenta, com testes em uma empresa de TI. Palavras-Chave: Tecnologia, informação, ferramenta, riscos, PMBOK. Abstract: The present study attempts within a research perspective responding to a need that has come to be felt in the field of information technology and that will be done through a descriptive case study which aims to analyze a tool for risk assessment for projects in information technology, taking as reference the PMBOK. Faced with this problem the study aims to examine whether the action of the practice of risk assessment improves the process of selecting projects for the company's portfolio, seeking to develop a tool to assess these risks will be tested in a company as well as, rated solutions with expert managers that contribute to the enrichment of scientific study. To this end, a survey of the months from November 2013 to March 2014 investigative character was made and implemented through the creation of the test tool to the risks in IT.. Keywords: Technology, information, tools, risks, PMBOK. I.

INTRODUÇÃO

O crescimento da demanda por projetos de TI (Tecnologia da Informação), em todas as áreas, é um fato inquestionável, e com ela os gerentes de projeto estão tendo que aprimorar suas técnicas, adaptando-as a nova realidade para melhorar suas técnicas de informação através de pesquisas e estudos que comprovam cientificamente os benefícios e riscos de cada projeto. O mercado competitivo de trabalho em TI fez com que as empresas buscassem diferenciais facilitadores para a tomada de decisão. Os sistemas de informação tem sido as ferramentas necessárias para facilitar o gerenciamento dessas

informações que devem estar disponíveis em tempo hábil para a ação e postura decisiva na escolha do desenvolvimento do projeto. Durante a revisão de literatura realizada, foi identificada a existência de vários processos de desenvolvimento de softwares como RUP e XP, por exemplo. Porém, os mesmos, não tratam a abordagem completa de gerenciamento do projeto e, sim, focam no desenvolvimento de software. O PMI, através do seu guia de melhores práticas PMBOK apresenta uma proposta para gerenciamento de projeto envolvendo todas as áreas de conhecimento. O foco desta pesquisa consiste no projeto e sua área de risco, pelo fato do risco do negócio poder surgir de várias formas, estando ligado às decisões de investimentos estratégicos, ao lançamento de um determinado produto, às estratégias de marketing, competição de mercado e incertezas quanto ao comportamento das vendas entre outros fatores (LINSMEIER & PEARSON,1996). O objetivo deste trabalho foi avaliar se a ação da prática de avaliação de riscos por meio de ferramenta melhoraria o processo de escolha de projetos para o portfólio da empresa. apresentando os desafios encontrados no gerenciamento de projetos de TI. Buscou-se o detalhamento do risco, apresentando a necessidade de se identificar e gerenciar riscos, bem como de demonstrar os resultados da pesquisa através de um estudo de caso onde estas técnicas foram adotadas com sucesso, tomando como base o guia PMBOK. Devido à complexidade do assunto, o trabalho abordou projetos de TI que usavam a implantação de softwares de gestão para a avaliação de riscos. A caracterização e identificação dos riscos inerentes ao projeto é importante para documentar o que poderá ocorrer na execução do mesmo, podendo assim, afetar positivamente ou negativamente seus objetivos, contribuindo para decisão sobre a escolha de quais projetos devem ser iniciados pelas empresas. Para avaliar se a ação da prática de análise qualitativa de riscos por meio de ferramenta melhoraria o processo de escolha de projetos para o portfólio da empresa, o trabalho teve os seguintes objetivos específicos; desenvolver uma ferramenta para a avaliação de riscos em projetos de TI; testar solução em uma empresa de TI; avaliar solução com gestores/especialistas.


II.

REVISÃO DE LITERATURA E TRABALHOS RELACIONADOS

De acordo com os estudos apresentados no guia PMBOK (PMI, 2008), o gerenciamento de projetos consiste na aplicação de conhecimento, habilidades, ferramentas e técnicas às atividades do projeto no intuito de atender aos seus requisitos. É possível executar o gerenciamento de projetos em TI através do desenvolvimento interligado dos seguintes processos de gerenciamento de projetos: iniciação, planejamento, execução, monitoramento e controle, e encerramento. Segundo o PMI (2008), o gerente de projetos é a pessoa responsável pela realização dos objetivos do projeto, o qual identifica as necessidades, estabelece seus objetivos de forma coesa, clara e possível de ser alcançada. O gerente de projetos possui a visão dos desafios conflitantes da qualidade de seu projeto, escopo, tempo de implantação e execução, bem como, a previsão dos custos. O mesmo ainda realiza adaptações de modo flexível às necessidades específicas no plano de abordagem dos anseios, expectativas e possíveis preocupações de ambas as partes de interesse do projeto. Foi verificado através de análise das recomendações apresentadas no guia PMBOK o fato de que no gerenciamento de projetos são aplicados os conhecimentos, habilidades, ferramentas e técnicas às atividades do projeto, sendo isso realizado através da aplicação e da integração das seguintes áreas de competências gerenciais, entre elas: Gerenciamento de Integração, Gerenciamento de Escopo, Gerenciamento de Tempo, Gerenciamento do Custo, Gerenciamento da Qualidade, Gerenciamento dos Recursos Humanos, Gerenciamento da Comunicação, Gerência de Aquisições e Gerência de Riscos (PMI, 2004; DINSMORE, 2005; GURGEL, 2007). Segundo os autores, pode-se fazer uma síntese das áreas gerencias destacadas acima, para uma melhor compreensão do assunto: • Gerenciamento de integração: a gerência de integração possui como objetivo o controle geral das mudanças e monitorar a execução do plano do projeto, desde seu inicio com o termo de abertura do projeto até seu final com o encerramento do projeto, realizando negociações dos objetivos conflitantes, dando alternativas ao projeto com a finalidade de atender as necessidades e expectativas de todas as partes interessadas; • Gerenciamento de escopo: o objetivo principal dessa gerência é definir e manter o desenvolvimento do projeto dentro do escopo desenhado, controlando o que deve e o que não deve estar incluído no projeto, tendo a segurança sobre o que é realmente a necessidade do cliente, e qualquer mudança que venha a se realizar no escopo deverá ter o consentimento do cliente; • Gerenciamento de tempo: possui como objetivo principal controlar o tempo das atividades garantindo que o projeto cumpra seu prazo contratual. • Gerenciamento do custo: a responsabilidade da gerência de custo consiste em gerenciar o caixa do projeto, desde a estimativa de custo total do projeto, bem como o controle das despesas para cada atividade dentro do

projeto, garantido que o mesmo seja realizado dentro do orçamento estipulado; • Gerenciamento da qualidade: o gerenciamento da qualidade é responsável por garantir a aceitação do software ao cliente, ou seja, o controle de qualidade do projeto verificando se ele satisfaz as exigências para o que foi desenvolvido, e se cumpre as expectativas e as necessidades do cliente. • Gerenciamento de recursos humanos: o gerenciamento de recursos humanos tem como objetivo administrar a mão de obra humana, atribuir funções e responsabilidades, relações interpessoais e de equipe, buscando sempre o melhor aproveitamento das pessoas envolvidas no projeto. • Gerenciamento da comunicação: o gerenciamento de comunicações é responsável pela conectividade de informações do projeto a todos os stakeholders e outras gerências. Todas as gerências do projeto interagem entre si e com as demais áreas de conhecimento. A gerência de comunicações do projeto inclui os processos que garantem a coleta, a distribuição, o armazenamento e o controle básico das informações do projeto, fornecendo a ligação entre pessoas, idéias e informações. Todos os envolvidos no projeto devem estar preparados para enviar e receber as informações e os processos que envolvem essa gerência que consiste em: planejar da forma mais conveniente a disponibilizar as informações e comunicações necessárias para os evolvidos no projeto, relatando as informações de desempenho até o encerramento das fases do projeto. • Gerência de aquisições: a gerência de aquisições é responsável pela administração de compras e contratações de serviços para o projeto. • Gerência de risco: a gerência de risco foi o objeto de estudo desta pesquisa, tendo como objetivo principal maximizar os resultados de ocorrências positivas e minimizar as consequências negativas ou até mesmo eliminar eventos adversos, tratando e controlando os riscos. Cada projeto criado para uma empresa deve se preocupar com as probabilidades de riscos ou erros que venha ocorrer na execução de seu projeto. Para tanto, um bom projeto necessita de gerenciamento, destacando-se o gerenciamento de riscos na prevenção conflitos na execução do projeto. O gerenciamento de riscos consiste em um processo sistemático usado para identificar, analisar e responder aos riscos do projeto cujo objetivo é maximizar a probabilidade dos eventos positivos e se possível neutralizar os eventos negativos ou minimizar suas consequências para o objetivo do projeto. Os gerentes de projeto buscam um aumento na qualidade de seus projetos, entretanto o risco dentro de um projeto é uma condição incerta de ocorrer, e caso ocorra terá sempre um impacto positivo ou negativo sobre pelo menos um dos objetivos do projeto, tal como o tempo, o custo, o escopo ou a qualidade. O risco poderá ter uma ou mais causas e um ou mais impactos. Por exemplo, uma causa pode ser a falta de


pessoal suficiente para trabalhar dentro de uma área de conhecimento do projeto, o evento do risco pode ser a contratação inadequada de pessoal, podendo comprometer o cronograma, a qualidade e o custo do projeto, ou ainda uma falha no próprio sistema de execução. Os riscos também podem abranger os aspectos organizacionais como práticas deficientes de gerenciamento de impacto. Por exemplo, a falta de sistemas de gerenciamento integrados, vários projetos simultâneos, dependência externa fora do controle do gerente do projeto, etc. (VARGAS, 2009) O desenvolvimento de um projeto requer impactos iniciais, sendo marcado por um grande esforço. No planejamento do projeto, são realizadas reuniões tendo como foco os objetivos do projeto: escopo, qualidade, prazo e custo. Neste momento já é importante pensar nos riscos, pois à medida que os objetivos vão se consolidando, os possíveis riscos vão se tornando mais prováveis, podendo comprometer o andamento do projeto. Os processos do gerenciamento de riscos do projeto estão dispostos da seguinte forma, de acordo com PMI (2008): • Plano de gerenciamento do risco: decide como abordar, planejar e executar as atividades de gerência de risco para um projeto; • Identificação dos fatores de risco: determina quais riscos podem afetar o projeto e documenta suas características; • Análise qualitativa de risco: realiza uma análise qualitativa dos riscos e as condições para priorizar seus efeitos nos objetivos do projeto; • Análise quantitativa de risco: mede a probabilidade através de uma análise numérica e as conseqüências dos riscos e estima suas implicações para os objetivos do projeto; • Planejamento de resposta aos riscos: desenvolve procedimentos e técnicas para melhorar as oportunidades e reduzir as ameaças para os objetivos do projeto; • Monitoramento e controle dos riscos: monitora riscos residuais identifica novos riscos, executa planos de redução de risco e avalia sua eficácia durante todo o ciclo do projeto. Esses processos não ocorrem de forma isolada, mas interagem entre si e com processos de outras áreas. Em um processo de administração de risco, o plano de gerenciamento visa garantir que o tipo, o nível e a visibilidade da gerência de riscos estejam compatíveis com o risco e com a importância do projeto. O plano gerencial de riscos deve ser terminado ao início do planejamento do projeto, devido ao fato de ser essencial para executar com sucesso as outras atividades de planejamento. Esse plano é um documento que explica como será desenvolvido o processo gerencial do risco, o custo estimado e investido e as responsabilidades dos gestores e envolvidos. Os processos do plano de gerenciamento de riscos não são isolados, pois interagem entre si e com os processos de outras áreas, ocorrendo pelo menos uma vez em cada projeto (ALENCAR e SCHMITZ. 2006; GURGEL. 2007 e SOARES. 2007).

As principais entradas são desenvolvidas inicialmente nas seguintes áreas: Gerenciamento da Integração e no Gerenciamento de escopo. São elas: fatores ambientais, ativos de processos organizacionais, declaração de escopo do projeto e plano de gerenciamento do projeto (PMI, 2008). A declaração do escopo do projeto, descreve os principais objetivos do projeto, permitindo que a equipe do projeto realize um planejamento mais detalhado, servindo de orientação para a equipe do projeto durante a execução, auxiliando a avaliar as solicitações de mudança e verificar se estas estão dentro ou fora dos limites estabelecidos no projeto. Quanto maior for o grau e o nível de detalhamento da declaração de escopo do projeto, melhor será definido o trabalho que será realizado pela equipe ajudando a planejar, gerenciar e controlar sua execução. O grande objetivo do gerenciamento de risco é diminuir o impacto das incertezas sobre os objetivos do projeto, sendo que, os riscos são caracterizados por três fatores: evento / causa do risco (Risk Event); probabilidade de o Risco Ocorrer (Risk Probability); montante arriscado (Amount at Stake). Desta forma, o risco em projetos pode ser analisado de duas formas: usando a análise qualitativa e a análise quantitativa. O foco deste trabalho consiste na análise qualitativa de projetos. A análise qualitativa busca melhorar o entendimento do projeto, a identificação de alternativas viáveis para sua execução, melhoria de comunicação entre os stakeholders e os membros do projeto, aumento das chances de sucesso, análise das incertezas e riscos e os seus impactos. Dessa forma, o processo trabalha com a lista dos riscos identificados. O grau de risco pode ser calculado pelo valor do Impacto x Probabilidade (PMI, 2008). A análise para compreensão e identificação dos riscos visa especificar todos os riscos que podem afetar o projeto, documentando as suas características. Participam desta atividade: o gerente de projetos, membros da equipe, especialistas no assunto (externos ao projeto), clientes e usuários finais, todos devem ser incentivados a identificar os riscos e ela deverá ser feita durante todo o projeto, pois os riscos são mutáveis ao longo da execução do projeto. (ALENCAR, 2006) As principais entradas de informações para identificação dos riscos são: declaração do escopo, já especificada acima e, plano de gerenciamento de riscos as saídas do planejamento definição dos riscos de acordo com as categorias e informações históricas de projetos anteriores ou banco de dados comerciais, estudos acadêmicos, benchmarking, e outros estudos publicados podem estar disponíveis para pesquisa. O estudo para avaliação qualitativa do projeto consiste no processo para verificar o impacto e a probabilidade dos riscos identificados. Permite qualificar e classificar os riscos em função do seu efeito potencial individual e priorizálos em função do seu efeito potencial para o projeto como um todo. As organizações podem melhorar o desempenho do projeto de modo eficaz se concentrando nos riscos de alta prioridade. A análise qualitativa de riscos avalia a prioridade dos riscos identificados usando a probabilidade de eles


ocorrerem, o impacto correspondente nos objetivos do projeto se os riscos realmente ocorrerem, além de outros fatores, como o prazo e tolerância a risco das restrições de custo, cronograma, escopo e qualidade do projeto. (PMI, 2008) A análise qualitativa de riscos é normalmente uma maneira rápida e econômica de estabelecer prioridades para o planejamento de respostas a riscos, e estabelece a base para a análise quantitativa de riscos, se esta for necessária. A análise qualitativa de riscos deve ser reexaminada durante o ciclo de vida do projeto para acompanhar as mudanças nos riscos do projeto (PMI, 2008). De acordo com as orientações do (PMI 2008), a pontuação do risco ajuda a orientar as respostas a riscos. Por exemplo, riscos que, se ocorrerem, terão um impacto negativo nos objetivos (ameaças) e que se encontram na zona de alto risco da matriz podem exigir ações prioritárias e estratégias agressivas de resposta. As ameaças na zona de baixo risco podem não exigir nenhuma ação de gerenciamento pró-ativo, além da sua colocação em uma lista de observação ou da sua adição a uma reserva para contingências. Isso ocorre de forma similar para as oportunidades. As oportunidades que devem ser priorizadas na zona de alto risco são as que podem ser obtidas mais facilmente e oferecem o maior benefício. Já as oportunidades na zona de baixo risco devem ser monitoradas. A avaliação da qualidade dos dados sobre os riscos necessita ser exata e imparcial para ser confiável. A análise da qualidade dos dados sobre riscos é uma técnica para avaliar o grau de utilidade dos dados sobre riscos para o gerenciamento de riscos, que envolve o exame sobre até que ponto o risco é entendido e também a exatidão, qualidade, confiabilidade e integridade dos dados sobre riscos. O uso de dados sobre riscos de baixa qualidade pode levar a uma análise qualitativa de riscos de pouca utilidade para o projeto. Se a qualidade dos dados não for aceitável, talvez seja necessário coletar dados de melhor qualidade. A coleta das informações sobre riscos é muitas vezes uma atividade difícil e consome mais tempo e recursos do que os originalmente planejados. III.

ESTUDO DE CASO

O presente trabalho foi desenvolvido em duas etapas. A primeira consistiu no processo de desenvolvimento de uma ferramenta para a para a avaliação de riscos em projetos de TI, seguido da sua utilização e posterior aplicação de um questionário avaliativo da ferramenta. 3.1. Metodologia da Pesquisa A partir da revisão de literatura e observação do princípio de causa-efeito, buscou-se chegar a resultados que mostrassem informações relacionadas às expectativas iniciais do trabalho. A Figura 1 mostra os passos do processo de desenvolvimento da ferramenta utilizada nesta pesquisa. Realizou-se um levantamento das vantagens apontadas pela empresa sobre a utilização de sistema por meio de questionário e entrevista. O estudo de caso realizado seguiu os seguintes passos: 1.Revisão de literatura;

2.Desenvolvimento da proposta de pesquisa; 3.Desenvolvimento da ferramenta (projeto, testes e validação); 4.Reunião com gestores e funcionários da empresa; 5.Execução da pesquisa com questionário com a empresa; 6.Entrevistas com gestores da empresa; 7.Tabulação e análise dos resultados; 8.Validação dos resultados com gestores; 9.Publicação dos resultados. Buscou-se observar as recomendações de Runerson & Host (2009) bem como de Wohlin & Runerson (2000) durante a fase de planejamento da pesquisa e projeto do questionário utilizado.

Figura 1. Fases do desenvolvimento

3.2. Instrumentos de coleta de dados Empregou-se um questionário dirigido aos gestores e especialistas que utilizaram a ferramenta. De forma complementar, foram realizadas entrevistas semiestruturadas com os gestores das empresas. Buscou-se analisar as hipóteses de preferência e utilidade da ferramenta com os gestores e usuários especialistas. 3.3. O sistema desenvolvido O sistema que automatizou o processo de gestão de riscos foi desenvolvido de forma modular, visando dar uma maior legibilidade e facilidade na manutenção. Em seu desenvolvimento foi utilizado o modelo de desenvolvimento cascata, no qual as fases de desenvolvimento são realizadas sequencialmente, como mostrado na Figura 1. O processo de desenvolvimento foi iniciado a partir da fase de levantamento de requisitos, onde foram coletados e analisados os dados. A partir desse levantamento foram identificados os seguintes requisitos funcionais, não funcionais e de regras de negócio, apresentados na sequência. Requisitos Funcionais: • O sistema deve fornecer a autenticação de usuários; • O sistema deve fornecer cadastro e remoção de projetos; • O sistema deve fornecer o cadastro e remoção de riscos;


• O sistema de ordenar os projetos a partir do projeto com menor risco da empresa para o maior risco. Requisitos de Regras de Negócio • Sempre que o usuário se autentica no sistema deveremos-se mostrar todos os projetos com riscos cadastrados no mesmo; • O código dos projetos deverá ser único; • A autenticação será feita por e-mail e senha. Requisitos não funcionais • O sistema de se mostrar eficiente; • O sistema deve ter uma boa disponibilidade. Depois do levantamento de requisitos foi iniciada a fase de projeto do software. Esta foi a fase onde foi definida a organização do sistema. Na fase de implementação desenvolveu-se a ferramenta. Para testar o sistema foram utilizados testes unitários no primeiro momento depois foram entrevistados gestores e especialistas em TI. O sistema foi desenvolvimento em três partes, as quais foram o projeto, a implementação e a fase de teste e a validação. Na implementação do sistema foi utilizada a linguagem de programação java, o servidor Apache, o framework avaServer Faces(JSF), enquanto para persistir os dados foi usado o banco de dados postgres. Para desenvolvimento da ferramenta foram utilizados os padrões de projetos MVC e DAO. Durante a fase de testes e validação foram realizados testes unitários e a aplicação de questionário visando a validação da ferramenta desenvolvida. O sistema foi avaliado em um estudo de caso numa empresa de TI. Os resultados para validação desta pesquisa foram avaliados por uma amostra de 2 gestores e 4 especialistas, da indústria e da área de TI. Buscou-se avaliar a utilidade, preferência dos gestores pelo uso do sistema apresentado, bem como a necessidade do uso de ferramentas de software, entre outros fatores. Para a validação da ferramenta proposta, denominada MRISK, foram propostos os seguintes testes unitários no sistema: cadastrar usuário, efetuar login, cadastrar risco, cadastrar projeto, vincular risco a projeto, deletar risco, deletar projeto, realizar projeto e listar projetos. Depois do desenvolvimento e dos testes unitários da ferramenta, foi identificado que todos os resultados apresentados pela ferramenta ocorreram como esperado, realizando normalmente as funcionalidade que a mesma se propunha. O estudo de caso foi realizado envolvendo gestores e funcionários de uma empresa de grande porte com sede em Fortaleza que trabalham no processo de analise de risco, onde a ferramenta foi aplicada e avaliada por 6 pessoas onde 2 eram gestores e 4 eram funcionários diretamente ligados ao processo de gerenciamento de risco e com experiência no uso de ferramentas de gerenciamento de projetos, onde cada uma delas cadastrou 4 projetos reais da empresa, que ainda não foram iniciados. IV.

ANÁLISE DOS RESULTADOS

O sistema desenvolvido foi utilizado para auxiliar gestores na escolha de projetos para o portfólio de projetos da empresa. Com esse intuito foi definido o seguinte cenário para

aplicação no uso da ferramenta. A Figura 2 mostra a tela de cadastramento dos projetos cujos riscos foram avaliados.

Figura 2. Cadastramento de riscos em projetos na ferramenta

Os dados relativos a cada projeto são utilizados no cálculo do sistema, que procede a análise qualitativa de riscos para o conjunto de projetos da empresa, gerando um ranking. Visando avaliar o sistema e a prática de análise de riscos, foi realizado um estudo de caso em uma empresa para avaliar os riscos que a gestão de projetos pode sofrer na implantação do uso de ferramentas da tecnologia no gerenciamento de uma empresa. A metodologia apresentada buscou uma forma de gerenciar o risco de um projeto, de forma dividida, estabelecendo tarefas, documentando ou confiando na responsabilidade das pessoas. Como apresentado neste trabalho, a gestão de risco é de fato uma prática importante na gestão do desenvolvimento de software. Como as empresas estão preocupadas em entregar seus produtos ou adequar estes produtos a alguma licitação pública, muitas vezes a gestão de riscos não é considerada. Parte dos problemas com os gestores de projetos estão relacionados a constantes mudanças, como por exemplo: na área da tecnologia, no escopo do projeto, alta rotatividade no quadro de pessoal do desenvolvimento, má qualidade na documentação etc. Os motivos acima descritos já são bastante conhecidos pelos profissionais da área de tecnologia e em qualquer das metodologias citadas no presente trabalho. A documentação dos erros e suas devidas soluções são consideradas como aprendizagem do desenvolvimento de software. Um resultado significativo a partir da aplicação da ferramenta foi o ranking classificatório com os projetos candidatos a fazer parte do portfólio de projetos na empresa, onde o projeto que tinha menor VME aparecia em primeiro da lista e o de maior VME no final, como mostrado na Tabela 1. Por questões de sigilo do negócio, os nomes reais dos projetos da empresa foram omitidos. Na Tabela 1 é mostrado o ranking dos projetos cadastrados pelos usuários do sistema. Como a entrada foi a mesma para todos os usuários, o estudo envolveu 4 projetos diferentes da empresa avaliada. A estratégia da gerência de riscos define os intervalos em que o status do risco deve ser revisado. Isto pode resultar na descoberta de novos riscos ou de novas opções de manipulação, que podem requerer o re-planejamento e a reavaliação.


Desta forma, foi identificado que os gestores são coresponsáveis para a diminuição dos riscos no uso de um projeto TI em empresas, pois devem sempre avaliar os resultados e intervir quando necessário, sem esperar somente os resultados negativos. Tabela 1. Ranking de projetos candidatos Projetos Candidatos ao Portfólio

VME Total

Projeto 2

0,849

Projeto 4

1,04

Projeto 3

1,224

Projeto 1

1,415

Quando questionadas sobre as principais qualidades da utilização da ferramenta, 3 pessoas responderam que o sistema, através da automação do calculo do valor monetário esperado (VME), acelera a tomada de decisão sobre a escolha dos projetos para o portfólio. 2 pessoas responderam que o sistema é de fácil navegação e preenchimento dos dados e 1 pessoa respondeu que o sistema responde rápido com o VME de forma confiável. Em relação às dificuldades enfrentadas no uso da ferramenta, apenas 1 entrevistado respondeu que teve dificuldade no inicio da utilização, mas que com o tempo ficou fácil o manuseio, o que segundo o percurso cognitivo da Interação Humano Computador pode ser avaliado como um ponto positivo da ferramenta. As outras 5 pessoas questionaram aspectos relacionados à facilidade de uso da interface do sistema, porém esse não foi o foco de pesquisa quando houve a proposta para o desenvolvimento da ferramenta apresentada. Os resultados do exercício de validação realizado neste trabalho indicam que a ferramenta foi considerada útil e preferível aos métodos utilizados na empresa pelos gestores entrevistados. V. CONCLUSÃO E TRABALHOS FUTUROS Este trabalho teve como finalidade apresentar e avaliar uma ferramenta de software para automatizar a análise qualitativa de riscos, visando facilitar a tomada de decisão em projetos de TI. Foi identificado durante a pesquisa que cada empresa deve desenvolver um modelo para a tomada de decisão, escolhendo alguma das ferramentas existentes para avaliar o nível de confiança do projeto e, assim, tomar a decisão mais adequada. O perfil da empresa deve ser levado em consideração na criação deste modelo, para que haja uma participação do patrocinador do projeto, discutindo-se, assim, o caminho que poderá levá-lo ao sucesso, evitando surpresas futuras. A análise qualitativa de riscos por meio de uma ferramenta de software se mostrou efetiva e pode ser utilizada no processo de gestão de portfolio da empresa avaliada.

O trabalho envolveu o desenvolvido um software para a avaliação qualitativa de riscos, que pode ser utilizado no processo de escolha de projetos para o portfólio da empresa. Apesar de ter sido utilizada a fórmula mais simples, recomendada pelo guia PMBOK, os resultados foram promissores, mostrando a preferência e utilidade da ferramenta para os gestores, já que muitas empresas da área de TI não utilizam ou não possuem práticas efetivas para o gerenciamento de riscos e sua análise qualitativa. Durante o desenvolvimento deste trabalho, foram enfrentadas diversas dificuldades, dentre elas destaca-se um problema na utilização de TDD, pois essa técnica estava deixando o desenvolvimento muito lento o que iria implicar no não comprimento do cronograma e por conta disso a técnica foi descartada. Também houve bastante dificuldade no desenvolvimento da ferramenta, pois a princípio iniciou-se desenvolvendo a mesma para ser uma aplicação do tipo desktop e posteriormente optou-se pela arquitetura web. No universo de usuários que testaram os sistema, foi assumido que todos sabiam sobre o assunto que o sistema tratava, que era a analise de riscos. Também não foi definida como prioridade se apresentar uma interface atraente para o sistema desenvolvido. A principal contribuição deste trabalho consiste na ferramenta de software para avaliação de riscos, bem como na triangulação realizada por meio da análise da revisão de literatura, observação do uso da ferramenta em estudo de caso em ambiente real e da avaliação com os gestores/especialistas. Entre as limitações desta pesquisa, é importante ressaltar que os resultados do estudo de caso realizado não são facilmente generalizáveis. A amostra foi limitada, não permitindo uma validade estatística. A interface da ferramenta desenvolvida para automatizar o processo de análise qualitativa de riscos ainda deve ser melhorada, visando otimizar sua qualidade de uso. A própria ferramenta pode ter o seu escopo ampliado, visando o tratamento de outros problemas inerentes aos riscos em projetos, o que não foi realizado nesta pesquisa devido à limitações de tempo. Tornase importante ressaltar que este é um trabalho inicial e ainda apresenta limitações, as quais devem ser contempladas em trabalhos futuros. Como um trabalho futuro, pode-se realizar a apresentação de pesquisa mais abrangente sobre o tema análise qualitativa de riscos com ferramentas de software, focando nas empresas de desenvolvimento de software do Ceará. Um outro trabalho pode ser a aplicação dos resultados da ferramenta em outras atividades do gerenciamento de projetos nas empresas, incluindo a automação de todo o processo de gerenciamento de portfolio. REFERÊNCIAS AGUIAR, M. Gerenciando riscos nos projetos de software. Rio de Janeiro: SLIG 2003 Disponível em: < http://www.bfpug.com.br/isligrio/Downloads/Gerencia_de_Riscos.pdf.>. Acesso em: 30/10/2013 ALENCAR, A. J., SCHMITZ, E. A., Análise de Risco em Gerência de Projetos. Rio de Janeiro, Editora Brasport, 2006.


BERNSTEIN P. Desafio aos Deuses: a Fascinante História do Risco. Rio de Janeiro, Campus, 1997. DINSMORE, P. C., Como se Tornar um Profissional em Gerenciamento de Projetos. 2ª ed. Rio de Janeiro, Editora Qualytmark, 2005. LEOPOLDINO, C. B., Avaliação de Riscos em Desenvolvimento de Software. Dissertação de Mestrado - Mestrado em Ciências da Computação, Universidade Federal do Rio Grande do Sul, Porto Alegre, 2004. LINSMEIER; W PEARSON; R. An Introduction to Value at Risk. Thomas J. Linsmeier e Neil D. Pearson, University of Illinois, Julho de 1996. PROJECT MANAGEMENT INSTITUTE (PMI), Um Guia do Conjunto de Conhecimentos em Gerenciamento de Projetos Terceira edição (Guia PMBOK®). Project Management Institute, inc, 2008.

RISK MANAGEMENT. Disponível em: <http://www.cmmi.de/cmmi_v1.2/browser.html#hs:i:true:m:2:c:all:r:b:a:RSK M:g:null:p: null:l:data_a=RSKM:la:RSKM>. Acesso em: 06 nov. 2013. RUNERSON, P., HOST, M. Guidelines for conducting and reporting case study research in software engineering, Springer: Empiric Software Eng. ,14:31-164, DOI 10.1007, 2009. VARGAS, R. Gerenciamento de riscos e de projetos. Disponível em: <http://www.ricardo-vargas.com/pt/podcasts/riskmanagement/>. Acesso em: 14 nov. 2013. WOHLIN C., RUNERSON P., HOST, M., OHLSSON, B. R., WESSLÉN, A., Experimentation in Software Engineering - An introduction, Kluwer Academic Publishers, 2000.



Análise de Uso de Protocolos de Roteamento em Redes MANETS.

Michael F. de Sousa Faculdades Nordeste – FANOR michel.ferreiradesousa@gmail.com

Resumo Este trabalho discute os pontos positivos e negativos dos protocolos de roteamento em redes Ad Hoc móveis. Cada roteamento pode ser ideal a um determinado ambiente se utilizado corretamente, do contrário podem ocorrer diversas falhas de comunicação, tais como danos operacionais ou até mesmo perda de dados. A aplicação de mais de um protocolo de roteamento em MANETS pode resultar numa otimização significativa nas mais variadas situações, caracterizado pela implementação, relativamente baixa, além da alta robustez quando se trata da mobilidade dos terminais. Este artigo exemplifica cenários do conceito de redes sem fio móveis que possibilita a comunicação entre terminais, sem depender de um centralizador para tratar e redirecionar as conexões, identificando um avanço na tecnologia sem fio. Palavras-chave: Infraestrutura, terminais, MANETS, roteamento.

Abstract This study discusses the positive and negative points of the routing protocols in mobile Ad Hoc networks. Each routing can be ideal for a certain environment if used correctly, otherwise may occur several communication failures, such as operational damage or even loss of data. The application of more than one MANET routing protocol can result in a significant optimization the most varied situations, characterized by implementing relatively low, beyond of the high robustness when it comes to mobility of the terminals. This article exemplifies scenarios of the concept of mobile wireless networks that enables communication between terminals, without depend on a centralizer to treat and redirect the connections, identifying an advance in wireless technology. Keywords: Infrastructure, terminals, MANETS, routing.

1. Introdução O rápido avanço nas tecnologias de microprocessadores, sistemas eletromecânicos e comunicação sem fio tem despertado o interesse no desenvolvimento de sensores inteligíveis. Na área de telecomunicações, as redes Ad Hoc

Dr. André R. Cardoso Universidade Estadual do Ceará - UECE andrec@larces.uece.br

móveis ou MANETS (Mobile Ad Hoc Networks) são comunicações entre terminais móveis, chamados de nós, que não possuem um controlador central para o qual todas as comunicações sejam encaminhadas para os respectivos destinatários. Numa rede MANETS não há topologia específica e controle centralizado e não tem uma infraestrutura definida. Os nós1 se comunicam através de sensores sem fio, criando uma rede aérea. Segundo Loureiro [1], no ambiente Ad Hoc móvel o usuário pode se comunicar diretamente com outros nós, trocando dados entre si. Outras características das MANETS também foram exemplificadas por Loureiro [1], e incluem o modo de operação distribuído ponto a ponto, roteamento multi-hop e mudanças relativamente frequentes na concentração dos nós da rede, pois em determinados momentos alguns pares de nós não são capazes de se comunicar diretamente e algum mecanismo de retransmissão de mensagens será necessária para que esses pacotes sejam entregues ao seu destino. Porém, nenhum dos terminais sabe se o nó a ser usado para retransmissão possui um enlace confiável, isto é, se ele vai estar disponível todo tempo, precisando de algoritmos de roteamento para manter a ordem em toda a rede. Assim, pergunta-se quais protocolos de roteamento devem ser usados em um ambiente MANET para assegurar a integridade e o controle dos dados trafegados, já que não possuem roteadores centrais?

1.1. Objetivo Este artigo tem como objetivo descrever os principais tipos de protocolos de roteamento e mais usados em redes Ad Hoc móveis, bem como explicaras vantagens e desvantagens desses protocolos para transmissão e recepção ponto a ponto de dados sem fio.

1.2. Pressupostos A retransmissão de dados por outro nó, quando a comunicação entre terminais se torna inacessível, será necessária. Segundo Schneiders [2], as redes MANETS proporcionam uma maior robustez quando se trata da 1

Neste artigo, os termos nó e terminal podem ser caracterizados como um elemento computacional com capacidade de processamento, memória e interface de comunicação sem fio.


mobilidade dos terminais, pois são livres para se movimentar e, consequentemente, a topologia da rede pode mudar constantemente. Para isso é necessário adotar algum protocolo de roteamento para manter a comunicação a fim de reduzir a probabilidade de inconsistência da rede. Tanenbaum [3] afirma que o roteamento é uma função da camada de rede responsável pelo estabelecimento de rotas no encaminhamento de pacotes de dados.

1.3. Metodologia. Foram aplicadas as metodologias de pesquisa bibliográfica, tais como livros, artigos científicos de conferências e periódicos conceituados (IEEE, ACM), trabalhos de conclusão de curso sobre conceitos e aspectos procedimentais aqui contextualizados e de análise do uso dos protocolos de roteamento MANETS em algumas aplicações relevantes ao entendimento do presente artigo. O estudo é classificado como descritivo e exploratório, pois o objetivo foi descrever alguns tipos de roteamento em redes Ad Hoc móvel e pesquisar as vantagens e desvantagens do uso desses protocolos de roteamento.

2.

O avanço da tecnologia ad hoc.

interconectar outros nós e hospedeiros, favorecendo a aplicação em vários projetos de comunicação móvel, tais como aplicações militares, comunicação entre computadores, entre outras. Com relação à portabilidade, de acordo com a analogia de Schneiders [2], o roteamento deve assegurar dados trafegados entre nós sendo entregues da melhor forma possível: (...) os protocolos de roteamento das MANETS precisam constantemente lidar com informações imprecisas sobre o estado da topologia da rede e também que, na maioria dos casos, faz o uso de roteamento incompatíveis com os protocolos da Internet. Tais características afetam significativamente as comunicações entre MANETS e a internet. O roteamento deve, entre outras coisas, garantir que os pacotes sejam encaminhados através dos diferentes nós das redes da melhor forma possível. [2] Diante dessa afirmação, MANETS não precisam de infraestrutura definida, pois os nós, uma vez responsáveis pelo roteamento, colaboram entre si quando se trata de conectividade fim-a-fim.

Santos[4] evidencia o surgimento das redes Ad Hoc a partir dos conceitos da tecnologia de comunicação sem fio: As redes sem fio datam do início da década de 70, quando as universidades das ilhas do Havaí montaram uma rede utilizando micro-ondas para se interligarem, chamada de ALOHAnet [11] Entretanto, foram nos últimos anos que se difundiram e ganharam atenção. [4] Nesse contexto, um conjunto de terminais móveis comunicando-se através de sensores sem fio pode ser classificado em rede sem fio com infraestrutura e sem infraestrutura. Para Santos[4], a rede sem fio quando possui infraestrutura (Figura 1a) tem como principal característica a existência de pontos de acesso (AP-Access points) por onde passam todas as conexões estabelecidas pelos terminais a fim de tratá-las. Já a rede sem infraestrutura ou Ad Hoc (Figura 1b) é formada dinamicamente por unidades computacionais móveis (nós) comunicantes diretamente através de enlaces sem fio, não necessitando de um terminal central para estabelecer a comunicação. Na rede Ad Hoc, segundo Santos[4] cada nó deve ter a capacidade de comunicação com nós adjacentes, isto é, dentro do alcance suportado pela interface de comunicação sem fio, cuja transmissão e recepção são limitadas. Porém, na rede Ad Hoc móvel (MANETS) os terminais são portáteis. Na concepção de Sesay[5], as redes MANETS podem ter uma característica multi-hop, ou seja, um par de nós fora do alcance, por exemplo, precisa de um terceiro nó que, se tiver dentro do alcance de ambos, será usado como roteador. A partir dessa hipótese todos os terminais devem funcionar como roteadores para

Figura 1. (a) Rede sem fio infraestruturada e (b) rede sem fio não infraestruturada (ad hoc). Fonte: Schneiders. [2]

3. Roteamento em redes MANETS. Vários estudos sobre melhoria de roteamento em redes MANETS vêm sendo desenvolvidos nos últimos anos. Segundo Tanenbaum[3] os algoritmos de roteamento para redes Ad Hoc móveis são diferentes dos roteamentos das redes sem fio infraestruturadas por causa da mobilidade dos terminais, resultando numa topologia dinâmica. O estudo desenvolvido por Schneiders[2] descreve alguns tipos de protocolos de roteamento em redes móveis Ad Hoc, organizados em três grupos: proativos ou baseados em tabelas, reativos ou baseados por demanda e híbridos (Figura 2).


Uma das vantagens desse protocolo, de acordo com Schneiders [2] é a definição de rotas livres de loops, já uma das desvantagens está na sobrecarga da comunicação por conta das mensagens de atualizações das tabelas de rotas dos nós. A Figura 3 ilustra uma sub rede, a tabela de rotas do dispositivo C e o estado da rede após alterações da topologia com nova tabela de rotas de C.

Figura 2. Organização dos protocolos de Roteamento MANETS. Fonte: Schneiders. [2]

3.1. Roteamento proativo. O objetivo dos métodos de roteamentos baseados em tabelas ou proativos é manter consistente e atualizada as mudanças da rede. Na concepção de Schneiders [2], os terminais reagem periodicamente às mudanças da rede, pois “todos os nós atualizam a sua tabela de roteamento de forma periódica e as mantém armazenadas localmente, para estarem disponíveis e para uso imediato quando solicitadas pelo nó, reduzindo, assim, o atraso inicial”. Segue, a seguir, uma descrição dos protocolos proativos DSDV e WRP. 3.1.1 Destination Sequenced Distance Vector (DSDV). Na concepção de Perkins e Bhagwat [6] o DSDV é uma adaptação do RIP (Routing Information Protocol), pois cada nó guarda uma tabela de roteamento contendo todos os destinos possíveis, bem como os seus respectivos hops (saltos), utilizados para reorganizar a rede e evitar loops. Segundo Schneiders[2]: O número de sequência é utilizado em cada tabela de roteamento para ordenar as informações de roteamento como objetivo de evitar loops. Outra função do número de sequência é servir como critério na seleção de uma nova rota. Será utilizada preferencialmente aquela rota que possuir um número de sequência mais alto, permitindo que os hosts distingam aquelas rotas com maior estabilidade. Para os casos de conflito do número de sequência a métrica passa a atuar como critério de desempate. Assim, a sequência que tiver a melhor métrica é utilizada e a outra poderá ser descartada ou armazenada como rota secundária, dependendo do seu estado. [2] As tabelas são sempre atualizadas periodicamente e em tempos preestabelecidos. Nessas atualizações estão incluídos todos os hosts de destino que podem ser alcançados por cada nó. Assim, quando um destino torna-se inacessível ou o enlace desconectado, todos os terminais afetados por essa perda são informados com uma métrica maior ou infinita, resultando na propagação imediata de mensagens de atualização das tabelas das rotas modificadas.

Figura 3. Antes e depois de alterações da topologia da rede e a atualização da tabela de rotas de C 3.1.2. Wireless Routing Protocol(WRP). O protocolo WRP tem como objetivo manter íntegras as informações de roteamento em toda a rede. Schneiders [2] afirma que nesse tipo de roteamento, os nós são informados dos vizinhos por perto, via mensagens de “ACK”, e caso os vizinhos respondam, são atualizadas as tabelas de roteamento dos nós e, em seguida, enviam uma cópia da tabela paras os vizinhos que farão parte da rede. Para manter a veracidade das informações de rotas, quatro tabelas são mantidas em cada host: (i) tabela de distância, (ii) tabela de roteamento, (iii) tabela de custo de enlace e, por fim, (iv) a tabela de lista de retransmissão de mensagens. De acordo com a análise de Murthye Garcia-LunaAceves [9], os nós aprendem sobre a existência de seus vizinhos através de mensagens. Se um nó não estiver enviando mensagens, uma mensagem “hello” é enviada periodicamente para assegurar a conectividade. Se o enlace for perdido, os nós antes conectados àquele nó enviam mensagens de atualização para seus vizinhos de forma a possibilitar as alterações apropriadas. A Figura 4ilustra uma rede com o uso do protocolo WRP. Os valores numéricos acima das setas, que limitam a transição das mensagens de atualização de tabelas, são os custos de conexão e os valores que estão entre parênteses informam a distância e o antecessor ao destino D.


do protocolo DSR, onde o terminal de origem A tenta estabelecer uma conexão com o nó de destino E.

Figura 4. Exemplo de cenário utilizando o protocolo WRP.

Figura 5. Route Request e Route Reply de um cenário utilizando o protocolo DSR.

3.2. Roteamento reativo.

3.3. Roteamento híbrido

No roteamento sob demanda ou reativos, os nós não conhecem a rota de qualquer destino até um estabelecimento de conexão ser iniciado. Para Schneiders [2] “essa é uma característica desejável para dispositivos móveis que possuem um throughput baixo e/ou pouca capacidade de memória e processamento”. Essa característica resulta no consumo baixo de energia elétrica, porém, provocam um atraso inicial por, inicialmente, descobrir a rota que parte da origem até chegar ao destino. Explica-se, a seguir, o protocolo DSR, de acordo com a RFC 4728.

Na concepção de Hass [8], este tipo de protocolo disponibiliza funções reativas e proativas à mesma rede. O funcionamento consiste em vários terminais e cada um define uma zona, considerando a distância entre eles. Quando um conjunto de nós se mantém numa mesma zona, cada um trabalha com o roteamento proativo, atualizando suas tabelas com seus vizinhos e tendo uma visão geral de sua abrangência. Quando uma rota não é encontrada nas tabelas de roteamento dos nós que compõem uma zona, é iniciada uma descoberta de rota em modo reativo a partir do terminal de origem.

3.2.1. Source Routing (DSR). No DSR, segundo Johnson[7] os nós mantém um cache de rotas com as rotas conhecidas, constantemente atualizadas, à medida que novas rotas são descobertas. Quando um determinado nó tenta enviar dados a um destino, ele verifica primeiramente seu cache para encontrar alguma rota ao destinatário. Se o nó encontrar uma rota conhecida, esta será usada para entregar os dados. Se não, o nó envia em broadcast um pacote route request para seus enlaces de saída, contendo o endereço de destino e um número de identificação único. Então cada host ao receber essa mensagem vai verificar, em seu cache, se conhece alguma rota ao destino, e caso não encontre, este grava o seu próprio endereço no registro de rotas do pacote route request e envia para seus enlaces de saída. Caso algum nó intermediário conheça a rota de destino, uma mensagem route reply, contendo o route record, necessário para o nó de origem iniciar a transferência de dados, é enviada ao nó de origem. Se mais de uma mensagem chegar simultaneamente ao nó de origem, este vai escolher a rota com o menor número de hosts intermediários. Johnson [7] evidencia ainda que, caso ocorra um erro em qualquer rota, nos casos de identificação de enlace quebrado ou host inalcançável, a mensagem do tipo route error é enviada e se um nó receber essa mensagem, primeiramente, verifica se possui a rota em seu cache e, caso encontre, exclui da memória. A Figura 5 mostra o uso

3.3.1. Zone Routing Protocol (ZRP). O ZRP pode ser considerado um protocolo híbrido por usar as vantagens dos roteamentos reativos e proativos. Pela síntese de Schneiders [2]: No ZRP, a zona é definida a partir de cada nó, considerando aqueles nós que estão a uma distância mínima, medida em saltos, do nó em questão. Esta área de abrangência é considerada a intra-zona e normalmente é um número predefinido de saltos, que é denominado como raio da zona. Quando o destino estiver dentro da zona do nó que iniciou a transmissão de dados, o pacote é imediatamente enviado com base na sua tabela de roteamento previamente estabelecido. Quando o destino não estiver na intra-zona, o nó de origem consulta os nós de borda desta zona, solicitando uma rota para o destino. Uma mensagem de resposta afirmativa informando pelo nodo de borda caso este alcance o destino em sua intra-zona ou no caso de conhecer uma rota para ele. Caso nenhum nó de borda de uma determinada zona conhece uma rota ao destino solicitado, a mensagem passa a ser enviada para os nós da borda desta zona. Esse procedimento é repetido até


que uma confirmação chegue ou até que uma mensagem de erro seja enviada ao nó de origem. Diante dessa afirmação, esse algoritmo proporciona rapidez na descoberta das rotas na intra-zona e economia significativa de energia elétrica e de custo de conexão na interzona, além de balancear as desvantagens que foram relatadas nos roteamentos proativos e reativos.

Um dos projetos que se aplica o conceito de redes Ad Hoc sem fio é o Group Model, conhecido como MANETS, desenvolvido por Santos [4] cujo principal objetivo é “prover as funcionalidades de definir grupos de interesse, que podem ser constituídos por membros relativamente estáveis ou transitórios”. Santos [4] aplica o conceito de roteamento híbrido nas simulações que permitia a troca de informações entre motoristas de uma metrópole, sobre a situação do tráfego nas regiões que já estiveram.

Síntese dos protocolos em redes MANETS. Características 1 -Análise de roteamento Vetor de distância Estado de enlace 2-Armazenamento de rotas Cache de rotas Topologia parcial de rede Topologia completa Múltiplas rotas 3 -Descoberta de rotas Inundação em toda a rede Controle de inundação 4 - Envio de novas rotas Por intervalos de tempo Por eventos Legenda: S - Compatível P - Parcialmente Compatível N/A -Não aplicado

Proativos DSDV WRP

Reativos DSR

Híbridos ZRP

S N/A

S N/A

S N/A

P P

N/A

N/A

S

N/A

N/A

N/A

S

S

S N/A

S S

N/A S

N/A N/A

S

N/A

N/A

N/A

N/A

S

S

S

S S

S S

N/A S

P P

Tabela 1. Síntese das protocolos apresentados.

características

dos

4. Aplicações As redes MANETS são bastante estudadas na busca da otimização de seu desempenho em várias situações e mitigação de algumas desvantagens, tais como atraso, consumo de energia, taxa de tráfego de atualização de tabelas de rotas e probabilidade de falhas dos nós. A aplicação de algum protocolo de roteamento MANET pode ser uma opção vantajosa quando utilizada em ambientes que demandam portabilidade.

Figura 6. Projeto GroupModel, que utilizam motoristas que trocam informações sobre o tráfego na metrópole. Fonte: Santos [4]. A aplicação de redes Ad Hoc em cenários militares é, também, um exemplo de utilização de protocolos de roteamento MANETS. Segundo Pereira [10], esse tipo de aplicação necessita de portabilidade em grupo e que estabeleçam padrões de tráfego “que obedecem a uma cadeia hierárquica rígida e com aleatoriedade de movimentos controlada, obedecendo a um padrão de movimentação pré-determinado”. As redes Ad Hoc são bem aceitas pelas aplicações militares pela necessidade de mobilidade nas operações em campo de batalha e, também, do tempo de entrega de dados, considerado um fator crítico nesse cenário. Quando se trata de entrega de blocos de dados, segundo Pereira [10], o protocolo DSR entrega, em média, 10% mais pacotes que o DSDV e, praticamente, os pacotes de dados não são descartados por quebra de enlace pelo fato de buscar, em seu cache, rotas alternativas para um determinado destino caso o próximo nó estiver inalcançável. Porém, o DSDV proporciona menor atraso porque, nos protocolos proativos, os nós possuem rotas para todos os destinos armazenados em tabelas, enquanto os protocolos reativos buscam as rotas no momento que necessita enviar dados para um destino.

5.

Conclusão

A flexibilidade oferecida pelas MANETS pode ser um fator satisfatório quando opta por desenvolver uma rede sem fio sem um roteador central, trocando informações entre si. Então, diante desses estudos conclui-se que o conceito de MANETS é possível em aplicações que demandam portabilidade dos terminais, isto porque são aplicados vários protocolos de roteamento em redes Ad Hoc


móveis que, apesar das suas desvantagens, são bem aceitos nos projetos de redes sem fio. Atualmente, há vários estudos objetivando a melhoria desses protocolos de roteamento, otimizando os princípios da confidencialidade, integridade e disponibilidade, e resultará num grande salto em direção a acessibilidade entre nós sem precisar de um roteamento central.

6. Referências [1] LOUREIRO, A. A. F.; CUNHA, F.; VILLAS, L.; VIANA, A. Data Communication in VANETs: A Survey, Challenges and Applications. INRIA, France, v. 1, 2014. [2] SCHNEIDERS, L. A.: Uma proposta de otimização no processo de integração entre redes infra-estrutura e MANET’s. 83f. Dissertação (mestrado) – Universidade Federal do Rio Grande do Sul, 2006. [3] TANENBAUM, Andrew S.: Computer networks. 3ª ed. 813f. Prentice Hall, New Jersey, 2002.

[4] SANTOS, H. S; PENTEADO, R. M.; ALBINI, L. C.; HARA, C.: Um Modelo de Grupos para MANETS. 10f. Artigo – Universidade Estadual de Maringá, 2011. [5] SESAY, S.; YANG, Z.; HE, J.: A Survey on Mobile Ad Hoc Wireless Network. 7f. Information Technology Journal 3(2), 2004. p. 168-175 [6] PERKINS, C. E.; BHAGWAT, P.: Highly Dynamic Destination-Sequenced Distance-Vector Routing (DSDV) for Mobile Computers. 11p. Sigcomm, 1994. [7] JOHNSON, D.; HU, Y.; MALTZ, D.: The Dynamic Source Routing Protocol (DSR) for mobile Ad Hoc Networks for IPv4. Network Working Group, IETF Trust, 2007. Disponível em: http://tools.ietf.org/html/rfc4728 [8] HASS, Z. J.: A new routing protocol for the reconfigurable wireless networks. 5p. Cornell University, New York, 1997. [9] MURTHY, S.; GARCIA-LUNA-ACERVES, J. J.: An efficient routing protocol for wireless networks. Mobile Networks and Applications, vol.1. University of California, 1996. [10] PEREIRA, I. C. M.; PEDROZA, A. C. P.: Análise do Roteamento de Redes Móveis Ad Hoc para Cenários de Operações Militares. Universidade Federal do Rio de Janeiro, 2004. [11] ABRAMSON, N.: Development of the ALOHANET. In: IEEE Transactions on Information Theory. IEEE Transactions on Information Theory. IT-31, 1985.


1 de 5

O sucesso da Virtualização em uma Instituição Federal de Ensino gastando nada com Software Antonio Arley Rodrigues da Silva, Willamys Gomes Fonseca Araújo, Ângelo de Medeiros Lima Júnior arley@ifce.edu.br, willamys.araujo@ifce.edu.br, angelodemedeiros@mail.com Instituto Federal de Educação, Ciência e Tecnologia do Ceará, Campus Tianguá CE 075, S/N, Bairro Aeroporto Tianguá/CE, Brasil, 62370-000

Resumo – Este artigo visa apresentar a utilização da virtualização de

dificultando o atendimento das necessidades dos usuários e da

servidores, bem como os benefícios da sua implantação. A solução

organização [2].

apresentada faz-se uso do Citrix XenServer e do Aplicativo Citrix XenCenter para auxiliar na administração e manutenção das máquinas

Para dirimir este percalço, as empresas estão implantando a

virtuais instaladas. O estudo foi realizado no Instituto Federal de

virtualização, o qual necessita de investimento em hardware e

Educação, Ciência e Tecnologia do Ceará - IFCE, Campus de Tianguá,

software, mas a curto prazo, estes investimentos são contornados

no período de 25 de setembro de 2013 a 13 de dezembro de 2013.

por conta da diminuição na manutenção dos servidores físicos, melhor aproveitamento dos recursos computacionais e uma série

I. INTRODUÇÃO

de economias, em especial a energia e espaço. Portanto, a Atualmente as organizações públicas e privadas, precisam

virtualização de servidores faz um melhor uso dos recursos,

alinhar as necessidades coorporativas com suas estratégias de

racionalizando os serviços de manutenção e obtendo uma

tecnologia da informação (TI). A definição das ferramentas

maior eficiência [2].

ou softwares para o bom desempenho do negócio é crucial, as

Uma pesquisa realizada em 2013, que entrevistou mais de

organizações sentem cada vez mais necessidade de obter

750 executivos de todo o mundo, revelou que cerca de 40%

mais rentabilidade, com menos gastos ou esforços. Um dos

das empresas devem virtualizar entre 51% e 75% de seus

caminhos para isto é o uso adequado de sistemas de

servidores ao longo dos próximos 24 meses. Isso mostra que

informação (SI), sendo necessário que aja um planejamento

apesar da organização ter um custo maior para implantar a

correto para identificar quais tecnologias devem ser

técnica de virtualização, ao analisar o custo benefício dos

aplicadas,

anos que se seguem é claramente visível a economia e a

possibilitando

assim,

a

geração

de

bons

resultados[1].

eficiência que a empresa ganhará [3].

A utilização dos servidores das empresas tem um

Analisando mais a fundo chega-se a definição que,

crescimento elevado nos últimos anos, obrigando-os a

segundo [4], a virtualização consiste em uma técnica de

desempenhar funções das mais diversas, necessitando de

combinar ou dividir recursos de uma máquina para executar

mais gastos na aquisição de máquinas, peças, energia e

um ou mais sistemas, ocultando as características de

manutenção, além de um espaço físico maior [1][2].

hardware e como as aplicações utilizam estes recursos

Este crescimento tem obrigado os servidores a desempenhar

computacionais. Esta ocultação ou abstração é possível

várias funções diferentes, trazendo consigo mais gastos na

através do provimento de um hardware virtual para cada um

aquisição de máquinas, peças, energia e manutenção, além de

dos sistemas.

necessitar de um espaço físico maior. Desta maneira o setor de

Desta maneira, uma máquina pode realizar o trabalho de

TI depara-se com um ambiente cada vez mais complexo,

várias outras, sendo transparente ao usuário, ocupando menos espaço físico, promovendo redução do consumo de energia e


2 de 5

de refrigeração, já que um servidor com alta atividade de

O XenServer é uma VMM, Open Source, criada em 2003

processamento consome praticamente a mesma quantidade de

pela Universidade de Cambridge e adquirida pela empresa

energia que outro servidor com baixa atividade.

Citrix Systems Inc, em 2007. O XenServer é uma VMM do

Contudo, o trabalho a ser apresentado será embasado no

tipo híbrida, funcionando como uma fina camada entre o

processo de implantação dessa nova solução em um servidor

hardware e o SO, podendo suportar a virtualização total, onde

do Instituto Federal de Educação, Ciência e Tecnologia do

a máquina real deve possuir processador compatível com a

Ceará (IFCE) no Campus de Tianguá, sem a necessidade de

tecnologia de virtualização, e a paravirtualização, sendo

arcar com licenças de software, e apresentar as melhorias

necessário que o SO permita a modificação do seu núcleo

depois da implantação da técnica de virtualização.

(kernel), para que possa usufruir dos serviços fornecidos pelo XenServer [8][9].

II. REFERENCIAL TEÓRICO

Todo o procedimento de criação e gerenciamento de VM pode ser realizado através de um aplicativo, chamado

A. Virtualização Para [5], a virtualização de servidores nada mais é do que

XenCenter. Com o XenCenter é possível obter informações

uma tecnologia que auxilia SO de plataformas diferentes a

das VM, como: processador, memória utilizada, disco rígido,

beneficiar-se do mesmo hardware e com capacidade de

interfaces de rede, tempo de atividade do servidor; além de

manter vários SO funcionando simultaneamente, de forma

acessar funções de backup, restauração, ligar, desligar,

independente.

reiniciar, e acessar a interface da máquina virtual [10][11].

Para fazer a virtualização é necessário haver a Virtual

O XenServer pode ser acessado diretamente do servidor ou

Machine Monitor (VMM), mais conhecido como hypervisor,

através da rede, interna ou internet (se houver IP público),

que age como um intermediário entre as máquinas virtuais e

através do aplicativo XenCenter, que pode ser instalado em

o hardware real. A VMM tem o controle dos recursos da

um computador com o SO Windows. Para acessar o servidor

máquina real, os quais são compartilhados pelas máquinas

através do XenCenter é necessário o endereço IP, login e

virtuais,

senha [12].

tais

como:

processadores,

dispositivos

de

entrada/saída, memória e armazenamento [6].

III. IMPLANTAÇÃO DA VIRTUALIZAÇÃO

A implementação de monitores de máquinas virtuais (VMM) pode ser realizada através de duas formas:

A. Ambiente antes da implantação da virtualização

virtualização total e paravirtualização. Na virtualização total

No contexto inicial, o IFCE campus de Tianguá possuia

a VMM cria uma cópia virtual do hardware, fazendo com que

uma infraestrutura composta por duas máquinas comuns

os SO “imaginem” que estão sendo executados diretamente

(PCs) que proviam os serviços de proxy, DHCP, DNS,

no hardware real. Já na paravirtualização, para que o SO

compartilhamento de arquivos (SAMBA) na máquina 1 e

possa ser executado, é necessário modificá-lo, obrigando-o a

Apache, MySQL, PHP, na máquina 2, de acordo com a

acessar os dispositivos de hardware através de drivers da

Tabela 1.

VMM [5].

TABELA 1. CONFIGURAÇÕES DE HARDWARE E SOFTWARE DAS

A motivação para utilizar VM, reside na possibilidade delas trabalharem de maneira independente, permitindo a

MÁQUINAS ANTES DA VIRTUALIZAÇÃO

Máquina

execução de vários SO diferentes, cada um com suas aplicações e serviços particulares, simultaneamente na mesma máquina real [7]. B. Ferramenta de Virtualização XenServer

Sistema Operacional

CPU

Memória

Disco

RAM

Rígido

1

Debian 6

2

2048 MB

500 GB

2

Debian 6

2

2048 MB

500 GB

Essa disposição de hardware e serviços atendia as necessidades da instituição, porém havia alguns pontos


3 de 5

falhos, dos quais podemos ressaltar: necessidade de

A Figura 1 apresenta a disposição das máquinas virtuais

manutenção em várias máquinas, potencial do hardware mal

através do XenCenter que está acessando o servidor em

aproveitado

estudo.

(processamento

e

armazenamento),

alta

tolerância a falhas, backup e recuperação difíceis, entre outros. B. Ambiente para virtualização Para o estudo e implantação de um servidor virtualizado, foi utilizada uma máquina apropriada para este fim, no IFCE Campus Tianguá. A máquina cedida para o procedimento tem como função gerenciar toda a rede e aplicativos web do Campus, e possui as seguintes configurações: Figura 1. Máquinas virtuais criadas através do XenCenter

● Marca: HP

A Tabela 2 discrimina as configurações de hardware que

● Modelo: Proliant ML350p Gen8 ● Processador: 1 x Intel(R) Xeon(R) CPU ES-2620 2.0GHz

foram alocadas a cada máquina virtual, criadas no Servidor em questão, e o sistema operacional em uso.

● Núcleos de Processamento: 12 ● Memória RAM: 16 GB DDR3 ● Disco Rígido: 1 x HD de 500 GB Para gerenciar as VM contidas no servidor, foi utilizado a solução de virtualização gratuita XenServer 6.1.0 da Citrix Systems, Inc., implantado através da paravirtualização.

TABELA 2. CONFIGURAÇÕES DE HARDWARE DAS MÁQUINAS VIRTUAIS Sistema Disco CPU Memória RAM Operacional Rígido pfSense 4.1 3 3072 MB 25 GB Debian 7 2 2048 MB 200 GB Ubuntu 12.04 2 2048 MB 15 GB Total 7 7168 MB 240 GB

B. Criação de máquinas virtuais Foram

IV. BENEFÍCIOS

criadas três máquinas virtuais, através do

XenCenter, cada uma com uma função e SO diferente. Na máquina virtual principal foi instalado o pfSense, baseado no FreeBSD, que tem a função de gerenciar toda a rede do Campus com serviços de Proxy, DNS, DHCP, controle de

VM

hardware e software do campus, culminou na diminuição significativa no consumo de energia, de refrigeração e do espaço físico ocupado. O servidor adquirido substitui as duas máquinas utilizadas anteriormente, oferecendo os mesmos

banda, etc. A

Essa nova disposição da utilização dos recursos de

com

o

Debian

utiliza

o

Samba

para

compartilhamento dos arquivos do setor de TI e dos professores, na rede interna e na internet. Os arquivos da TI são essenciais no suporte e manutenção dos computadores do Campus. Os professores usam o servidor para disponibilizar arquivos para os alunos, referentes às disciplinas lecionadas. A máquina virtual com o Ubuntu instalado, mantém um servidor web, com o Apache, MySQL e PHP, que são necessários para rodar dois sistemas web desenvolvidos no próprio Campus (Sistema de Almoxarifado e o Sistema de Ordem de Serviço).

serviços e com capacidade de abrigar mais máquinas virtuais, que poderão ser criadas de acordo com a necessidade do Campus. Outros benefícios observados foram: menor manutenção, maior tolerância a falhas, backup e recuperação de forma fácil e rápida. As máquinas virtuais gerenciadas pelo XenServer e acessadas pelo XenCenter possuem features, que permitem backup e recuperação em minutos. Isso é possível pelo uso de snapshots, que são arquivos de estado, dados de disco e configuração de uma máquina virtual em um ponto especifico do tempo. Dessa forma, ao haver uma falha por causa de atualização ou perda de dados, por exemplo,


4 de 5

pode ser revertido para uma versão (feature) previamente

pois é de fácil instalação e auxilia no gerenciamento do

salva [10].

servidor, através do aplicativo XenCenter.

A tabela 3 mostra os principais recursos de hardware do

A capacidade de executar vários SO de plataformas

servidor, que são as unidades de processamento (CPU),

diferentes, ao mesmo tempo, consolida a implantação da

memória RAM e HD. Também está disponível na tabela 3 a

virtualização em ambientes corporativos, em especial nas

quantidade de cada recurso alocado às máquinas virtuais e

Instituições Públicas de Ensino, que necessitam de diversos

quanto ficou ocioso.

serviços, instalados em ambientes diferentes. O uso dessa tecnologia resultou em vários benefícios,

TABELA 3 – CONFIGURAÇÕES DE HARDWARE E SOFTWARE DAS

principalmente ao que se refere à economia em energia

MÁQUINAS ANTES DA VIRTUALIZAÇÃO

Memória

Disco

RAM

Rígido

elétrica e aquisição de máquinas; tolerância a falhas;

Máquina

CPU

Hardware Disponível

12

16349 MB

457,7 GB

7

7168 MB

240,0 GB

5

9181 MB

217,7 GB

economia de espaço físico; centralização dos servidores; e, manutenção mais fácil e rápida.

Hardware alocado às Máquinas Virtuais

Este trabalho é de grande valia para Instituições de Ensino que necessitam de diversos serviços, instalados em ambientes

Hardware Não Utilizado (Ocioso)

diferentes e que desejam mantê-los de forma sustentável e flexível.

Para manter as três máquinas funcionando, é necessário um pouco

mais

da

metade

dos

recursos

AGRADECIMENTOS

disponíveis,

possibilitando com que o servidor disponha de recursos para

Agradecimento especial ao Instituto Federal do Ceará,

ampliação dos serviços oferecidos e de serviços que possam

Campus Tianguá, por ceder o espaço, equipamentos e

ser implementados, a partir das necessidades da Instituição. A

servidores necessários para realizar esta pesquisa.

ampliação é possível sem que aja a necessidade de aquisição

REFERÊNCIAS

de novos equipamentos. A memória RAM foi o hardware menos utilizado, já que as aplicações utilizadas no servidor

centralização

das

máquinas

virtuais

maiores

benefícios,

que

foram

relatados

in

the

Enterprise”.

Disponível

em:

<https://software.intel.com/en-us/articles/the-advantages-of-

facilita

a

manutenção no servidor (hardware ou software). Este é um dos

T. Burger. “The Advantages of Using Virtualization Technology

não demandam grandes quantidades de memória RAM. A

[1]

pelos

profissionais de TI do IFCE Campus de Tianguá.

using-virtualization-technology-in-the-enterprise >. 2012. Em 23/04/2014. [2] Microsoft. “Estratégia de Virtualização de Estações de Trabalho”.

White

Paper.

2012.

Disponível

em:

<http://download.microsoft.com/download/5/5/2/5524ACEB-

V. CONCLUSÃO

99B5-45E7-A377-

Atualmente, o mercado apresenta uma crescente ascensão na utilização de recursos computacionais, e a virtualização surgiu como um importante meio para otimizá-los e reduzir

ategy%20White%20Paper_final-BRZ.pdf>. Em 15/04/2014. [3] Canaltech. “Pesquisa aponta aumento na virtualização de servidores”.

custos. A implantação da virtualização no IFCE Campus Tianguá resultou em vários impactos positivos, principalmente ao que se refere a economia em energia elétrica e aquisição de máquinas, como também a centralização dos servidores e melhor

3F5794FD64A3/Microsoft%20Client%20Virtualization%20Str

manutenção.

O

XenServer

mostrou-se

uma

ferramenta fundamental para a implantação da virtualização,

Disponível

em

<http://corporate.canaltech.com.br/noticia/mercado/Pesquisaaponta-aumento-na-virtualizacao-de-servidores>.

Em

30/04/2014. [4] A. S. Tanembaum. “Sistemas Operacionais Modernos.” 3ª ed., São Paulo, Editora Pearson Prentice Hall, 2010.


5 de 5 [5] Alexandre Carissimi. “Virtualização: da teoria a soluções”.

[10] J. N. Mathews et al. “Executando o Xen: Um Guia Prático para

Minicursos do Simpósio Brasileiro de Redes de Computadores

a Arte da Virtualização”. Rio de Janeiro: Alta Books, 2008. 584

- SBRC 2008, 173-207, 2008.

p.

[6] D. M. F. Mattos. “Virtualização: VMWare e Xen”. GTA, POLI, UFRJ, 2008.

Entre VMWare e Xen”. Monografia - Centro Universitário de

[7] R. A. Tosadore. “Virtualização: Alta Disponibilidade”. Monografia. Faculdade POLITEC, Santa Bárbara d’Oeste, SP, 2012,

91p.

[11] A. Brumate. “Virtualização de Servidores: Um Comparativo

Disponível

em:

Maringá, Maringá, PR, 2010. [12] A. A. R. Silva. “Virtualização e Administração de Servidores com o Xen: Um estudo no Instituto Federal do Ceará”.

<http://grsecurity.com.br/apostilas/Virtualizacao/TCC-

Monografia - Pós-Graduação Lato Sensu em Redes de

Virtualizacao-RafaelTosadore-2012.pdf >. Em 01/05/2014.

Computadores, ESAB, Vila Velha, ES, 2014.

[8] A. Cardozo; A. L. S. Ferreira; E. M. Santos. “Virtualização de Servidores com Xen Source”. Monografia. Disponível em <http://www.ebah.com.br/content/ABAAABnQQAB/xensource>. Goiânia, GO, 2010. Em 25/04/2013. [9] A. R.. Franco. “Analisando a utilização da virtualização em laboratório de ensino”. Monografia - UNIOESTE, Cascavel, PR, 2010.


Proposta de otimização de consumo de energia em redes de sensores sem fio em comunicação acústica subaquática MACEDO, A. R. L.1,2, MACEDO, A. R. M.1 and AQUINO, F. J. A.2 1

2

Centro de Ciências Tecnológicas, Universidade de Fortaleza, Fortaleza, CE, BRA Programa de Pós-Graduação em Engenharia de Telecomunicações, Campus de Fortaleza – Instituto Federal do Ceará Email: boblmacedo@unifor.br; bobmacedo@unifor.br; fcoalves_aq@ifce.edu.br

Resumo—Este artigo visa apresentar elementos que demonstram por meio da análise da atenuação do sinal acústico subaquático que o emprego de robôs como nós móveis pode aumentar a autonomia energética em redes de sensores sem fio em comunicação acústica subáquática. O resultado preliminar do estudo mostra que para aplicações em que o tempo não é uma variável crítica, o uso de hub móvel, ou nós roteadores expande a autonomia dos nós fixos da rede. Abstract—This paper presents evidence to show through the analysis of the underwater acoustic signal attenuation that the use of mobile robots as nodes can increase the energy autonomy of underwater wireless sensor networks (UWSN). The primary outcome of the study shows that for applications where time is not a critical variable, the use of mobile hub, or router nodes expands the autonomy of fixed nodes. Palavras-chave— Acústica. Redes de Sensores. Robótica. Modelagem. Classificação. (key words)

I. INTRODUÇÃO O Brasil possui cerca de 8.000 km de litoral e pode chegar a ter controle jurisdicional sobre uma área marinha de 4.500.000 km2, ou equivalente a mais da metade da área do território brasileiro emerso, que é de 8.500.000 km2. Considerando que as características geográficas e de ocupação territorial conferem ao Brasil uma posição estratégica privilegiada em termos da exploração sustentável dos recursos do mar, incluindo não só a pesca, o transporte, o lazer e a segurança, mas também a exploração mineral. O estudo realizado por [1] indicou que há ainda elevada necessidade de domínio nacional em tecnologia submarina. A Petrobras, que bombeia 2,2 milhões de barris por dia de óleo equivalente, irá aumentar para 5,7 milhões de barris/dia em 2020 [2]. Para alcançar esta meta irá investir U$ 237 bilhões para o período entre 2013 e 2017, tendo investido, somente no ano de 2012, 42,9 bilhões de dólares. Tomando como foco a área de robótica e automação aplicada em ambientes submarinos, um dos principais desafios ainda presentes no Brasil é o domínio de comunicação acústica. A Figura 1 ilustra algumas das características desse ambiente e os potenciais desafios que se apresentam: grande atraso de propagação do sinal, baixa relação sinal-ruído, interferências, baixa largura de banda

Agradecemos ao CNPq pelo Financiamento deste projeto. Agradecemos ao Instituto Federal do Ceará, Universidade de Fortaleza e a ARMTEC Tecnologia em Robótica por investirem e executarem esta pesquisa.

devido às reflexões do sinal [3]. Este tipo de tecnologia é de natureza dual, ou seja, tecnologia de origem militar que nos últimos 20 anos vêm crescendo o uso e emprego no mercado civil. Nas últimas décadas, houve constante pesquisa para superar de desafios como: detecção coerente de sinais digitais em comunicação acústica submarina de alta velocidade [4], a melhor compreensão da física do canal subaquático, simulação de canais e medições; a estrutura de receptores; codificação de controle de erros, sistemas de redes de comunicação, interferência por multiplicidade de sinais e estratégias alternativas de modulação [5]. O país ainda está longe do estado da arte neste campo mesmo com grupos desenvolvendo pesquisa neste campo em projetos de pesquisas da Petrobras e da Marinha do Brasil. Segue a organização do presente artigo. Na seção II, é feita uma discussão sobre o meio, a influência da temperatura, frequência, profundidade e distância quanto à variabilidade da capacidade do canal e considerações de projeto para redes de sensores sem fio em comunicação acústica subaquática (RSSFCAS). Na seção III, é feita uma discussão sobre capacidade do canal acústico. Na seção IV são apresentadas classificações de RSSF subaquáticas. Na seção V é feita uma avaliação dos resultados da simulação. Na seção VI, são apresentadas considerações finais e proposta de trabalhos futuros.

Fig. 1.

Ambiente subaquático para comunicação de dados, adaptado de [3].


II. O MEIO Existem três topologias básicas quanto à interconexão de nós da rede: centralizada, distribuída e multihop [6]. Na rede centralizada, todos os nós se comunicam com uma unidade central. Na topologia distribuída, não há necessidade de roteamento, mas ao mesmo tempo há problemas em perceber um sinal mais fraco devido à quase sempre presença de sinais de maior potência oriundos de nós mais próximos, conhecido como problema próximo-longe. No caso da multihop, a comunicação somente ocorre entre os nós mais próximos e os pacotes são transmitidos de nó em nó até atingir o nó desejado. Isto se faz pelo uso de algoritmos inteligentes que se adaptam as variações de condições da rede. Este tipo de rede permite uma larga área de cobertura, visto que a distância que pode atingir está mais relacionada com o número de nós do que com a potência do modem. Entretanto, devido ao número de saltos (hops) deste tipo de topologia, há um aumento no atraso da entrega do pacote de dados.

operação destas redes, o emprego de redes multihop ou redes mesh. Para tanto, há contínua pesquisa em novos programas embarcados, configurações que possam utilizar modens de menores custos e desenvolvimento de modens mais acessíveis para estas aplicações [8,12-14].

A definição de qual topologia ou o emprego de topologias híbridas [7-9] é citado por vários autores, havendo sempre como elemento de discussão proposta de configurações que gerem o melhor resultado quanto ao consumo de energia, maximizar o uso de banda, minimização de custo, existência de rede autoconfigurável com nós móveis, entre outros elementos. Devido a essas considerações, a definição de como deve ser a rede de sensores está diretamente relacionada com a distribuição espacial e a existência de mobilidade [6-12]. A rede pode ser estática bidimensional, quando a distribuição dos sensores é fixa e basicamente está no leito do oceano; pode ser estática tridimensional, quando os sensores são fixos, mas pode haver movimentação vertical, como é o caso de sensores subaquático fixados em boias. E pode ser tridimensionais com emprego de robôs autônomos submarinos, quando além dos pontos fixos, há sensores acoplados a robôs remotamente operados (ROV), veículos autônomos subaquáticos (AUV), ou equipamentos aquáticos rebocados (gliders), ou equipamentos à deriva não energizados acoplado com sensores (drifters). Quando a rede possui mobilidade, uma subclassificação pode ser feita quanto ao uso que será aplicado. Em geral, dependendo se os sensores são posicionados de forma permanente ou sob demanda, as considerações relacionadas ao tempo e o volume de informações captadas podem levar a duas abrangentes categorias de redes de sensores subaquáticas. A primeira categoria é a para aplicações de longo prazo em que a resposta não precisa ser em tempo real e pode aceitar janelas de tempo na ordem de minutos ou superior, tais como em oceanografia, biologia marinha, detecção de poluição, monitoramento de campos de petróleo, entre outras. A segunda categoria é relacionada a explorações aquáticas de curto período em que o tempo de obtenção da informação é crítico. Exemplos deste tipo de categoria estão a descoberta recursos naturais subaquáticos, operações de resgate em desastres com tufões, missões militares antissubmarino, busca de artefatos perdidos (caixa preta de avião) em águas profundas, entre outras. Há uma tendência no desenvolvimento de redes de sensores subaquáticas, para aumentar a viabilidade e o período de

Fig. 2. Exemplo de RSSF acústica subaquática e enlaces com diferentes tipos de sistema de comunicação, adaptado de [12].

III. CAPACIDADE DO CANAL ACÚSTICO A capacidade para um canal de comunicação invariante no tempo e adicionado de ruído Gaussiano branco [15], onde capacidade C pode ser calculada por: ,

(1)

onde W é a largura de banda do canal, P é a potência média transmitida, e N_0 é a densidade espectral do ruído branco. Os autores em [16] apresentam uma solução numérica para a capacidade de um canal de comunicação acústico submarino muito simples, os autores não consideram a frequência e não consideram os efeitos causados pela atenuação dependente da distância. Em [17], os resultados experimentais para a capacidade de um guia de onda em um ambiente aquático raso é mostrado. Em [18], a capacidade para uma rede celular subaquática baseada na modulação OFDM é analisada. Neste artigo, os resultados de Hummeu [16] serão utilizados para demonstrar a capacidade de um canal de comunicação acústico simples e mostrar que comunicação subaquática eficiente é possível de se implementar. O sinal de entrada s(t) é uma função amostra de um processo aleatório que tem potência média S. O sinal de entrada passa por dois filtros paralelos H1(f) e H2(f) que simulam uma situação de caminhos múltiplos. Ambos os filtros


são passa-baixa com frequências de corte W1 e W2, onde a frequência W1 é maior que W2. Os filtros diferem entre si por um fator de atenuação ∝, um atraso τ e pelas bandas distintas. A função de transferência total pode ser expressa com a ajuda da função pulso Pw(f) e pode ser vista na (2). (2) A saída do filtro “combinado” é somada com ruído branco Gaussiano com densidade espectral constante em No/2 W/ Hz. Finalmente, a capacidade C de um canal filtrado, limitado em potência, de tempo contínuo e adicionado de ruído Gaussiano branco é definida [19] como sendo: bits/s

(3)

onde B é obtido quando se soluciona a equação 3. (4) e F é a sequência dada pela equação 4. (5) O fator chave de todo o cálculo da capacidade do canal é a obtenção da solução para C quando a resposta em frequência “combinada” é descrita pela (1). Em [16], o autor mostrou os passos para tal cálculo e fazendo uso dos resultados encontrados podem-se tirar as devidas conclusões. Feitas as devidas análises, conclui-se que para pequenos atrasos, o problema de múltiplos caminhos na verdade melhora a capacidade do canal do que se estivesse utilizando apenas um caminho. Os resultados para grandes valores de γ também são analisados. À medida que este parâmetro cresce, a capacidade oscila em torno de um valor que é relativamente maior do que seria calculado se a capacidade fosse provida por apenas um caminho. Para γ maior do que três, a amplitude da variação se torna significante e a capacidade assume um valor limite um pouco acima de 1(hum). À medida que α se aproxima de zero também tem-se a capacidade beirando o valor de 1(hum) como já era esperado por Shannon [16]. A máxima redução da capacidade do sistema ocorre para α ≈ 0,6 que é de aproximadamente 7%.

rotineira são quase irrelevantes nas mesmas distâncias por comunicação RF (radiofrequência) [8]. Devido à existência de variação de temperatura no meio aquático, o canal acústico é distribuído em várias faixas de velocidades de som. A profundidade tem dois efeitos na velocidade do som, há aumento da velocidade devido ao aumento da pressão e redução da velocidade devido à diminuição da temperatura [20]. Entretanto, a partir de certa profundidade, a temperatura estabiliza e a pressão continua a aumentar. Isto promove gradiente quase linear de crescimento da velocidade do som [21]. A relação entre frequência de transmissão e atenuação do sinal é expressiva na comunicação acústica subaquática, em 12,5kHz a absorção do sinal é 1dB/km ou menos, já em 70kHz pode ultrapassar 20dB/km [8]. Devido a esse fator, há um limite superior prático da frequência portadora de cerca de 100kHz. Esta limitação de frequência leva a taxas de transmissão de 9.600 a 19.200 bps (bits por segundo) em distâncias de até 350m, e taxas de até 5kbps à 10.000m de distância [22]. Além disso, há significante variação da velocidade do som devido à temperatura, densidade e salinidade do meio, isso leva ao sinal acústico trafegar por caminhos curvos. Tal situação leva a existir zonas em que não há percepção de sinal e perdas devido a reflexões, originadas pela superfície da água, obstáculos, variações da temperatura e a dispersão do sinal devido à irregularidade do leito do oceano, isto é, são originados vários múltiplos percursos [8]. Devido a tantos fatores que influencia a capacidade do canal de comunicação acústica subaquática, diversos autores sugerem diferentes modelos matemáticos no auxílio ao dimensionamento de sistemas de comunicação acústica subaquática. Os trabalhos [20,21] apresentam modelos matemáticos para o cálculo deste canal e os elementos de atenuação do sinal transmitido. A propagação do sinal acústico subaquático sofre diversos tipos de perda, entre elas há majoritariamente três aspectos que contribuem para estas perdas: espalhamento geométrico, atenuação e anomalias na propagação. Mesmo sendo difíceis de modelar, a atenuação pode ser expressa em dB em termos de distância de transmissão de certo sinal em uma certa frequência conforme a equação abaixo: (6)

IV. CLASSIFICAÇÃO DE REDES DE SENSORES Entre os diversos tipos de comunicação, a acústica é a mais apropriada para meios de comunicação subaquáticos. A comunicação por radiofrequência sofre severa atenuação e normalmente consegue um alcance de um alcance de até 1 metro em condições ideais [8]. Entretanto, a comunicação acústica possui uma desvantagem quanto à baixa banda de transmissão de dados pela sua natureza física. A transmissão por RF é transmitida pela velocidade da luz (299.792.458 m/s), enquanto o som se propaga em uma velocidade cerca de 1.500 m/s. Essa diferença de velocidade leva a desafios que de forma

No qual d é a profundidade em metros, t é a temperatura ambiente em °C e f é a frequência de transmissão em kHz. Os coeficientes A1, A2 e A3 representam os efeitos da temperatura na absorção do sinal, enquanto P1, P2 e P3 representam os efeitos da profundidade, e f1e f2 representam as frequências de relaxação introduzidas pela absorção causada pelo ácido bórico e o sulfato de magnésio. A forma exata destes coeficientes pode ser visto na tabela 1. O modelo Fisher & Simmons permite modelar os efeitos da profundidade desde que ela não seja superior a 8km, além disso a salinidade considerada é de 35ppt e o pH é igual a 8.


Então devido às contribuições do modelo de Fisher & Simmons, pode-se acrescentar temperatura e profundidade ao coeficiente de absorção, alterando a (6) para: (7) TABELA I.

Coeficientes do modelo FISHER & SIMMONS.

(a)

V. RESULTADOS DE SIMULAÇÃO O presente trabalho traz resultados de simulação computacional numérica considerando a comunicação acústica de dois sensores. Para a maioria da simulação, foi utilizado o modem UWM10000 [22] que tem alcance omnidirecional de até 7000 m, pode atuar em profundidades máximas de 2000m, 4000m e 7000m, transmite em uma faixa de frequência de 7,5 até 12,5 kHz e opera na faixa de temperatura de -5 a 45°C. Entre os aspectos relevantes do trabalho na avaliação do emprego de robôs em RSSF subaquáticas, foram avaliados diferentes impactos na atenuação do sinal quanto à distância. A primeira etapa foi avaliar a influência de diferentes faixas de frequência quanto à atenuação do sinal transmitido. Esses resultados estão resumidos na Fig. 3. Nota-se na Fig. 3a que o impacto na atenuação do sinal devido ao aumento da frequência de transmissão é consideravelmente superior ao ganho na taxa de transmissão. Isto confirma que as faixas de transmissão de poucos kHz são os mais aceitáveis as RSSF subaquáticas. Na Figura 3b, foi simulada a relação atenuação/distância considerando frequência de 12,5kHz, profundidade de 3000m, a uma temperatura de 4°C. Percebe-se que diferentes tipos de espalhamentos geométricos em pequenas distâncias tem comportamento de atenuação similar mais com o incremento da distância há um severo aumento da atenuação, principalmente quando visualizado o espalhamento cilíndrico quanto ao esférico.

(b) Fig. 3. Relação da atenuação versus distância considerando a influência da frequência ou a influência do espalhamento.

Na Figura 4a, é mantida as características anteriores, adotase um coeficiente de espalhamento prático e se avalia a influência da temperatura. Nestas condições de temperatura que normalmente são encontradas em águas a partir de 1000m de profundidade, a simulação demonstra insignificante influência da temperatura quanto a variação da atenuação. Na Figura 4b, mantendo o cenário anterior com uma temperatura de 4°C, vê-se que há pouca influência a variação de profundidade quando em águas profundas. Percebe-se que quando as distâncias são próximas a 1 km, a atenuação é baixa nos diversos cenários e permite o emprego de menor potência dos modens para comunicação da rede. Isto reforça o emprego de redes multihop ou redes mesh, pois há melhoria do sinal devido ao uso de um nó roteador (router). Também permite indicar que se as redes não puderem ter uma distribuição tão compacta, o emprego de AUV e ou ROV para aplicações não críticas quanto ao tempo, pode viabilizar a extensão do tempo de uso dos nós sensores sem que haja operações de recarregamento ou troca de baterias.


o emprego de redes compactas e ou o uso integrado de redes de sensores subaquáticos com o uso de hub móvel por meio de AUVs e ROVs, permite a maximização da autonomia da rede, reduzindo de forma expressiva o consumo de energia para transmissão dos dados. Esta abordagem é principalmente viável quando empregada em aplicações em que o tempo de coleta dos dados não é crítico. REFERÊNCIAS [1]

[2] (a) [3]

[4]

[5]

[6]

[7] (b) Fig. 4. Relação da atenuação versus distância considerando a influência da temperatura ou a influência da profundidade.

[8]

VI. CONCLUSÃO E TRABALHOS FUTUROS Entre os desafios existentes no desenvolvimento de RSSF subaquáticas está a diversidade de variáveis envolvidas na comunicação acústica subaquática. Entre os elementos de maior relevância está o impacto da baixa taxa de transmissão e o impacto do meio na atenuação do sinal relacionado com a distância. Devido ao impacto da frequência do sinal, as bandas possíveis de se utilizar são de baixa capacidade. Uma solução adequada que vem se buscando é o uso de transmissores em múltiplas frequências, com envio de dados em paralelo. Também se considera neste caso o uso de redes multihop ou redes mesh. Neste cenário, futuros trabalhos podem focar na simulação e teste de diferentes arquiteturas de redes e o impacto dos protocolos quando aplicados a redes de múltiplos sensores. Portanto, a comunicação acústica é ainda o melhor caminho para a exploração e monitoramento subaquático, mas continua sendo um desafio considerável na estruturação de infraestrutura de pesquisa no país e na geração e acesso à base de dados para calibração de novos modelos. O emprego de redes reconfiguráveis com nós móveis é um dos atuais desafios, principalmente com o emprego de robôs autônomos. Portanto,

[9]

[10]

[11]

[12]

[13]

[14]

[15]

F. Hazin, B. M. Castro Filho, K. Sousa, Mar e Ambientes Costeiros – Relatório Final. Brasília, DF: Centro de Gestão e Estudos Estratégicos (CGEE), 2007. J. Leahy, “BRAZIL: Petrobras must jump hurdles in race to exploit presalt layer,” Financial Times. 2013. Disponível em: <http://www.ft.com/cms/s/0/bfa4af22-b0d5-11e2-9f2400144feabdc0.html#axzz2UrseTtol>. Acesso em: 20 de maio de 2013. G. Burrowes, J. Y. Khan, “Short-Range Underwater Acoustic Communication Networks,” Intech 2011. The University of Newcastle Australia. Disponível on-line em http://academia.edu/3069830/ShortRange_Underwater_Acoustic_Communication_Networks. Acesso: 10 de junho de 2013. F. Maurelli, Z. Saigol, C. C. Insaurralde, Y. R. Petillot,; D. M. Lane, “Marine world representation and acoustic communication: challenges for multi-robot collaboration,” In: Autonomous Underwater Vehicles (AUV), 2012 IEEE/OES, 2012, Southampton, IEEE, 2012. Trident. TRIDENT FP7 European Project. Disponível em: <http://www.irs.uji.es/trident/index.html>. Acesso em: 20 de maio de 2013. E. M. Sozer, M. Stojanovic, J. G. Proakis, “Underwater Acoustic Networks,” IEEE Journal of Oceanic Engineering, v. 25, n. 1, p.72-83, Jan. 2000. I. F. Akyildiz, W. Su, Y. Sankarasubramaniam, E. Cayirci, “A Survey on Sensor Networks,” In: IEEE Communications Magazine, v.40, n.8, p.102-114, Aug. 2002. J. Heidemann, W. Ye, J. Wills, A. Syed, Y. Li, “Research Challenges and Applications for Underwater Sensor Networking,” In: Proceedings of Wireless Communications and Networking Conference, 2006, Las Vegas, IEEE, 2006. R. Otnes, A. Asterjadhi, P. Casari, M. Goetz, T. Husøy, I. Nissen, K. Rimstad, P. Van Walree, M. Zorzi, “Underwater Acoustic Networking Techniques,” SpringerBriefs in Electrical and Computer Engineering, 2012. J. Kong, J. Cui, D. Wu, M. Gerla, “Building Underwater Ad-Hoc Networks And Sensor Networks For Large Scale Real-Time Aquatic Applications,” Military Communications Conference, 2005, Atlantic City, IEEE, 2005. M. E. Khan, F. Khan, “An Empirical Study of Underwater Acoustic Sensor Network and Terrestrial Wireless Network,” IJCSI International Journal of Computer Science Issues, v. 9, n. 1, Jan. 2012. J. Heidemann, M. Stojanovic, M. Zorzi, “Underwater sensor networks: applications, advances and challenges,” Philosophical Transactions of The Royal Society A, v. 370 n. 1958, p.158-175, Jan. 2012. S. Shin, N. Yun, H. Cho, J. Kim, J. Lee, I. A. Khan, S. Park, “The UMO (Underwater Moving Object) Firmware Design and Implementation based on Underwater Acoustic Communication,” Ninth IEEE/IFIP International Conference on Embedded and Ubiquitous Computing, 2011. J. Jeon, S. Hwangbo, H. Peyvandi, S. Park, “Design and Implementation of a Bidirectional Acoustic Micro-Modem for Underwater Communication Systems,” In: Proceedings of OCEANS, 2012, Hampton Roads, IEEE, 2012. J. G. Proakis, M. Salehi, Communication systems engineering, Prentice Hall, 2002. 2nd Ed.


[16] D. R. Hummeu, “The Capacity of a model for the underwater acoustic channel,” IEEE, Transactions on Sonics and Ultrasonics, vol. SU-19, no. 3, 1972, pp. 350-353. [17] T. J. Hayward, T. C. Yang, “Underwater Acoustic Communication Channel Capacity: A Simulation Study,” Proc. of AIP conference, vol. 728, 2004, pp. 114-124. [18] N, Srinivasan, Capacity of UW acoustic OFDM Cellular Networks, MS Thesis, 2008. [19] R. G. Gallager, Information Theory and Reliable Communication, New York: John Wiley and Sons, Inc., 1968. [20] R. Su, R. Venkatesan, C. Li, “Acoustic Propagation Properties of Underwater Communication Channels and their Influence on the

Medium Access Control Protocols,” In: Proceedings of IEEE ICC 2012 Wireless Networks Symposium, 2012, Ottawa, IEEE, 2012. [21] A. Sehgal, I. Tumar, J. Schönwälder, “Variability of Available Capacity due to the Effects of Depth and Temperature in the Underwater Acoustic Communication Channel,” In: Proceedings of OCEANS – EUROPE, 2009, Bremen, IEEE, 2009. [22] F. J. L. Ribeiro, Sistema de Monitoramento Subaquático para Exploração de Petróleo Usando Redes de Sensores Acústicos. Tese (Doutorado em Engenharia Elétrica). 99f. Programa de Pós-graduação em Engenharia Elétrica, COPPE, Universidade Federal do Rio de Janeiro (UFRJ), Rio de Janeiro, 2012. Disponível on-line em http://www.gta.ufrj.br/ftp/gta/TechReports/FabricioJorge12.pdf. Acesso: 12 de junho de 2013.


1 de 5

Proposta de Implantação de um Projeto de Rede Sem Fio de Acesso Público Utilizando Redes Mesh. Ismael. M. Macedo¹, Natanaelly. O. Almeida¹ e Guilherme. V. Medeiros¹. ¹Grupo de Pesquisa em Informática Aplicada, Campus de Canindé – Instituto Federal de Educação, Ciência e Tecnologia do Ceará, IFCE. E-mail: {ismaell.mm, natanaelly.oliveira, guilhermy.vm}@gmail.com Rodovia BR 020, km 303, Jubaia. CEP:62700-000. Canindé-CE. Telefone: (85) 3343.0572 Resumo – Os avanços tecnológicos para melhorar a distribuição do acesso à internet estão tornandoa cada vez mais barata e consequentemente mais popular, entretanto ela ainda não está disponível para todos. Este artigo apresenta o estudo feito sobre a viabilidade da implementação de um projeto de acesso à rede sem fio, utilizando a tecnologia redes mesh, de forma que viabilize o acesso publico e gratuito a internet banda larga em praças publicas. Abstract – Technological advances to improve the distribution of access to the internet advances are making it increasingly cheaper and thus more popular, yet it is not yet available to everyone. This paper presents a study on the feasibility of implementing a project for access to the wireless network using mesh network technology, so that makes possible the public and free broadband internet access in public squares band.

I.

INTRODUÇÃO

Atualmente é perceptível dentro de nossa sociedade a presença crescente da rede mundial de computadores (internet), uma vez constatada a grande quantidade de pessoas que buscam utilizar as funcionalidades por ela proporcionadas. Por oferecer essa gama de recursos e facilidades, é cada vez maior o numero de usuários, que direta ou indiretamente, acessam-na. Para atender a necessidade de quem precisa estar conectado, os meios de comunicação estão em constante evolução, tendo como principal foco a mobilidade. Mesmo com tantas mudanças no âmbito das telecomunicações, o acesso à internet de qualidade não é privilégio de todos.

Recentemente o Governo do Ceará criou o Cinturão Digital do Ceará (CDC), um projeto que visa levar aos órgãos públicos da região como escolas, instituições de ensino superior, delegacias, dentre outras, acesso a internet banda larga de qualidade por intermédio de uma rede óptica que passa por várias cidades do estado estabelecendo um anel ótico. Wireless Mesh Network, ou simplesmente redes mesh, trata-se de uma tecnologia com a capacidade de tornar os dispositivos dos usuários conectados propagadores do sinal, ou seja, fazendo-os transmissores da rede de acesso a internet, não sendo necessários grandes investimentos em equipamentos de radio difusão. Este trabalho argumenta sobre a viabilidade do uso do Cinturão Digital do Ceará em conjunto com as redes mesh para a possível criação de ambientes de acesso gratuito a internet que beneficiem a população em geral. Assim, o objetivo do presente trabalho é sugerir a implementação de um projeto de acesso à rede sem fio, utilizando a tecnologia de redes mesh, de forma que viabilize o acesso público e gratuito à internet banda larga em praças públicas, incentivando a inclusão digital com um orçamento de baixo custo. Para esse estudo foi utilizado como cenário de implementação, o município de Canindé, uma das muitas cidades beneficiadas pelo CDC. II. CINTURÃO DIGITAL DO CEARÁ – CDC O acesso à internet banda larga de qualidade possibilita a execução de um bom trabalho em


2 de 5

qualquer organização, seja ela pública ou privada. Contudo, para que se tenha esse tipo de acesso em regiões distantes das capitais, é preciso um alto investimento. Com o intuito de fornecer o acesso à internet através de uma rede segura para instituições pertencentes ao governo estadual, principalmente aquelas localizadas em regiões do interior do estado do Ceará, foi criado o CDC. O projeto CDC é uma iniciativa do Governo do Estado do Ceará, executada pela Empresa de Tecnologia da Informação do Ceará (ETICE), para prover internet de alta velocidade e com qualidade para 82% da população urbana do estado, chegando aos lugares mais remotos [3]. O projeto inicialmente, previa a implementação de uma infraestrutura de transporte de dados em alta velocidade por meio da instalação de 2.500 km de fibra óptica, meta essa já concluída. Hoje, 80% dos órgãos governamentais operam por meio do cinturão digital, o que gerou uma redução em média de R$11 milhões, só em 2010. Essa estrutura garante ao estado a possibilidade de promover a inclusão digital de grande parte dos cearenses, a diminuição dos preços da internet por meio da competição entre as empresas, além da redução dos gastos públicos [3]. Conforme [3], dentre os benefícios proporcionados pelo CDC estão: 1. Acesso rápido e prático a informações processuais – Uma mesma informação disponível em um dos pontos da rede estará disponível nos demais; 2. Telemedicina – Os médicos da capital podem realizar consultas em pacientes de regiões distantes sem a necessidade de deslocamento; 3. Boletins de ocorrência online – para evitar o abarrotamento nas delegacias para fazer um BO, o procedimento pode ser feito via web; 4. EAD – uso do CDC para implantação de centros de Ensino a Distância em áreas com poucas ofertas de cursos de capacitação para o mercado de trabalho. Ainda segundo [3], o CDC foi construído com pares de fibras extras, isso para que além de atender a população de baixa renda também seja possível sua utilização por empresas

privadas por meio de acordos e/ou leilões. Como elas utilizariam uma estrutura já montada para chegar às cidades interioranas, os preços cobrados pelos seus serviços seriam menores, incentivando o mercado da região a ser mais competitivo e de melhor qualidade.

Figura 1 – Mapa do Cinturão Digital do Ceará

III.

O PADRÃO IEEE 802.11

O padrão IEEE 802.11, popularmente conhecido como WI-FI, surgiu para solucionar os problemas de compatibilidade em redes sem fio. Desde então o padrão passou por várias melhorias no decorrer dos anos. Atualmente os principais padrões da família IEEE 802.11 são: 802.11a, 802.11b, 802.11g e 802.11n. A Tabela a seguir apresenta um resumo das principais características desses padrões. TABELA 1 - PADRÕES IEEE Padrão

Frequência

Técnica Modulação

802.11b

2,4 GHz

DSSS

802.11g

2,4 GHz

DSSS, OFDM

802.11a

5 GHz

OFDM

802.11n

2,4 e 5 GHz

MIMO, OFDM

Taxa de dados Até 11 Mbps Até 54 Mbps Até 54 Mbps Até 300 Mbps


3 de 5

Existem dois modos de operação no qual o padrão IEEE 802.11 atua: A) Modo infraestrutura Neste modo, há a figura de um equipamento central o Acess Point (AP) onde vários clientes se conectam para ter acesso a rede. Dessa forma, toda e qualquer informação que trafega pela rede, precisa passar pelo AP para chegar ao nó de destino, como mostra a Figura 2. Este tipo de rede é comumente utilizada em empresas para distribuição da rede interna.

de como esses nós estejam distribuídos geograficamente, o simples desconectar de um deles pode prejudicar todo um setor dessa rede, no entanto, a falta pode também ser facilmente contornada a partir de outra rota. As redes mesh, diferente da ad-hoc, são formadas por um conjunto de nós fixos, autoconfiguráveis, que podem ser utilizados para prover serviços em uma área extensa onde não seria possível utilizando um único AP. Um ou mais nós da rede podem atuar como gateway fornecendo o acesso dessas com a internet. A partir das redes mesh é possível criar uma rede ampla de fácil instalação, configuração e manutenção, podendo cobrir cidades inteiras com uma infraestrutura de comunicação sem fio como demonstra a Figura 4 [1].

Figura 2 – Rede em modo Infraestrutura

B) Modo ad-hoc No modo ad-hoc não existe a necessidade de um nó central, trata-se de uma conexão ponto a ponto. Os clientes conectam-se diretamente uns com os outros, como é ilustrado pela Figura 3, e cada um funciona como um roteador, encaminhando o tráfego dos nós mais próximos. Este tipo de rede é utilizado em locais onde não há uma estrutura de rede fixa e é preciso estabelecer uma conexão temporária.

Figura 3 - Rede em modo Ad-hoc IV.

REDES MESH

As redes ad-hoc, na grande maioria das vezes, são constituídas por nós moveis como notebooks dentre outros aparelhos com placas de rede wireless. Cada nó é responsável por receber e encaminhar pacotes na rede, o que os torna parte importante da estrutura. Dependendo

Figura 4 - Rede Mesh

V.

PROTOCOLOS DE ROTEAMENTO UTILIZADOS NAS REDES MESH

Os protocolos de roteamento atuantes nas redes mesh, trabalham com algoritmos de roteamento cooperativo. Esses protocolos podem ser definidos como: proativos, reativos e híbridos. 1. Os proativos realizam a atualização de suas tabelas de roteamento através da troca de mensagens continuamente, o que frequentemente pode causar overhead. Como exemplo podemos citar o OLSR, que de acordo com [1], é um dos mais utilizados atualmente, ele atua com roteamento por saltos, ou seja, cada nó usa suas informações locais para rotear pacotes, sua vantagem está em ter rotas imediatamente disponíveis quando necessária devido a sua natureza proativa. 2. Nos protocolos reativos, o endereço dos nós de destinos são descobertos sob


4 de 5

3.

demanda, ou seja, ele só troca mensagens de configuração quando há necessidade de enviar dados a um endereço desconhecido, tentando assim utilizar eficientemente recursos como energia e largura de banda. Como exemplo, podemos citar o AODV, um protocolo adaptativo a cenários de alta mobilidade, quando há necessidade de envio de pacotes a um nó destino que não consta em sua tabela de roteamento é dado início ao processo de descoberta de rotas [4]. Os híbridos unem as funcionalidades dos dois protocolos anteriores, aplicando-os em uma determinada parte da rede onde há um trafego considerável, fazendo a atualização periódica dos hosts que podem ser possíveis destinos, tentando manter assim uma tabela de roteamento atualizada e diminuindo a possiblidade de overhead. O Protocolo Zone Routing Protocol (ZRP), atua com abordagem proativa e reativa. Na primeira será preciso apenas o estabelecimento e manutenção de rotas para os nós mais próximos, já a segunda ficará responsável pelos nós mais distantes [1].

Destes protocolos o mais utilizado é o OLSR. Por ser um protocolo de uso livre e já ter apresentado bom funcionamento em alguns outros projetos.

VI.

POSSIVEL LOCAL PARA IMPLANTAÇÃO DO PROJETO

O município de Canindé situado no interior do estado do Ceará de acordo com o Instituto Brasileiro de Geografia e Estatísticas (IBGE) possui 76.439 habitantes, conhecida como a cidade da fé, é visitada por milhares de romeiros do santo padroeiro, São Francisco das Chagas, num período que vai de agosto a dezembro. O acesso ao Cinturão Digital em Canindé atualmente beneficia grupos limitados de munícipes, são eles: alunos e funcionários de escolas públicas estaduais, alunos e funcionários do Instituto Federal de Educação Ciência e Tecnologia do Ceará (IFCE) – Campus Canindé, funcionários públicos de alguns serviços da cidade como a delegacia e a ouvidoria do estado do Ceará. No entanto, não

existe nenhum projeto que beneficie os moradores. Se implantado o projeto, os moradores passariam a ter acesso à internet de qualidade gratuitamente. O local aqui considerado como ideal para implantação do projeto piloto é a praça Dr. Aramis. Localizada no centro da cidade, é comumente utilizada para eventos púbicos como shows e projetos sociais. Aos finais de semana serve de ponto de encontro e lazer para pessoas de todas as idades e classes. Outro fator que pode ser levado em consideração é a localização, pois esta se encontrar a poucos metros da escola profissionalizante Capelão Frei Orlando, onde há um link do CDC. VII.

LIGAÇÃO COM O CDC.

A praça, conforme demostra a Figura 5, está dividida em duas partes, em uma estão os bares e restaurantes (1ª parte) e na outra estão às áreas verdes (2ª parte). Para um atendimento balanceado em cada parte, seria sensata a instalação de duas antenas omini direcionais, que cobririam com sobra a área da praça. As antenas seriam configuradas na tecnologia mesh, nesse tipo de configuração não é necessário o uso de repetidores, visto que, cada nova antena que conectar-se à rede aumentará a área de abrangência do sinal de acordo com a potência de transmissão da mesma. Quando um novo usuário se conectar a rede estará conectado a todas as antenas que estiverem no alcance do seu dispositivo, logo, terá redundância caso aja alguma falha em um dos seus pontos de acesso. As quatro antenas Omni direcionais seriam conectadas diretamente a antena principal (link da escola profissional), funcionando como backbone de acesso. Os aparelhos responsáveis por formar o backbone não precisam ser de longo alcance, pois a rede se estendera de acordo com o numero de clientes. Quanto à rota escolhida para chegar até o gateway (já que o foco deste projeto é prover acesso à internet) dependerá do protocolo de roteamento escolhido. Existem protocolos que escolhem a melhor rota pela quantidade de saltos e outros que prezam o QoS (Quality of Service). Por se tratar de uma rede que pode vir a receber muitos usuários o protocolo mais indicado é aquele que escolhe o melhor enlace,


5 de 5

pois com muitos usuários há muitos saltos até que se chegue ao gateway o que pode vir a gerar uma conexão lenta.

Figura 5 – Modelo da estrutura do projeto

VIII.

IX.

Por ser aplicado em local Publico a concretização desta proposta de projeto, criara um ambiente que pode vir a ser palco de muitas pesquisas, tanto voltadas para as áreas tecnológicas como também nas áreas socioeconômica, cultural e etc.. Propomos como trabalhos futuros, o calculo para o dimensionamento da cobertura para a praça com as quatro antenas com base nas especificações dos equipamentos a serem instalados que atuariam como o backbone da rede, a viabilidade da ampliação do alcance da rede de forma que esta cubra os demais bairros de Canindé, e pesquisas relacionadas a cidade digital com redes mesh. REFERENCIAS

CONCLUSÃO

A inclusão digital é de suma importância para o bom desenvolvimento de uma região, seja ela qual for. A disponibilidade de acesso gratuito a internet incentiva a população em buscar fazer parte de uma sociedade atualizada e comunicativa. A aplicação do projeto mostra-se altamente viável, pois está localizado em uma região beneficiada por uma rede de qualidade proveniente do governo, geograficamente próximo do local indicado para a implantação do projeto, diminuindo a possibilidade de interferências e um baixo custo. Também podemos ressaltar a possibilidade da ampliação de tal área de abrangência de modo que o sinal de internet nesta rede possa ser direcionado para outros bairros através da instalação de equipamentos para aumento da “malha de acesso” através da tecnologia mesh. A área de cobertura da rede varia de acordo com o quantitativo de usuários conectados, uma vez que um dispositivo aumenta a área de abrangência desta. O dimensionamento inicial deve ser calculado de acordo com o equipamento a ser instalado no local. A disposição de acesso à internet de qualidade é uma faca de dois gumes podendo ser utilizada para boas e más finalidades, ficando nas mãos de quem a utiliza a escolha do que fazer. Projetos de incentivo ao bom uso da internet podem ser aplicados na região, com o intuito de melhor direcionar os usuários não só da rede pública.

TRABALHOS FUTUROS

[1]

[2]

[3]

[4]

[5]

ANTUNES, R. A.. “Instalação de uma Rede Mesh Metropolitana Utilizando o Padrão IEEE 802.11a e Implementação do Serviço Voip (WMAN-VOIP)”. 2012. 95 f. Dissertação (Mestrado) - Curso de Engenharia Eletrica, Universidade Estadual Paulista Julio de Mesquita Filho, Ilha Solteira, 2012. Disponível em: <http://www.feis.unesp.br/Home/departamento s/engenhariaeletrica/pos-graduacao/325dissertacao_rothschildalencastroantunes.pdf>. Acesso em: 05 abr. 2014. BRASIL. “Instituto Brasileiro de Geografia e Estatistica”. Ceará: Canindé. Disponível em: <http://cod.ibge.gov.br/234JP>. Acesso em: 08 abr. 2014. CARLOS, J.. “O Projeto”. 2013. Disponível em: <http://www.etice.ce.gov.br/index.php/oprojeto >. Acesso em: 10 abr. 2010. GOMES, R. L., JÚNIOR, W. M.; NASCIMENTO V. ; ABELÉM A. J. G.. “IEEE Latin America Transactions, Piscataway”, v. 7, n. 4, p. 454- 462, Agosto, 2009. GOOGLE “Earth”. Disponível em: <http://www.google.com.br/intl/ptBR/earth/>. Acesso em 20 jun. 2013.


Redes Definidas por Software – Um visão sobre o novo paradigma de redes

Abstract. The growth of the networks, with the increasing use of mobile devices and cloud services, has shown that the monolithic network architecture and its challenging management and maintenance no longer meets current needs, which has led the scientific community in search of new solutions to this problem. This article describes one of these solutions, the new network architecture known as Software Defined Networks, and its challenges. Resumo. O crescimento das redes, com o aumento do uso de dispositivos móveis e serviços na nuvem, têm mostrado que a arquitetura monolítica da rede e sua desafiadora administração e manutenção já não condizem com as necessidades atuais, o que tem levado a comunidade científica em busca de novas soluções para este problema. Este artigo descreve umas destas soluções, a nova arquitetura de rede conhecida como Redes Definidas por Software, e seus desafios.

1. As Redes Atuais As redes de telecomunicações, anteriormente vistas basicamente como tecnologias de transmissão e comutação abrangem atualmente uma estrutura muito maior, resultado este do desenvolvimento de novas tecnologias digitais e da crescente demanda pelos serviços disponibilizados na nuvem. Apesar do cenário geral de TI ter crescido muito nos últimos tempos crescimento este devido em grande parte à explosão de dispositivos móveis (smartphones, tablets, netbooks) e de serviços na nuvem - pouco foi desenvolvido em termos de novas arquiteturas de rede. Atender os requisitos e demandas do mercado se tornou virtualmente impossível com a arquitetura atual, o que tem ocasionado uma árdua missão aos administradores de rede de tentar contornar as limitações das redes, entre elas: 

Complexidade – A principal limitação hoje, pois para se adicionar ou mover algum dispositivo da rede, é necessário configurar múltiplos switches, routers, firewalls, portais de autenticação Web, além de atualizar a lista de controle de acesso – ACL (Access Control List), Vlan’s, QoS e outros protocolos, e também levar em conta o modelo e versão de software do equipamento. Políticas Inconsistentes - Com a complexidade citada, se torna muito difícil para a TI criar e administrar regras de acesso, segurança, QoS, e outras políticas, deixando geralmente as redes vulneráveis a ataques, não conformidades com regulamentações, entre outras consequências negativas.


 Incapacidade de atender a demanda (escalabilidade) - As redes não conseguem acompanhar a demanda crescente dos data centers, pois conforme a rede aumenta, mais complexa ela se torna.  Dependência dos fabricantes – Empresas e provedores de serviços estão sempre buscando fornecer novos serviços e capacidades de modo a atender de forma ágil as mudanças de negócios e demanda dos usuários. Além disto, a estrutura monolítica atual utilizada no tradicional modelo clienteservidor não mais condiz com a computação dinâmica e de grandes quantidades de dados dos grandes Data Centers atuais, o que tem levado a comunidade científica a buscar por novas soluções de rede. A seguir é possível ver algumas tendências que tem motivado esta procura por um novo paradigma de rede: 

Mudança nos padrões de tráfego – Diferente do antigo sistema cliente-servidor, as aplicações atuais precisam acessar diferentes bancos de dados em diferentes servidores. Além disto, os próprios usuários estão alterando o padrão de tráfego da rede, acessando dados e serviços de qualquer lugar, a qualquer hora e através dos dispositivos mais diversos. O consumo de TI - Há um grande aumento do uso de dispositivos móveis pessoais em redes corporativas, ao mesmo tempo em que a tecnologia atual se vê sobre grande pressão para atender toda esta crescente demanda de forma adequada e satisfatória. Crescimento da nuvem – Há uma busca pela agilidade ao se acessar aplicações, infraestrutura e outros recursos de TI na hora e local que se desejar. O último levantamento do Índice Global de Nuvem da Cisco prevê que o tráfego global em nuvem deverá crescer 4.5 vezes até 2017. Isso significa um pulo de 1.7 zettabytes (1021) para 5.3 zettabytes, onde 17% de todo este tráfego será alimentado por usuários finais navegando na internet, fazendo streaming de vídeos, usando ferramentas de colaboração, e dispositivos conectados que compõe a internet das coisas (COMPUTERWORLD, 2013). Big Data = Maior largura de banda – Para manejar grandes quantidades de dados se faz necessário um grande processamento paralelo por parte de milhares de servidores interconectados. Este crescimento de datasets tem levado a uma constante demanda adicional de capacidade de rede nos data centers. Os operadores e administradores encontram agora um grande desafio de manter estas redes escaláveis e conectáveis “any-to-any” sem o risco das mesmas se tornarem indisponíveis ou apresentarem falhas.

Na seção seguinte é apresentado o conceito de Redes Definidas por Software, seus princípios e sua abrangência, seguido pela primeira subseção onde é descrito o Controlador, peça essencial da SDN. Nas subseções posteriores são destacados seus desafios e suas premissas.

2. Redes Definidas por Software – SDN “O gerenciamento da rede é desafiador” (KIM; FEAMSTER, 2013). Este é um dos principais motivos pelos quais foram criadas as redes definidas por software: o rígido e complicado sistema monolítico atual das redes, uma arquitetura que carece de novos protocolos e mecanismos, de um diálogo padronizado entre equipamentos de rede e, sobretudo, uma réplica acelerada ao contexto dinâmico das redes de hoje. A frente do


desenvolvimento da SDN esta a Open Networking Foundation (ONF), um consórcio de indústrias sem fins lucrativos que vem liderando a padronização de elementos críticos que envolvem esta nova arquitetura, como o protocolo OpenFlow, o qual promove a estrutura de comunicação entre o plano de controle e o plano de dados em equipamentos suportados. Esta migração do controle, de fortemente vinculado a dispositivos individuais de rede para dispositivos computacionais acessíveis, permite que a infraestrutura inferior seja abstraída para aplicações e servidores de rede, os quais podem tratar a rede como uma entidade lógica ou virtual (OPEN NETWORKING FOUNDATION, 2012). A ONF define três características chave para a SDN:

Separação entre Plano de Controle / Plano de Dados: tornando a lógica de controle independente do hardware de roteamento facilita-se a implementação de novas aplicações e novos protocolos. “Em SDN, dispositivos de rede se tornam apenas dispositivos de roteamento de pacotes (Plano de dados), enquanto o “cérebro” ou a lógica de controle é implementada no Controlador (Plano de Controle)” (KIM; FEAMSTER, 2013).

Controle centralizado e visão da rede: administradores e operadores não precisam mais reconfigurar ou inserir novas regras em cada dispositivo da rede para alterar o comportamento da mesma, mas apenas determinar as configurações de roteamento do tráfego de uma única localização lógica conhecida como Controlador, que detém conhecimento global da rede (figura 1).

Programabilidade por aplicações externas: gerenciar a rede e seus dispositivos, introduzir novas ideias e protocolos se torna mais fácil e ágil através de um software programável. “A SDN também simplifica enormemente os próprios dispositivos de rede, já que eles não precisam mais compreender e processar milhares de padronizações de protocolos, mas simplesmente aceitar instruções dos Controladores SDN” (OPEN NETWORKING FOUNDATION, 2012).

Figura 1. Camadas SDN ( OPEN NETWORKING FOUNDATION, 2012)

O consórcio de indústrias que integram a ONF é composto não somente de fornecedores de hardware, mas também de grandes provedores de serviço, desenvolvedores de sistemas/aplicações, e fabricantes de software e computadores. Este envolvimento ajuda a garantir que o desenvolvimento da SDN vá ao encontro das necessidades de rede em cada segmento do mercado, entre eles: 

Instituições de ensino – o modelo centralizado e de controle automatizado da SDN suporta uma boa convergência de dados, voz e vídeo a qualquer momento


 

e em qualquer lugar, além de fornecer e gerenciar recursos de rede de acordo com perfis de usuários ou requerimentos de aplicações; Data Center’s – a SDN facilita a virtualização da rede, provendo grande escalabilidade no Data Center, migração automatizada de máquinas virtuais, forte integração com armazenamento, melhor utilização de servidores, baixo uso e otimização da largura de banda (bandwidth); Nuvem – utilizada para apoiar um ambiente de nuvem privado/híbrido, a SDN permite alocar recursos de rede de uma forma maleável, fornecendo rapidamente serviços de nuvem e transferência mais flexível para provedores externos; Operadoras e Provedores de Serviço – a rede definida por software oferece escalabilidade e automação necessária para implementar um modelo de computação TI-como-serviço (IT-as-a-Service), facilitando a prática de serviços customizados e sob demanda (on-demand).

2.1 O Controlador O Controlador pode ser visto como o cérebro de toda a estrutura SDN, é por ele que são autorizados os fluxos de dados e, consequentemente, os mesmos são encaminhados ou não. Ao autorizar um fluxo, o Controlador define a rota a ser utilizada e faz a programação destas informações nas tabelas de fluxos em cada um dos switches ao longo do caminho. A comunicação entre o Controlador e os switches utiliza um protocolo e API padronizados. (STALLINGS, 2013). Esta parte desacoplada do sistema tem sido comparada a um sistema operacional, no qual o Controlador fornece uma interface programável para a rede, e onde aplicativos podem ser criados para executar tarefas de gerenciamento e oferecer novas funcionalidades. Porém, para operar como um S.O. o Controlador necessita ao menos de duas interfaces: uma que permita se comunicar com os switches, chamada southbound e outra, northbound, responsável por apresentar uma API programável para o controle de rede e serviços ou aplicações de políticas de alto nível. A principal implementação southbound para comunicação entre o Controlador de rede e o hardware de encaminhamento é o protocolo OpenFlow, o qual caminha rumo a padronização pelos esforços da ONF. O OpenFlow permite um acesso direto e manipulável do plano de encaminhamento de dispositivos de rede como switches e roteadores, ambos físicos e virtuais. Nenhum outro protocolo padrão faz o que o OpenFlow faz, e um protocolo como este é necessário para mover o controle da rede para fora de switches de rede para um software de controle logicamente centralizado (OPEN NETWORKING FOUNDATION, 2012). Entre os principais controladores desenvolvidos atualmente neste protocolo destacam-se: POX, FloodLight, ovscontroller, FlowVisor. Até o momento, diferentes API’s northbound tem surgido e, devido a SDN ser ainda uma tecnologia muito nova, a ONF ainda esta estudando suas variações e suas diferenças a fim de conseguir padronizar uma API northbound. Em redes definidas por software, os dispositivos de roteamento baseados em OpenFlow pode se dividir em dois modelos: puro e híbrido, onde, o primeiro não possui nenhum tipo de controle nativo (necessitando de um controlador), e o segundo suporta tanto o modelo programável quanto o tradicional. Na arquitetura SDN, um switch realiza as seguintes funções (STALLINGS, 2013):


  

O switch encapsula e encaminha o primeiro pacote de um fluxo de dados para um Controlador SDN, habilitando o controlador a decidir se o fluxo deve ser inserido para a tabela de fluxos do switch. O switch encaminha pacotes que vão chegando para a porta apropriada baseado na tabela de fluxos. A tabela pode incluir informações de prioridade ditadas pelo Controlador. O switch pode derrubar pacotes em um fluxo específico, temporariamente ou permanentemente, conforme guiado pelo Controlador. O bloqueio de pacotes pode ser usado com propósitos de segurança, para evitar ataques ou como requisito de gerenciamento de tráfego.

Ao passar o controle do hardware dos dispositivos de rede para o Controlador, uma grande preocupação é quanto a escalabilidade e a performance. Estudos recentes em cima de várias implementações do Controlador OpenFlow (NOX-MT, Maestro, Beacon), conduzidos em uma grande rede emulada com 100,000 pontos e mais de 256 switches, descobriram que todos foram capazes de lidar com ao menos 50,000 novas requisições de fluxo por segundo em cada um dos cenários. Em uma máquina com oito núcleos de processamento, a implementação NOX-MT administrou 1.6 milhões de novas requisições de fluxo por segundo com uma tempo médio de resposta de 2 milissegundos. “Mais para frente, novos controladores em desenvolvimento como o McNettle estão sendo focados em poderosos servidores multi-núcleos e estão sendo projetados para atender grandes data centers (20 milhões de requisições por segundo e mais de 5000 switches) (MENDONÇA et al, 2013)”. Outro fator importante gira em torno da localização do Controlador, que consiste em determinar o melhor número de controladores e sua localização dentro da topologia da rede. Além disto, a forma como o controlador é projetado influencia enormemente na escalabilidade da rede. A seguir, serão mostrados diferentes métodos de controle em uma rede definida por software: 

Centralizado x Distribuído – Um controlador centralizado pode representar um único ponto para falha de toda uma rede, no entanto, o protocolo OpenFlow permite o uso de múltiplos controladores em um único switch, possibilitando desta forma, o uso de controladores de backup, que entram em operação caso de falha do Controlador principal;  Controle de granularidade – Em uma rede SDN, a sobrecarga é causada pelo tráfico entre o plano de Dados e o plano de Controle, e utilizando a granularidade baseada em pacotes, esta sobrecarga deve aumentar, já que o controlador deverá tomar uma decisão para cada pacote que chega. Quando controlando fluxos individuais é possível aplicar a decisão tomada para o primeiro pacote do fluxo para todos os pacotes subsequentes dentro do plano de dados. A sobrecarga deverá ser reduzida agrupando os fluxos juntos, como todo o tráfego entre dois hosts, e executando decisões de controle em fluxos agregados (MENDONÇA et al, 2013).  Políticas Reativas x Proativas – Em um controle reativo os elementos de encaminhamento devem consultar o Controlador a cada vez que uma decisão necessita ser tomada, assim como quando um novo fluxo de pacote chega a um switch. No caso de um controle por granularidade baseado em fluxo, haverá uma pequena redução no desempenho no primeiro pacote de cada novo fluxo enviado ao Controlador para tomada de decisão (encaminhar ou derrubar, por exemplo).


Após este primeiro pacote, os pacotes restantes dentro deste fluxo deverão seguir normalmente através do hardware de encaminhamento. Apesar de insignificante, este atraso, muitas vezes, pode ser tornar uma preocupação em casos onde o Controlador esta geograficamente distante ou se a maior parte dos fluxos for de vida curta (short-lived) como em fluxos de um único pacote. Isto ocasiona problemas de escalabilidade em redes maiores, já que a taxa de transferência do Controlador deve ser capaz de lidar com o volume de novas requisições de fluxo. Um modelo proativo seria transferir as regras de políticas do Controlador para os dispositivos de rede, particionando regras sobre uma hierarquia de switches, fazendo assim com que raramente o Controlador seja consultado sobre novos fluxos, mantendo o tráfego dentro do plano de dados. 2.2 Desafios da SDN As redes definidas por software têm sido vistas como uma das principais promessas em termos de simplificação de desenvolvimento e operação das redes, juntamente com uma queda de custos de manutenção das empresas e provedores de serviços de rede. A fase atual é de definição de padronizações, experimentações, testes, e uma lenta transição. Enquanto as empresas de hardware seguem fabricando equipamentos no padrão atual de redes, ao mesmo tempo alguns de seus produtos começam a vir com compatibilidade com o protocolo OpenFlow. No entanto ainda algumas questões ainda geram dúvidas e outros desafios ainda precisam ser superados, como os descritos a seguir: 2.2.1 Escalabilidade Uma preocupação quanto a SDN esta na sua escalabilidade, que se pode dividir em escalabilidade do Controlador e escalabilidade dos nós de rede. Na escalabilidade do Controlador, três desafios principais são encontrados, os quais são citados abaixo com possíveis soluções:  

Latência pela troca de informações entre nodos e um controlador – Uma infraestrutura distribuída ou peer-to-peer deve resolver este problema dividindo o fardo da comunicação com o Controlador; Comunicação entre Controladores – Redes de pacotes tradicionais não necessitam um controle de estado entre unidades da rede, pois cada nó de rede é autônomo seguindo apenas protocolos padrões de roteamento, necessitando assim pequeno conhecimento sobre seus vizinhos. Desta forma, na SDN pode ser necessário manter algum controle de estado entre sistemas a fim de garantir que em caso de falha, haja pouca ou nenhuma interrupção no serviço. Dentro de um ambiente puramente SDN, um único Controlador ou grupo de controladores deve prover serviços de plano de controle para um grande número de nós de encaminhamento de dados, permitindo assim uma ampla visão de todo o sistema de recursos de rede; Tamanho e operação da base de dados back-end do Controlador – Em ordem de atingir escalabilidade completa na SDN, uma nova forma de programação evolucionária será necessária. Em redes híbridas que possuem o modo tradicional de rede e o modelo SDN, um volume de solicitações pode ser atendido no nó da CPU, o que de outra forma seria enviado para o Controlador


para processamento. Isso deverá diminuir o tamanho da base de dados no Controlador, bem como reduzir a comunicação entre o mesmo e seus nós. 2.2.2 Segurança Sem dúvida, um dos aspectos mais importantes reside na segurança dos dados que são enviados e recebidos pela rede, e é em torno deste quesito que parecem se focar a maioria dos debates acerca do que a SDN tem a oferecer. Um grupo foi especialmente criado na ONF para estudar e analisar todos os aspectos relativos à segurança na SDN. Os Controladores são sem dúvida, um alvo em potencial de ataques maliciosos na arquitetura SDN, e na ausência de uma plataforma segura, é possível a um invasor se se passar pelo Controlador e conduzir atividades maliciosas. No entanto, tecnologias de segurança atuais como o TLS com autenticação mútua entre os controladores e seus switches podem reduzir estas ameaças. As atuais especificações do OpenFlow descrevem o uso do TLS como um recurso opcional e ainda não padronizado, porém, uma especificação completa de segurança para a interface controlador-switch deve ser definida para tornar a conexão segura e proteger os dados transmitidos através dela. Uma grande promessa de segurança da SDN é terminar ou tentar reduzir os ataques por negação de serviço (Denial of Service). Através do reconhecimento de padrões e de programação adequada do Controlador, um ataque pode ser rapidamente detectado. “Digite algumas poucas linhas em seu computador, e a rede que você esta controlando altera apropriadamente, enviando todo o tráfego DoS para um buraco negro”. (KASSNER, 2013). A arquitetura SDN suporta um sistema de monitoramento de segurança, análise e resposta altamente reativo. Da perspectiva de segurança a SDN pode suportar (SEZER et al, 2013): 

 

Análise Forense de Rede – Simplifica de forma rápida a identificação de ameaças adaptáveis e gerenciamento através de um ciclo de coleta de inteligência da rede, analisando, atualizando políticas, e então reprogramando para aperfeiçoar a experiência de rede. Alteração de Política de Segurança – Permite definir uma política de segurança e a implementar sobre todos elementos da infraestrutura, reduzindo a frequência de configurações errôneas ou políticas conflitantes através da rede. Inserção de Serviços de Segurança – Facilita a inserção de serviços de segurança onde aplicações como firewalls e sistemas de detecção de invasão (IDS) podem ser aplicados para tráfegos específicos, de acordo com as políticas da organização.

2.2.3 Interoperabilidade Para instalar toda uma nova infraestrutura de rede baseada na SDN, bastaria que todos elementos e dispositivos de rede fossem habilitados para esta nova tecnologia, no entanto, há milhares de redes suportando sistemas vitais e de negócios que não podem ser simplesmente removidos ou “desligadas”. Atualmente uma arquitetura completa SDN só pode ser aplicada em ambientes fechados, como data centers e universidades, devido muito ainda a não-padronização de aspectos relativos a SDN. Um maior desenvolvimento é necessário para alcançar uma infraestrutura híbrida da SDN, na qual o modelo atual, o modelo SDN, e nós de rede híbridos possam operar em harmonia. Tal interoperabilidade requer o suporte de um protocolo apropriado que introduza ao mesmo tempo os requerimentos para uma interface de


comunicação SDN e proveja compatibilidade de versões anteriores com tecnologias de plano de controle MPLS e de roteamento IP (SEZER et al, 2013).

3. Considerações Finais A SDN representa uma grande transformação na área de TI e sem dúvida traz benefícios visíveis e indubitavelmente necessários às redes atuais. Grandes empresas fabricantes de hardware precisam rapidamente se preparar a um novo mercado, antes inexistente, que começa a surgir: o de softwares que controlam redes. A administração ou manutenção da rede deixará de ser uma tarefa complicada e morosa, ficando mais ágil e eficaz. Técnicos e administradores de rede não mais terão que compreender diferentes linguagens proprietárias de cada fabricante de hardware e perder horas programando individualmente cada dispositivo de roteamento em suas redes. No entanto, uma mudança desta magnitude, traz também dúvidas e receios. Apenas com o passar do tempo, com a definição e padronização de protocolos e tecnologias relacionadas e muitos testes é que será possível se determinar todos os benefícios, bem como os riscos envolvidos na utilização das redes definidas por software.

Referencias ComputerWorld, Tráfego global na nuvem vai crescer 4.5 vezes até 2017, prevê a Cisco. (2013). Disponível em : http://computerworld.uol.com.br/telecom/2013/10/15 /trafego-global-na-nuvem-vai-crescer-4-5-vezes-ate-2017-preve-a-cisco/.Acesso em: 27 out. 2013. Kassner, Michael. (2013). Software Defined Network: How it affects network security. Disponível em: <http://www.techrepublic.com/blog/it-security/software-definednetworking-how-it-affects-network-security/>. Acesso em: 2 set. 2013. Kim, Hyojoon; Feamster, Nick. (2013). Improving Network Management with Software Defined Networking. Disponível em: <http://ieeexplore.ieee.org/xpl/article Details.jsp?arnumber=6461195>, Acesso em: 12 set. 2013. Mendonça, Marc et al. (2013). A Survey of Software-Defined Networking : Past, Present, and Future of Programmable Networks. Disponível em: <http://hal.inria.fr/docs/00/83/50/14/PDF/ bare_jrnl.pdf>. Acesso em: 30 ago. 2013. Open Network Foundation. (2012). Software Defined Networking: The New Norm for Networks. Disponível em: <https://www.opennetworking.org/images/stories/down loads/sdn-resources/white-papers/wp-sdn-newnorm.pdf>.Acesso em: 25 ago. 2013. Sezer, Sakir et al. (2013). Are we ready for SDN? Implementation Challenges for Software Defined Networks. Disponível em: <http://www.docstoc.com/docs/ 160293342/Are-We-Ready-for-SDN-Implementation-Challenges-for-SoftwareDefined-Networks>. Acesso em: 15 out. 2013. Stallings, William. (2013), Software-Defined Networks and Openflow. Disponível em: <http://www.cisco.com/web/about/ac123/ac147/archived_issues/ipj_161/161_sdn.html>. Acesso em: 25 set. 2013.



1 de 6

Aplicação de Esteganografia de Texto em Imagens com Demonstração de Diferenças Através de Histogramas Polycarpo Souza Neto¹, Allex S. Albuquerque ², Pedro V. L. Cavalcante ³, Francisco J. A. Aquino 4 Laboratório de Processamento de Sinais – Instituto Federal de Educação Ciência e Tecnologia (IFCE) Departamento de Telemática Campus Fortaleza: Av. Treze de Maio, 2081 - Benfica CEP: 60040-215 - Fortaleza ¹policarponeto.pn@gmail.com , ²allex.silveira.ce@gmail.com, ³pedrovitorl@gmail.com, 4 fcoalves_aq@ifce.edu.br

Resumo –Com o desenvolvimento tecnológico crescente, a necessidade de proporcionar um nível maior de segurança em devidas situações, faz-se cada vez mais preciso. Nos últimos anos, estudos passaram a visar o aperfeiçoamento de técnicas já existentes, além do direcionamento a criação de novas. Técnicas para a ocultação de informações são utilizadas desde os grandes impérios, no entanto a era digital e o surgimento dos arquivos digitalizados, como áudio, imagem e vídeo, requer a criações de aplicações digitais que supram a demanda. Esteganografia é a ciência ou arte de ocultar uma mensagem dentro de outra. Este trabalho apresenta uma técnica de esteganografia baseada na escrita de informações nos bits menos significativos de uma imagem (LSB). Por fim, também são comparadas as imagens e os histogramas destas, mostrando se há ou não diferenças perceptíveis entre a imagem inicial e a modificada.

Abstract - With the increacing tecnologic development, the need of provide a highter security level in each situation, is inscrescingly more necessary. In the last years, studies started to focus the improvment of tecnics already existent, besides the directioning to the criationing of new ones. Technics for hiding information are used since the big empires, however the digital age and the emergence of digital files, like sound, image and video, requires the creation of digital applications that supply the demands. Esteganography is the science or art of hiding a mesage inside another. This paper presents a technic of esteganography based in writting information in lest significativr bits of an image (LSB). At last, images and histograms are also compared, showing if there is or isn't perceptive differences in the inicial image and the one modified.

I. INTRODUÇÃO Transferir mensagens dos mais variados tipos é uma necessidade desde os tempos mais antigos. Muitas vezes temos a necessidade transferir mensagens secretas, e, para não ficar com receio de que estas sejam descobertas, aplicamos formas de seguranças diversas, como a criptografia e a esteganografia. A esteganografia é o estudo das técnicas de ocultação de mensagens por meio de camuflagem. Com o surgimento da internet, a evolução nas técnicas de esteganografia evoluiu, saindo do campo das técnicas rudimentares e passaram a possuir aplicações digitais. A intenção é que o conteúdo oculto não possa ser revelado, a não ser pelo receptor verdadeiro da mensagem. São conhecidas aplicações com arquivos de imagem, vídeo e áudio. Pra que as diferenças não sejam percebidas após o estágio de ocultação, essas mensagens são gravadas com o princípio da técnica LSB [1], que seria gravar nos bits menos significativos. Um erro muito frequente, é colocar que esteganografia é um ramo da criptografia, no entanto o certo é dizer que ambos são ramos da criptologia. Conceituando e de forma correta e diferenciando, criptografia é o estudo das técnicas pelas quais uma informação pode ser transformada da sua forma original ocultando seu significado de tal forma que só pode ser conhecida por seu destinatário, enquanto que a esteganografia oculta a mensagem em si [2]. II . ESTEGANOGRAFIA Esteganografia, palavra que vem do grego Estegano ou Steganós, que significa oculto [3]. A esteganografia é o estudo da ocultação de mensagens, sendo uma embutida em uma segunda informação ao qual nenhuma importância é conferida a esta, a não ser o fato de tornar-se “hospedeira” ao que realmente interessa. No estudo da esteganografia, é possível trabalhar com técnicas que envolvam texto, imagem, áudio e vídeo.


2 de 6 A esteganografia pode ser dividida em técnica e linguística. A primeira se refere a esconder a mensagem de forma física, algo como esconder uma mensagem numa tábua, usando uma cobertura de cera após escrevê-la, algo parecido com o que se fazia antigamente. Ao uso de spam e imagens damos o nome de esteganografia linguística, no qual propriedades são usadas para embutir a mensagem. A esteganografia é um estudo muito antigo, que permeia desde a época da Antiga Grécia, no qual mensageiros se diziam caçadores pra transportar a mensagem escondida nas entranhas de uma lebre [1]. Casos em que escravos tinham sua cabeça raspada e a mensagem era tatuada nelas [1]. Depois que crescesse o cabelo, o escravo viajaria na condição de mensageiro com a mensagem oculta no couro cabeludo. Outro exemplo de esteganografia na Grécia antiga era furar buracos em livros acima das letras que formavam a mensagem desejada [1]. Quando o destinatário recebesse o livro poderia ver através dos buracos acima das letras para construir a informação. Um dos métodos de escrita mais famosos é a escrita hieroglífica dos egípcios, conhecido como hieróglifo. Esse tipo de escrita era um dos métodos mais usados na ocultação de mensagem [1]. Quando um mensageiro era pego, o seu interceptador não fazia ideia do que e a mensagem podia ser entregue sem problemas ao destinatário. Outra técnica usa é de Micro-pontos [3][6]. Um Micro-ponto nada mais é do que a fotografia da mensagem secreta (enbedded data) que será entregue e é reduzida até caber em espaços imperceptíveis na mensagem de cobertura (cover-message) em que a informação secreta é inserida. Um exemplo dessa ocultação e colocar essa mensagem, a fotografia, no pingo de um “i”(Fig.2) ou num ponto final de uma frase.

Figura 1 – Aplicação de esteganografia em imagens (Fonte: PETITCOLAS; ANDERSON; KUHN, 1999).

Figura 2 – Mensagem com a técnica dos micro – pontos (Fonte: JASCONE, 2003). Atualmente outras técnicas são produzidas, no tocante a aplicações. Os usos de aplicações que gerenciam obras com marca d’água, dão um grande impulso no seguimento da proteção dos direitos autorais. O uso de aplicações com softwares possibilita que a técnica seja feita em variáveis tipos de mídia. III. APLICAÇÕES Com o surgimento da internet e do melhoramento nos processos de tecnologia da informação, indivíduos e softwares malintencionados buscam a todo instante ultrapassar barreiras de proteção contra a integridade, cópia e segurança de conteúdos. A produção de arquivos de mídia como composições de música, nos últimos anos passam por uma proteção de direitos autorais, reservando-a ao autor e passivo de registros e autorização para seu uso por segundos e terceiros. Como uma inovação ao controle de acessos, marcas são embutidas dentro da imagem do cartão do usuário e lidas impossibilitando a falsificação [3]. Na cópia em massa de DVDs e CDs, as fabricantes colocam proteções que impossibilitam a cópia indevida ou mesmo que em unidade para próprio consumo do arquivo de mídia [3]. IV. LSB E SUAS APLICAÇÕES Estas técnicas são feitas com base na modificação dos bits menos significativos ( LSB – Least Significant Bits). Em umas implementações básicas, estes pixels substituem o plano LSB inteiro com o stego-dado. Nos esquemas mais aperfeiçoados e sofisticados, dependendo da forma como foi implementado e dos recursos da visão do indivíduo observador, diferenças irrisórias ainda são permitidas. A inclusão do LSB simples, pode passar por processamento de imagens, inclusive por compressão em perda.


3 de 6 Técnica em LSB podem ser aplicadas a cada pixel de uma imagem codificada em 32 bits por pixel. Essas imagens possuem seus pixels codificados em 4 bytes. Essa codificação é uma para cada canal, um para o alpha, um para o red(vermelho), para o green(verde) e para o blue(azul). De forma segura pode selecionar o bit menos significativo em cada pixel para representar o bit a ser ocultado sem alterações visivelmente perceptíveis, ou seja, sem o aparato computacional a detecção não se faz possível. Essa técnica é muito usada no mascaramento de imagens. [8]. Uma das técnicas de esconder informações em imagens JPEG, usando o ruído, também partilha do conceito de bits menos significativo. Novamente são usados os bits menos significativos para guardar a imagem a ser ocultada. Isto faz com que a técnica seja uma ótima solução esteganográfica, uma vez que a imagem fica praticamente inalterada, principalmente reiterando a questão da visibilidade do observador comum. A ideia desta técnica é que as imagens JPEG sofrem redundância. Para cada componente da imagem a transformada do cosseno discreta é usada (Discrete Cosine Transform– DCT) para transformar blocos sucessivos de 8 x 8 pixels da imagem em 64 coeficientes DCT. Essa técnica diferentemente da primeira trabalha com domínio de frequência e não domínio espacial [7]. Existe uma infinidade de utilizações que podemos fazer com os bits menos significativos dos coeficientes DCT. Uma delas consiste em trocar esses bits pelos da mensagem. Testes do chi-quadrado (χ²) podem detectar diferenças entre as frequências dos coeficientes [7]. Uma possível aplicação se baseia em usar um gerador de números de forma randômica para seleção dos coeficientes. O resultado disso é que as percepções das diferenças por esse teste passam a não acontecer mais, assim mostrando a robustez do método. V. TÉCNICA PROPOSTA A técnica proposta é de aplicação de esteganografia em um conjunto texto e imagem, escondendo o texto dentro de uma imagem. Essa aplicação conta com o uso do bits menos significativos (LSB) de uma imagem. Para simplificar, vamos analisar uma imagem no formato "bmp" e em 256 tons de cinza. Neste trabalho a imagem analisada será a lena512.bmp (Fig.3). Uma imagem digital é composta por uma infinidade de pixels, cada pixel que é composto por 8 bits, esses 8 bits que formam 1

byte. Cada bit deve levar uma parte da informação de intensidade de cor do pixel, variação do preto ao branco.

Figura 3 – Lena em 256 tons de cinza (Fonte: Produzido pelo autor). O conjunto de bits, seja 0 ou 1, sendo que os bits menos significativos possuem um comportamento em média e variância muito parecidos com um ruído, o que nos leva a conclusão que se substituídos por bits com essas mesmas distorções, a imagem ficará aparentemente igual a original e os dados embutidos muito dificilmente serão achados. A mensagem que se deseja ocultar precisa ser quebrada em bits, esses bits que devem ser inseridos como o bit menos significativo de cada pixel. VI. RESULTADOS CONQUISTADOS Com a adoção dos conceitos estudados e da técnica proposta, conseguimos gerar uma aplicação e linguagem matemática, capaz de fazer esteganografia de textos em imagens. A aplicação funciona com a inserção de um texto, esse texto que será somado aos bits menos significativos desta, devolvendo no final do processo o mesmo texto somado a um texto adicional embutido no código, ambos no console do software matemático utilizado. A aplicação é capaz de exibir janelas gráficas que mostram todos os passos do processo, passando pela imagem original, a imagem dos bits menos significativos trabalhados, os bits após sua modificação e a imagem modificada. Depois da exibição das janelas gráficas, a aplicação mostra dois gráficos, chamados histogramas que são referentes as imagens originais e modificada. Um histograma é uma representação gráfica na qual um conjunto de dados é agrupado em


4 de 6 classes uniformes, representado por um retângulo cujo valores dispostos na horizontal são seu intervalo e na vertical a frequência com o qual estes aparecem na amostragem, no conjunto de dados(Fig 9 e 10). Por último, o software usa os dados dos dois histogramas e calcula valores para um terceiro gráfico (Fig. 11), este que simboliza a diferença entre as imagens inicial e final, que no nosso caso mostrou-se imperceptível a olho nu.

Figura 4 – Interface do software (Fonte: Produzido pelo autor).

Figura 7 -Bits menos significativos após modificação (Fonte: Produzido pelo autor). .

Figura 5 – Imagem original de trabalho (Fonte: Produzido pelo autor).

Figura 8 – Diferença entre as duas imagens (Fonte: Produzido pelo autor).

Figura 6- Bits menos significativos. (Fonte: Produzido pelo autor).

Figura 9 – Histograma da imagem original (Fonte: Produzido pelo autor). .


5 de 6

Figura 10 – Histograma da imagem modificada (Fonte: Produzido pelo autor).

Figura 14 – Escala aumentada da diferença (Fonte: Produzido pelo autor). . A imagem do console (Fig.13), mostra o resultado do texto informado na caixa do aplicativo, somado a um texto padrão e outros caracteres desprezíveis embutidos no código (1ª à 3ª linha) e abaixo a subtração entre os histogramas que mostra que a diferença é irrisória e pode ser considerada 0 (nula).

Figura 11 – Diferença de histogramas (Fonte: Produzido pelo autor).

Usando uma escala bem maior (Fig. 14) que a original, podemos perceber a diferença causada. Embora haja diferença, o fato de usar uma escala maior mostra quão pequena é esta e que não seria perceptível ao observador comum quando estiver livre de aparato computacional. CONCLUSÃO Neste artigo foi realizado o estudo sobre um dos ramos da criptologia, a esteganografia. O estudo dessa técnica possibilitou uma aplicação capaz de usar os bits menos significativos de uma imagem para guardar uma informação. O trabalho feito nesta aplicação torna complicada a descoberta da informação embutida por um usuário que não possua parte do código que possibilite a volta.

Figura 12 – Imagem modificada (Fonte: Produzido pelo autor).

Figura 13 – Resultado apresentado no console (Fonte: Produzido pelo autor).

Outra técnica de esteganografia já vem sendo propostas, como a filtragem e mascaramento. No entanto, essa técnica é bem mais propensa a detecção de informações, ao contrário da proposta aqui trabalha diretamente com a ocultação da mensagem, embora estas outras sejam ditas mais robustas. O trabalho realizado aqui teve como imagem de cobertura(cover – message) uma imagem em tom de cinza, pois técnicas como as de LSB não funcionam com tanta eficácia em imagens coloridas. O uso de imagens em tons de cinza dá- se justamente por que o uso de imagens coloridas gera artefatos que facilmente evidenciam que ali existe uma imagem oculta, facilitando também sua percepção e descoberta.


6 de 6 Tendo como base o estudo e as conclusões pelo qual determinados parâmetros foram adotados, podemos concluir que a percepção entre diferenças nas imagens é totalmente imperceptível aos olhos humanos, sendo necessário uso de advento computacional para isso, o que mostra a qualidade da implementação do software e o respeito a técnica com bits menos significativos. No tocante a melhoramentos, podemos colocar que um avanço seria de barreiras para o trabalho com imagens coloridas e também um melhoramento para que quando as imagens fossem convertidas de formato, parte da informação não viesse a ser perdida. AGRADECIMENTOS Os autores agradecem ao Instituo Federal de Educação Ciência e Tecnologia do Ceará (IFCE) pelo espaço cedido, do Laboratório de Processamento de Sinais (LPDS) e a Fundação Cearense de Apoio ao Desenvolvimento Científico e Tecnológico (FUNCAP), pelas bolsas de Iniciação Científica. Por último, levar em consideração os trabalhos anteriores desenvolvidos por Anderson Chaves e Bruno Sokal no tocante a criptografia de texto em aplicações semelhantes. REFERÊNCIAS [1] SIMPÓSIO BRASILEIRO SEGURANÇA DA INFORMAÇÃO E SISTEMAS COMPUTACIONAIS, 1., 2007, Rio de Janeiro. [Trabalhos apresentados]. Esteganografia e suas Aplicações, 49p. [2] TARDIVO FILHO, M.; HENRIQUES, M. A. A. Estudo sobre a Aplicação de Autômatos Celulares Caóticos em Criptografia. IV Encontro dos Alunos e Docentes do

Departamento de Engenharia de Computação e Automação Industrial - EADCA, v. CD-ROM, pp. 1–4, Abr. 2011. [3] JOSÉ PEREIRA, A. Esteganografia – Implementação de um software para ocultar mensagens criptografadas em imagens. Marília, 2009. [4] HSBC BANK BRASIL.Esteganografia digital esconde imagem dentro de arquivo. Disponível em:http://goo.gl/GNKfQD Acessado em: 02 de jun. de 2014. [5] MATOS FURTADO JÚNIOR, J; LUCENA TAVARES, E e NOGUEIRA FERREIRA FIRME, M. Esteganografia Digital. [Editorial]. Edufatima, v.3, n.1, 2012 . [6] LUÍS TAVARES JASCONE, F. Protótipo de Software para Ocultar Texto Criptografado em Imagens Digitais. Blumenau, 2003. [7] Provos, N. e Honeyman, P. Hide and Seek: na Introduction to Steganography. IEE SECURITY & PRIVACY, p. 32-44, maio 2003. [8] Fabien A. P. Petitcolas; Ross J. Anderson e Markus G. Kuhn. Information Hiding – A Survey. IEEE, p. 1062-1078, julho 1999.


Google Hacking para Ataques SQL Injection Amaury Walbert de Carvalho, Antonio Pires de Castro Júnior Faculdade de Tecnologia SENAI de Desenvolvimento Gerencial (FATESG) Rua 227-A, nº 95, St. Leste Universitário – CEP 74610-155 – Goiânia – GO – Brazil {amaurywalbert,apcastrojr}@gmail.com Resumo — O objetivo deste trabalho é apresentar um estudo sobre o Google Hacking e SQL Injection, alertando os administradores de sistemas web e profissionais de segurança da informação sobre os riscos da combinação dessas técnicas de detecção de falhas e exploração de vulnerabilidades. Um estudo de caso usando as ferramentas Google Dorks e SqlMap é descrito para mostrar a facilidade com que um atacante consegue ter acesso a informações sensíveis de uma organização através da detecção e exploração de falhas em sistemas web. Ao final, algumas medidas são apresentadas para minimizar os problemas causados por esse tipo de ataque. Palavras-chave — Google Hacking, SQL Injection, Segurança da Informação, Sistemas Web.

I. INTRODUÇÃO

A

segurança da informação tem se tornado assunto cada vez mais preocupante entre os administradores de sistemas web. Princípios de confidencialidade, integridade e disponibilidade devem ser abordados com muita cautela por qualquer organização que trata a informação como um ativo valioso, pois um ataque bem sucedido explorando falhas e ferindo esses princípios podem causar prejuízos imensuráveis. A Internet permite que diversos tipos de negócios aconteçam através de sistemas web, e as ferramentas de busca são aliadas no processo de divulgação dos produtos e serviços de uma organização. Essas mesmas ferramentas podem ser usadas por atacantes para descobrir falhas de segurança nos sistemas. Existem diversas técnicas usadas para esse propósito, uma delas é o Google Hacking. Exploradas de maneira correta, as falhas de segurança permitem que o atacante tenha acesso irrestrito à informações sensíveis de uma organização. De acordo com um levantamento feito pela OWASP [1], o maior número de incidentes de segurança em sistemas web no ano de 2013 foi através de injeção de códigos SQL em sistemas vulneráveis. Este método de exploração é conhecido como SQL Injection. O objetivo deste trabalho é chamar a atenção dos profissionais de segurança da informação e dos administradores de sistemas para as ameaças existentes. Atacantes estão combinando ferramentas do mecanismo de buscas do Google para identificar alvos, e explorando essas vulnerabilidades com ferramentas que fazem injeção de códigos SQL de forma automatizada para ter acesso a informações sensíveis. Na próxima seção, o leitor encontra um levantamento sobre a necessidade de proteção de sistemas informacionais. As seções 3 e 4 trazem um estudo sobre as técnicas de Google Hacking e SQL Injection, respectivamente. A seção 5 descreve um estudo de caso usando as ferramentas Google Dorks e

SqlMap para detecção de um alvo vulnerável, exploração e acesso a informações sensíveis de uma organização. II. LEVANTAMENTO LITERÁRIO Segurança da Informação Já há alguns anos a informação movimenta negócios pelo mundo todo e muitas organizações dependem exclusivamente da manipulação de informações para a geração de receita, e por consequência, manter sua existência e lucratividade. Para PMG Solutions [2] a informação se tornou uma mercadoria valiosa e é difícil observar qualquer processo de negócio que não trabalhe com informações. Como uma boa parte das informações sensíveis de uma organização estão sendo manipuladas por sistemas computacionais, indivíduos mal-intencionados podem se aproveitar de falhas nos sistemas para ter acesso a essas informações. Empresas são testadas a todo momento sobre aspectos relacionados à segurança da informação e os noticiários constantemente mostram casos de incidentes, geralmente provocados por hackers, que vão desde acessos indevidos a sistemas web até alterações em sistemas de banco de dados, com perdas de informações. O fato é que as brechas de segurança existem, sejam em sistemas automatizados ou provocadas por fatores humanos, e devem ser consideradas e tratadas. Para Ferreira [3] existem três principais atributos de qualidade que a informação deve ser submetida: integridade, confidencialidade e disponibilidade. Esses atributos formam os pilares da segurança da informação. Horton & Muage apud Alexandria [4] caracterizam esses pilares como Modelo CIA (Confidentiality, Integrity and Availability) e ressaltam a necessidade das empresas entenderem e avaliarem cada item do modelo e ainda destacam a importância da aplicação de efetivos métodos para proteger a informação usando pessoas, processos e tecnologias. Malandrin [5] defende a ideia de que uma organização deve adotar um Sistema de Gestão da Segurança da Informação (SGSI) e relaciona o Modelo CIA como propriedades essenciais sobre a informação da organização. Para este autor, essas propriedades são assim definidas: (1) Confidencialidade: a propriedade que a informação tem de que não será divulgada a entidades não autorizadas. Essa propriedade pode se referir ao conteúdo da informação ou a própria existência da informação. Controles de acesso ajudam a manutenção de confidencialidade da informação. (2) Integridade: a propriedade que a informação tem de não ser alterada por entidades não autorizadas. Essa propriedade também se refere tanto quanto ao conteúdo da informação como a sua origem. Controles existem para permitir a prevenção contra ataques a integridade ou a detecção de ataques que já aconteceram. (3)


Disponibilidade: a propriedade que a informação tem de que estará disponível para as entidades autorizadas. A indisponibilidade de uma informação é quase tão ruim quando a inexistência da informação. Para Horton & Muage apud Alexandria [4], a confidencialidade garante que uma empresa estabeleça vantagem competitiva na produção, no tempo de comercialização e até mesmo na confiança do cliente. Informações que são divulgadas sem a anuência da empresa passa uma impressão de falta de compromisso com o cliente e ainda permite que concorrentes possam avaliar os dados de determinado produto, como materiais, métodos e processos de fabricação. Todos esses fatores causam prejuízos financeiros. Em situações onde a confidencialidade não é fator crítico para a segurança da informação, como em alguns sistemas web de instituições públicas, onde o acesso à informação deve ser permitido e garantido, sem que isso cause prejuízo para a instituição, ainda assim, a integridade e a disponibilidade desses sistemas devem ser preservadas para o bom funcionamento e cumprimento dos objetivos da instituição [4]. Com o aumento considerável da preocupação com a segurança da informação, normas e padrões foram estabelecidos para que os interessados possam realizar procedimentos que diminuam os riscos de ataques contra seus sistemas, entre eles os sistemas web, um dos principais. No Brasil, existe a NBR ISO/IEC 27002, um código de prática para a segurança da informação baseado em normas internacionais e publicado pela ABNT (Associação Brasileira de Normas Técnicas). Essa norma é baseada nas melhores práticas de segurança da informação reconhecidas mundialmente e por sua constante revisão e atualização, deveria ser utilizada por todas as empresas. Para Franciscatto [6] a adoção da ISO/IEC 27002 garante, além da segurança da informação, uma correta comunicação entre fabricante e cliente, a proteção do consumidor e a eliminação de barreiras técnicas e comerciais. A Ferramenta de Buscas do Google A interface web da ferramenta de busca permite que a pesquisa possa ser realizada de modo muito simples. Um palavra, um termo ou uma frase pode ser passada como parâmetro para a ferramenta de busca, que realiza todo o processo descrito no tópico anterior até devolver apenas resultados relevantes. É comum que os usuários encontrem o que precisam apenas com um consulta simples, graças ao PageRank, muito embora a quantidade de resultados possa ser na ordem de milhares ou milhões. Porém, caso o usuário esteja buscando por algo muito específico, ele pode fazer uso dos operadores da ferramenta de busca para refinar sua pesquisa até o resultado ser preciso. Em um consulta simples, esses operadores da ferramenta de busca trabalham de forma transparente e sem a intervenção do usuário. Nesse caso alguns termos da pesquisa podem ser adicionados ou ignorados pela ferramenta de busca. Conhecendo o mecanismo de busca e seus operadores, é possível então realizar consultas complexas, porém muito mais refinadas e objetivas. Os principais operadores da ferramenta de busca são os operadores booleanos (AND, OR e NOT). Praticamente todos os motores de busca existentes na web hoje fazem uso desses operadores. Conhece-los fará com o que usuário passe a interagir de forma direta com a ferramenta de busca e possa realizar consultas de modo bem particular.

Combinados com caracteres especiais da ferramenta, a pesquisa se torna muito mais específica. Porém, o uso inadequado destes operadores podem alterar drasticamente os resultados que são retornados [7]. Para conhecer os operadores e saber como usá-los, leia Long [7]. III. GOOGLE HACKING As novas tecnologias surgem para facilitar a vida do ser humano, porém nem todos usam as ferramentas da maneira adequada. Usuários mal-intencionados podem usar um motor de busca para localizar informações que podem ser usadas para prejudicar outras pessoas. Toledo [8] mostra que existe uma quantidade expressiva de informações sensíveis que podem ser acessadas através de uma simples pesquisa no Google. O ato de explorar falhas em sistemas web ou localizar informações confidenciais usando a ferramenta de pesquisa do Google é chamado de Google Hacking. McGuffe [9] define Google Hacking como um conjunto de ferramentas e técnicas que podem ser combinadas ou usadas de forma isoladas para descobrir vulnerabilidades e problemas de segurança na Internet. Assim como os operadores avançados do Google permitem que usuários possam melhorar suas pesquisas e conseguir localizar um determinado conteúdo de forma rápida e precisa, usuários mal-intencionados podem usar os mesmos artifícios para identificar possíveis alvos para ataques. Profissionais de segurança da informação e usuários avançados dos sistemas web tentam identificar os tipos de consultas que podem resultar em busca por informações sensíveis. Exitem diversos catálogos disponíveis na internet que descrevem as principais técnicas usadas pelos praticantes do Google Hacking. A intenção é divulgar o máximo possível essas técnicas para que todos os responsáveis por administrar sistemas web possam conhecê-las e tentar evitar que os seus sistemas sejam explorados. A coletânea mais conhecida talvez seja o GHDB [10]. Criado originalmente por Johnny Long, autor do livro Google Hacking for Penetration Testers [7], o GHDB foi incorporado ao Exploit Database, e as técnicas de consulta usadas no Google Hacking passaram a ser conhecidas também como Google Dorks [10]. A partir de então os diversos softwares que fazem testes de intrusão podem usar o GHDB para aprimorar os testes e verificar se os sistemas estão vulneráveis a estes tipos de consultas. De acordo com o site Acunetix [11] os dorks disponíveis no GHDB podem identificar as seguintes tipos de dados: (1) Avisos e vulnerabilidades do servidor; (2) Mensagens de erro que contêm muita informação; (3) Arquivos contendo senhas; (4) Diretórios sensíveis; (5) Páginas que contêm portais de logon; (7) Páginas que permitem acesso à dispositivos de rede ou dados como logs de firewall. Os Google Dorks podem ser classificados em 14 categorias [10], o que facilita até mesmo a localização de um determinado dork dentro do GHDB. A maioria dos Google Dorks disponíveis no GHDB já não funcionam mais. Atualizações dos sistemas web e correções de falhas realizadas pelos seus administradores evitam que as informações sejam descobertas por esse tipo de técnica. Ao longo do tempo o próprio Google tem bloqueado algumas consultas por considerá-las maliciosas. Porém, um conhecimento avançado do mecanismo de busca e um pouco de paciência podem render aos usuários novos dorks.


Combinando os operadores lógicos, operadores avançados e tendo um alvo a ser direcionado, é possível que novas consultas possam resultar em dados sensíveis que ainda não tinham sido descobertos. Google Caching Os robôs de pesquisa do Google vasculham a internet para localizar o maior número de páginas e indexá-las à sua base de dados. Quando um usuário faz uma consulta, o motor de busca realiza uma pesquisa em sua base de dados e então retorna os resultados para esse usuário. Para tornar esse procedimento eficaz, o Google faz uma cópia de cada página que ele encontra, armazenando todas em seu cache. Ao visualizar o resultado de uma pesquisa, o usuário tem a opção de acessar diretamente o endereço real da página ou então pode optar por visualizar apenas uma versão da página que esteja no cache do Google [9]. Para Toledo [8], o uso de cache pode fazer com que um atacante recolha informações que estão disponíveis nas páginas sem mesmo fazer o acesso direto a elas. Neste caso, uma camada extra de segurança para o atacante é adicionada, uma vez que não é necessário estabelecer uma conexão direta com o servidor web de destino, e por isso, não ser rastreado. Long [7] alerta também sobre o uso do recurso de tradução oferecido pela ferramenta de busca. É possível usar o Google como um servidor proxy transparente através desse serviço de tradução. Quando uma página que está em outro idioma é exibida no resultado da pesquisa, um link para tradução da página é exibido ao lado do resultado. Ao clicar no link, o usuário é levado até uma cópia traduzida da página, hospedada nos servidores do Google. Com esse recurso, o usuário também pode visualizar o conteúdo de uma página, sem estabelecer uma conexão direta com o servidor da mesma. Todo o processo será realizado pelo Google, que funcionará como um intermediário entre o usuário e a página. Outro fator importante do uso do cache de páginas do Google é que informações sensíveis que foram disponibilizadas em sistemas web ainda podem estar no cache mesmo que os administradores tenham corrigido as falhas que outrora permitiam o acesso a esses dados. Como Evitar o Google Hacking? É praticamente impossível evitar o Google Hacking. Diariamente surgem novos dorks que exploram falhas de segurança e podem ser usados para levantar informações confidenciais ou dados sensíveis na internet. Billing [12] faz uma síntese sobre as técnicas que podem minimizar os efeitos desse tipo de ataque. Segundo os autores, os profissionais de segurança devem realizar os mesmos procedimentos necessários no tratamento de outras questões de segurança da informação. Nesse sentido, estabelecer uma política de segurança sólida, no que diz respeito aos tipos de informações que podem ser disponibilizadas na web é um fator fundamental. Outro ponto interessante é usar as mesmas técnicas do Google Hacking para explorar os seus próprios sistemas. Estar atentos aos novos dorks e testá-los contra os seus sites é uma maneira de verificar quais são as falhas que podem ser exploradas e com isso conseguir corrigir antes de um possível ataque efetivo. Caso as informações sensíveis sejam disponibilizadas por funcionários das empresas, cursos e

treinamento podem ser aplicados para que esses funcionários conheçam os riscos de uma informação veiculada na internet de maneira imprópria, Logo, as políticas de segurança devem ser aplicadas também à esses tipos de usuários. A partir do conhecimento das técnicas de Google Hacking, os administradores podem criar ferramentas automatizadas para testar continuamente seus sistemas. Existem também soluções prontas que fazem esse trabalho. Os Scanners de Vulnerabilidades Web já estão fazendo uso do GHDB e também de outras bibliotecas, para tentar identificar sistemas que podem estar divulgando informações sensíveis e passíveis de serem exploradas por técnicas de Google Hacking. IV. SQL INJECTION De acordo com um levantamento feito pela OWASP [1], o Structured Query Language Injection, ou SQL Injection, foi a técnica mais utilizada para ataques a aplicações web em 2013. Tentando explorar variáveis usadas pelas aplicações para acessar o banco de dados, o atacante pode conseguir inserir comandos SQL maliciosos e receber como retorno informações sensíveis diretamente do banco de dados, ou, em alguns casos, inserir comados do próprio sistema operacional. Esse tipo de ataque acontece principalmente em sites que disponibilizam formulários ou portais de login, onde o usuário deve interagir com o banco de dados através da aplicação web. Nos casos onde não há tratamento dos dados inseridos, é possível que o ataque aconteça. Um exemplo simples pode ser descrito a partir de uma página de login. Um usuário deve passar valores referentes ao login e senha para a aplicação web. A partir de comandos previamente definidos, a aplicação se comunica com o banco de dados para consultar os valores passados pelo usuário. A consulta é formada por comandos SQL combinados com as variáveis da aplicação, contendo os valores passados pelo usuário. Caso o ambiente descrito não tenha nenhum mecanismo para verificar os tipos de dados inseridos, outros comandos SQL podem ser inseridos nos campos de login e senha, e assim modificar a consulta ao banco de dados. Tudo o que o atacante precisa saber é um pouco dos comandos SQL e intuição para tentar adivinhar nomes usados pelos administradores do banco de dados para as tabelas e campos [11]. Na prática, um ataque de SQL Injection funcionaria da seguinte maneira: SELECT produto FROM tabela WHERE nomeproduto = ‘usuário insere nome do produto’; O comando acima irá retornar o campo produto de uma tabela onde os valores inseridos pelo usuário no campo correspondente ao nome do produto forem iguais aos valores mantidos no banco de dados. Os valores inseridos pelo usuário na aplicação web será usado para completar o comando SQL. Se um atacante insere os seguintes valores: teste‘ OR ‘x’ = ‘x a sintaxe da consulta passar a ser a seguinte: SELECT produto FROM tabela WHERE nomeproduto = ‘teste‘ OR ‘x’ = ‘x’ Com a injeção de caracteres que alteram o código SQL, a consulta irá retornar valores do campo produto onde o nome do produto for teste, ou onde x for igual a x. Como x é igual a x em qualquer situação, o teste lógico realizado pelo operador


OR irá retornar um resultado verdadeiro e todos os valores do campo produto serão listados. Caso um comando SELECT seja executado em uma loja online vulnerável a ataques de SQL Injection, é possível que um atacante consiga visualizar informações de clientes, como endereço, CPF, e até mesmo o número do cartão de crédito. Para Sadeghian [13], a flexibilidade da linguagem SQL permite que essa técnica de ataque possa ser usada com muita frequência nos dias atuais e por isso lojas online devem tomar cuidado com seus sistemas web, pois um ataque bem sucedido pode levar a empresa à falência. Já para OWASP [14], esse tipo de ataque ocorre porque em caso de sucesso, o atacante pode obter acesso completo ao banco de dados de um sistema, tornado-se um alvo atrativo. O autor também destaca que existem significativas vulnerabilidades SQL, o que não pode ser considerado aceitável, visto que é simples evitar que tais vulnerabilidades existam. Ferramentas para Ataques de SQL Injection SqlMap O SqlMap (http://sqlmap.sourceforge.net/) é uma poderosa ferramenta em linha de comando e de código aberto para a verificação de vulnerabilidades à ataques de SQL Injection em sistemas web. Com essa ferramenta é possível automatizar o processo de detecção e exploração dessas vulnerabilidades pois ela possui um mecanismo de detecção com várias funções e oferece suporte aos principais Sistemas Gerenciadores de Bancos de Dados (SGBDs). Tais características fazem do SqlMap uma ferramenta essencial para que profissionais de segurança da informação possam realizar testes de intrusão [15]. Uma vez que as vulnerabilidades foram identificadas, a ferramenta permite que o usuário consiga recuperar várias informações do banco de dados, tais como sessões, nomes de usuário e hashes de senha, tabelas, colunas, e toda a estrutura do banco de dados. A ferramenta ainda consegue identificar padrões dos hashes de senhas e oferece suporte para quebrá-los, usando ataque de força bruta baseado em dicionário [15]. De acordo com o trabalho publicado por Ciampa et. al [16], o SqlMap implementa três técnicas diferentes para explorar vulnerabilidades de injeção SQL: (1) Inferencial: a ferramenta anexa, para um determinado parâmetro no pedido HTTP, uma instrução SQL SELECT sintaticamente válida. Para cada resposta HTTP, a ferramenta determina o valor da declaração de saída, analisando-o caractere por caractere, sendo possível avaliar o comportamento do sistema web. (2) Consulta UNION (inband): a ferramenta anexa, para o parâmetro de destino no pedido HTTP, uma instrução SQL sintaticamente válida começando com um “UNION ALL SELECT”. (3) Suporte a Consultas Batched (stacted): a ferramenta testa se a aplicação web oferece suporte a consultas empilhadas, ou seja, se o SGBD aceita uma sequência de instruções SQL separadas por um “ ; ”. Google Dorks Quando não há tratamentos dos dados de entrada para um banco de dados SQL através de um sistema web, é possível que haja a possibilidade de injetar códigos maliciosos. Caso o sistema web não tenha nenhum mecanismo de verificação dos

dados de entrada e a consulta seja executada no banco de dados, isso pode dar origem a um novo problema, que são as mensagens de erro. Essas mensagens geradas pelo banco de dados podem conter informações sensíveis sobre o SGBD. Nesse caso, além do tratamento dos dados de entrada, o administrador do banco de dados também deve se preocupar com as mensagem exibidas no retorno de uma consulta. Dependendo da mensagem exibida, o atacante consegue identificar se aquele sistema está vulnerável ou não a ataques de SQL Injection. Uma maneira de identificar sites que possuem variáveis dinâmicas, ou seja, variáveis que recebem os valores passados pelo usuário para formar a consulta a um banco de dados, é utilizar alguns operadores avançados do Google. Qualquer usuário pode montar um Google Dork para esse tipo de pesquisa. Vários sites na internet disponibilizam listas de Google Dorks que identificam variáveis dinâmicas, o que facilita a busca por um alvo. Depois de realizar a pesquisa, o atacante terá uma lista de sites específicos para começar a verificar quais deles retornam mensagens que podem ser usadas para um ataque de SQL Injection. Evitando os Ataques Propor uma solução única para os ataques de SQL Injection é muito difícil por causa da flexibilidade da linguagem SQL. Sadeghian [13] propõem dois modelos que devem ser usados em paralelo: Consultas Parametrizadas e Configuração Inteligente do Sistema Gerenciador de Banco de Dados. As Consultas Parametrizadas são usadas pelo desenvolvedor no momento da codificação. Espaços devem ser reservados nas consultas SQL para receberem os valores das variáveis. As instruções SQL são executadas sem as variáveis e depois com elas. Assim, mesmo que um atacante passe comandos SQL, estes serão tratados apenas como strings normais. A Configuração Inteligente do SGBD, sugere que sejam criados usuários diferentes e com privilégios restritos para cada um. O administrador pode conceder privilégios para certas páginas de apenas consulta. Nesse caso um atacante apenas conseguirá usar o comando SELECT, excluindo a possibilidade de alteração do banco de dados, o que não isenta a possibilidade de visualização do conteúdo armazenado. Outro método empregado para diminuir os problemas com SQL Injection é tratar os valores de entrada para que as variáveis do sistema web não considere valores que representem um código SQL malicioso. Controlar o tamanho de uma determinada variável e eliminar caracteres especiais usados pelo banco de dados são exemplos de como tentar tratar esses valores. Ataque de SQL Injection têm impacto direto na integridade e confidencialidade da informação, causando enormes prejuízos para o negócio de qualquer instituição. O ideal é que os administradores de banco de dados e os desenvolvedores dos sistemas web consigam combinar os métodos e técnicas de prevenção para que os riscos de um ataque bem sucedido sejam minimizados. V. ESTUDO DE CASO Este estudo de caso foi desenvolvido com o propósito de mostrar ao leitor como é simples o uso das técnicas de Google Hacking para detectar um alvo de ataque e conseguir acesso a


banco de dados através de falhas de segurança em sistemas web com variáveis dinâmicas que permitem o uso de SQL Injection. Primeiramente definimos um escopo para o teste de detecção de sistemas web vulneráveis a SQL Injection. Restringimos a consulta utilizando os operadores avançados do Google para formar um dork específico para este estudo de caso. Escolhemos pesquisar apenas sistemas web com variáveis dinâmicas que estão no domínio edu.br. O Goole Dork ficou assim: inurl:"php?id=" site:edu.br O operador inrul irá restringir os resultados à apenas sites que contenham em sua url o valor "php?id=", nesse caso, sistemas que usam variáveis dinâmicas passadas como parâmetro para formar a consulta que será executa no banco de dados. O operador site irá retornar resultados apenas no domínio "edu.br". A pesquisa retornou cerca de 113.000 páginas. O próximo passo é identificar uma página que seja vulnerável a ataques de SQL Injection. Para isso, digitamos um apóstrofo ao final do endereço da página, que é onde a variável do sistema recebe os parâmetros necessários para a consulta ao banco de dados. Caso o sistema web interprete o apóstrofo, uma mensagem de erro de sintaxe SQL é mostrada, apontando que o sistema web não faz o tratamento adequado do conteúdo das variáveis que são passadas ao SGBD. Caso o sistema não seja vulnerável, o apóstrofo será ignorado e a página será exibida sem nenhum problema. A Figura 1 mostra um exemplo de um sistema web vulnerável.

A opção -D do comando, indica o banco de dados a ser explorado e a opção --tables indica que devem ser mostradas as tabelas existentes nesse banco. O procedimento de análise da estrutura de um banco de dados pode prosseguir para as colunas de uma tabela e até mesmo para os valores armazenados nessas colunas. A ferramenta SqlMap é completa nesse sentido. Além de permitir que seja feito uma cópia da estrutura do banco de dados e do próprio conteúdo do banco, a ferramenta ainda consegue identificar colunas que armazenam hashes de senhas, possuindo a opção de tentar descobrir a senha por ataque de força bruta a partir de um dicionário de senhas da própria ferramenta ou por valores e dicionários passados pelo atacante. O comando usado para esse tipo de procedimento é mostrado a seguir: sqlmap -u http://siteexemplo.edu.br/popUpVisualizar .php?id=49557 -D database_exemplo -T usuario --columns --dump As opções do comando indicam uma tabela a ser explorada (-T), a estrutura de colunas (--column) e o despejo (--dump), ou cópia, da estrutura e do conteúdo da tabela para o dispositivo do atacante. A Figura 2 mostra o resultado da sequencia dos comandos anteriores e a Figura 3 mostra a ferramenta SqlMap descobrindo as senhas a partir do hash.

Figura 1: Mensagem de Erro do SGBD Após identificar o alvo, o atacante pode usar a ferramenta SqlMap para automatizar o processo de injeção de código SQL e ter acesso ao banco de dados. A ferramenta utiliza vários métodos de SQL Injection para explorar a vulnerabilidade existente. O comando usado para iniciar o processo de exploração da falha é mostrado a seguir: sqlmap -u http://siteexemplo.edu.br/popUpVisualizar .php?id=49557 --dbs --random-agent –ignore-proxy As opções do comando servem para indicar a url a ser explorada (-u), identificar o SGBD e os bancos de dados existentes (--dbs), usar cabeçalhos de requisições HTTP de diferentes navegadores de forma aleatória (--random-agent) e ignorar conexões com proxy (--ignore-proxy). Neste ponto o atacante já tem acesso ao SGBD do alvo e é possível identificar softwares que ali estão instalados (Servidor Web e SGBD), quantidade e os nomes do bancos de dados. Para descobrir a estrutura de um dos bancos o atacante pode usar mais opções da ferramenta SqlMap. O código a seguir explora um banco de dados a fim de mostrar a estrutura de tabelas: sqlmap -u http://siteexemplo.edu.br/popUpVisualizar .php?id=49557 -D database_exemplo --tables

Figura 2: Tabelas Detectadas

Figura 3: Descoberta de Senhas a partir do Hash


VI. CONSIDERAÇÕES FINAIS Normas específicas, como a ISO/IEC 27002, estão disponíveis para auxiliar no processo de elaboração e manutenção de uma política que mantenha os pilares da segurança da informação. Avaliar o tipo de informação que pode ser veiculada em sistemas web também faz parte do processo de segurança, porém, no caso de ataques utilizando as técnicas descritas nesse trabalho, outros mecanismos de defesa devem ser adotados e colocados em prática. Ataques de SQL Injection acontecem por negligência dos profissionais responsáveis pela implantação e manutenção do sistema ou por falhas nos softwares de terceiros adotados pela organização. De qualquer modo, a passagem de parâmetros em um sistema web deve ser testada a fim de detectar códigos inseridos pelo usuário, que podem comprometer o banco de dados. Da mesma forma, a saída gerada pelo banco de dados pode conter informações sensíveis e também deve ser verificada. A construção de um sistema web pautado por tipos de consultas parametrizadas e a configuração inteligente de um SGBD são recomendadas. No caso do Google Hacking, a recomendação é que os responsáveis pelo sistema web analise periodicamente os dorks existentes e aplique a técnica em seu próprio sistema para verificar que tipos de informações podem ser extraídas. Vários softwares de testes de vulnerabilidade já estão adotando os bancos de dados de dorks disponíveis na Internet para realizar uma verificação completa e identificar quais sistemas estão divulgando informações sensíveis e quais deles podem ser explorados pelas técnicas de SQL Injection. REFERÊNCIAS BIBLIOGRÁFICAS [1] Top 10 2013 - OWASP. Open Web Application Security Project. Disponível em: <https://www.owasp.org/index.php/Top_10_2013-Top_10> Acesso em: 10 Mai. 2014. [2] ISO/IEC 27002: Fundamentos. PMG Solutions. Manual de Treinamento. 2011. Disponível em: <http://www.pmgeducation.com.br/demo/e-book_ISO_IEC_27 002_Online_DEMO.pdf> Acesso em: 20 Mai. 2014. [3] FERREIRA, Fernando Nicolau Freitas. Segurança Da Informação. 1a. ed. 176p. Editora Ciência Moderna, 2003. [4] ALEXANDRIA, João Carlos Soares de. GESTÃO DA SEGURANÇA DA INFORMAÇÃO – Uma Proposta Para Potencializar a Efetividade da Segurança da Informação em Ambiente de Pesquisa Científica. Tese (Doutorado) Instituto de Pesquisas Energéticas e Nucleares. Universidade de São Paulo, São Paulo, 2009. [5] MALANDRIN, L. J. A. A. Modelo de Suporte a Políticas e Gestão de Riscos de Segurança Voltado à Terceirização de TIC, Computação em Nuvem e Mobilidade. Dissertação (Mestrado) - Departamento de Engenharia de Computação e Sistemas Digitais. Escola Politécnica da Universidade de São Paulo. São Paulo, 2013. [6] FRANCISCATTO, Roberto. Notas de Aula: Aula 2 - ISO 27002. Especialização em Gestão de TI. Universidade Federal de Santa Maria, 2013. Disponível em: <http://www.cafw.ufsm.br/~roberto/trabalhos/aulas/Aula %202%20-%20ISO-IEC%2027002.pdf> Acesso em: 28 Abr. 2014.

[7] Long, J. Google Hacking for Penetration Testers, Volume 2. Syngress Publishing - Elsevier, 2008. [8] Toledo, A. S. d. O. and Moraes, S. H. d. Google hacking. Pós em Revista, (6):358–367, 2012. [9] McGuffee, J. W. and Hanebutte, N. Google hacking as a general education tool. J. Comput. Sci. Coll., 28(4):81–85, 2013. [10] Google Hacking Database, GHDB, Google Dorks. Exploit Database. Disponível em: <http://www.exploit-db.com/google-dorks/> Acesso em: 29 Abr. 2014. [11] What is Google Hacking? Acunetix. Disponível em: <https://www.acunetix.com/websitesecurity/google-hacking/> Acesso em: 29 Abr. 2014. [12] Billig, J., Danilchenko, Y., and Frank, C. E. Evaluation of google hacking. In Proceedings of the 5th Annual Conference on Information Security Curriculum Development, InfoSecCD’08, pages 27–32, New York, NY, USA. ACM, 2008. [13] Sadeghian, A., Zamani, M., and Ibrahim, S. Sql injection is still alive: A study on sql injection signature evasion techniques. In Informatics and Creative Multimedia (ICICM), 2013 International Conference on, pages 265–268, 2013a. [14] SQL Injection - OWASP. Open Web Application Security Project. Disponível em: <https://www.owasp.org/index.php/SQL_Injection> Acesso em: 10 Mai. 2014. [15] Sqlmap: Automatic SQL injection and database takeover tool. Sqlmap. Disponível em: <http://sqlmap.org/> acesso em: 10 Mai. 2014. [16] Ciampa, A., Visaggio, C. A., and Di Penta, M. A heuristic-based approach for detecting sql-injection vulnerabilities in web applications. In Proceedings of the 2010 ICSE Workshop on Software Engineering for Secure Systems, SESS’10, pages 43–49, New York, NY, USA. ACM, 2010.


Modelo de gestão de fundos públicos Transferências no SICONV Luiz Lustosa Vieira Dr Ministério do Planejamento Universidade de Brasília Luiz.vieira@planejamento.gov.br

Ilka Massue Sabino Kawashita, MSc Ministério do Planejamento ilka.kawashita@planejamento.gov.br

Antonio de Aguiar Neto Ministério do Planejamento antonio.aguiar@planejamento.gov.br

Abstract This article consolidates the efforts of the Information Systems Research Group for the construction of a reference model for the management of agreements celebrated based on the Brazilian federal governments voluntary funds transfers. It presents the Reference Model for covenants processes, which is the product of the 3rd phase of this research project. This model will be used as reference in the 4th phase of this project, when it will be applied to a sample of convenants. Experience gained in this step will allow the consolidation of the Reference Model. An important contribution of this work is to facilitate the understanding of proposals, so processes analyzed can be improved and redesigned. Processes information, from organization to details of each activity, can then be disseminated to all interested parties. Results here presented are not final. They will serve as input to the next stage of the project, which is the Assessment of the Reference Model by selected Stadual and Municipal governments. Each entity will contribute with its own perspective to improve the idealized model. Keywords: Transparency in government, new technologies and public policies, government, information systems, e-Government, governance;

Resumo Este artigo consolida os esforços do Grupo de pesquisa de Sistemas de informação para a construção de um modelo de referência para a gestão de convênios celebrados com base nos recursos oriundos das Transferências Voluntárias. Aqui está consolidado o produto Modelo de Referência para Avaliação dos Processos dos Convenentes, previsto para a 3ª etapa do projeto de pesquisa. Esse modelo será tomado como referência para a 4ª. etapa do projeto, quando será submetido à realidade de alguns convenentes selecionados por amostragem. A experiência obtida nessa próxima etapa permitira a consolidação do Modelo de Referência. Uma importante contribuição deste instrumento é facilitar o entendimento das propostas para a melhoria dos processos aqui abordados, disponibilizando a todos os interessados as informações referentes aos processos redesenhados, desde a organização até o detalhamento das atividades de cada um desses processos. Os resultados aqui apresentados não possuem um caráter finalístico. Ao contrário disto, pretendem orientar a próxima etapa do projeto que é a Aferição do Modelo de Referência junto a um conjunto de Estados e Municípios que, com suas respectivas experiências, poderão contribuir com o Modelo ora idealizado.

Palavras Chave: Transparência no governo, novas tecnologias e políticas publicas, Governo, Sistemas de informação, eGoverno;

1. Introdução O Ministério do Planejamento visando facilitar o acesso aos recursos disponibilizados Geral da União por meio das “Transferências Voluntárias” destacou com base em relacionados ao tema, uma determinante prioritária do êxito dos interessados nos acesso aos recursos das Transferências Voluntárias - a capacidade e organização realização das atividades necessárias à habilitação. Quanto mais bem preparado agente, maior a quantidade de recursos a que tiveram acesso.

pelo Orçamento estudos prévios seus pleitos de dos agentes na e organizado o

Neste sentido, uma política de distribuição mais adequada e com menores riscos de insucesso nos resultados passa necessariamente pelo aperfeiçoamento dos agentes tanto nos procedimentos para captação dos recursos como de sua capacidade de gestão dos Projetos que lhes forem delegados. A estratégia do Ministério neste segmento está calcada nas seguintes diretrizes: a) Consolidação das experiências exitosas em um modelo para o “Processo de Transferência Voluntárias” que servirá como referência;


b) Produção de uma metodologia que permita aos agentes interessado identificação abrangente e objetiva de suas capacidades, deficiências e focos prioritários de aperfeiçoamento; c) Levantamento de dados junto a agentes escolhidos como amostra, referente à sua forma de atuação no que diz respeito ao Processo de Transferências Voluntárias, utilizando a referida metodologia e analise comparativa em relação ao “Modelo de Referência”, ambos citados acima; d) Determinação, com base nestes levantamentos, das orientações necessárias, possíveis planos de cooperação do Mistério do Planejamento junto aos estados e municípios, visando o aperfeiçoamento do processo no âmbito do Município ou Estado. 1.1. Objetivo Este artigo descreve os resultados obtidos na idealização de um Modelo para o Processo de Transferências Voluntárias que será adotado como referência para avaliação das práticas adotadas pelos convenentes, conforme referido na diretriz “a” do item anterior (Motivação do Projeto). Buscou-se com este artigo consolidar o entendimento do grupo de trabalho, que contou com a colaboração dos Ministérios do Turismo, do Desenvolvimento Social e do Planejamento no papel de concedentes, com também do Governo do Estado de Pernambuco no papel de convenente, sobre quais são as melhores práticas que devem ser observadas no processo de transferências voluntárias. Assim, chegou-se ao modelo ora apresentado que, no âmbito do projeto, denominou-se “Modelo de Referência Idealizado”, que caracteriza o esforço obtido com a finalização da Etapa 3 do projeto – Construção de um Modelo de Referência para Gestão de Convênios. Assim, o objetivo do “Modelo de Referência Idealizado” é servir de parâmetro para orientar os trabalhos que serão desenvolvidos na Etapa 4 do projeto – Aferição do Modelo de Referência – quando serão visitados 3 estados e 5 municípios para verificar a efetividade do modelo idealizado como parâmetro de avaliação das práticas relacionadas às transferências voluntárias adotadas pelos convenentes. Por isso o nível de detalhamento apresentado no “Modelo de Referência Idealizado” é aquele que foi julgado suficiente para realização dos trabalhos da Etapa 4 do projeto. Ao final da Etapa 4, a equipe do projeto terá colhido os insumos que permitirão evoluir o “Modelo de Referência Idealizado” para um nível superior de maturidade, que será o “Modelo de Referência Consolidado”. Esse último consistirá o produto final que será disponibilizado para os convenentes e, por isso, apresentará um maior nível de detalhamento das atividades que o compõem. A metodologia Business Process Improvement (BPI) [Harrington 1991], preconizada pela aderência à plataforma de mapeamento de processo adotada, e de reconhecida qualidade, foi aplicada ao projeto e adequada ao Guia de Simplificação do Programa Nacional de Gestão Pública e Desburocratização GESPÚBLICA, a qual, além da documentação de processos, orienta um conjunto de ações relativas à gestão e melhoria de tais processos, tornando possível a criação de Banco de Dados Corporativo da Documentação dos Processos tratados. A mencionada metodologia preconiza como forma de garantir o fiel retrato do processo e com o conseqüente consenso sobre a realidade representada, que o levantamento das informações, para a situação atual, bem como a definição da situação futura, seja feitos em sessões de trabalho, por meio do uso da técnica Joint Application Design (JAD)1 [Wood1989]. A adequação da metodologia de modelagem de processos à GESPUBLICA é garantida pelo Manual de Padronização de Modelagem de Processos, idealizado e mantido pelo Escritório de Processos da COMOR/MP.

2. Metodologia Aplicada Como ferramenta de documentação e gerenciamento das informações, utilizou-se o software Architecture of Integrated Information Systems (ARIS) [Davis 2007] . A utilização do ARIS Products associado à Metodologia utilizada permite que os trabalhos sejam estruturados com alto grau de

1

Joint Application Design (JAD) – é um método criado pela IBM na década de 70, cujo objetivo era reduzir os tempos gastos com a especificação de sistemas, a partir da eliminação de retrabalhos obtida pela realização da especificação com grupos de entrevistados formados por todas as pessoas que se envolviam direta ou indiretamente com o processo. Tal método garante uma melhor visão do todo e dispensa o trabalho de consolidação posterior. As reuniões são marcadas pela objetividade, tendo um coordenador cujo papel é conduzir o grupo dentro de uma seqüência lógica de temas, evitando os desvios dos assuntos. Os dados obtidos vão sendo colocados à vista de todos, de modo a evitar diferentes entendimentos relacionados ao mesmo tema.


informações e detalhamentos, o que possibilitará a utilização dessa documentação em iniciativas futuras. 2.2. Metodologia para a Modelagem do Modelo de Referência Como mencionado, o trabalho de elaboração do “Modelo de Referência Idealizado” para os processos de transferência voluntária foi desenvolvido utilizando-se, principalmente, a metodologia JAD, que consiste em reuniões com pessoas envolvidas direta ou indiretamente no processo: fornecedores - que fornecem insumos para a execução do processo; executantes - que executam as atividades dos processos; e clientes - que recebem o produto do processo. As reuniões ocorram de modo a permitir que esses atores discutam as atividades de acordo com as diferentes visões, chegando a um consenso sobre a execução do processo e gerando uma visão homogênea entre as partes. A técnica JAD para documentação dos processos permitiu: Adotar o método para decisões que exigem envolvimento interdepartamental; Possibilitar aos participantes a visão do todo; Reduzir o tempo de levantamento de pré-requisitos, evitando-se validações futuras, que tradicionalmente ocorrem nos levantamentos convencionais; Reduzir o tempo de tomada de decisões; Aproveitar a sinergia do grupo reunido – Evitar perda de detalhe ou informação; As informações são fornecidas, questionadas, consensadas e documentadas no ATO; Os Resultados são apresentados de forma imediata permitindo o entendimento uniforme a TODOS os participantes. Ao final de cada reunião de modelagem, foram identificadas pelos participantes as melhores práticas e as recomendações para melhoria que, naquele momento, deveriam orientar a avaliação das práticas adotadas pelos convenentes. 2.2 Manual de Padronização de Modelagem de Processos Para que as ações de modelagem de processos desenvolvidas no âmbito do Ministério do Planejamento apresentem padronização, de acordo com as necessidades do Ministério, foi desenvolvido e é mantido pela equipe do Escritório de Processos da Coordenação de Modernização Administrativa (COMOR) o Manual de Padronização de Modelagem de Processos. Para elaboração do “Modelo de Referência Idealizado”, a o Grupo de pesquisa baseou-se nesse manual e considerou o Termo de Referência, nos seguintes aspectos: representação gráfica, por meio de diagramas e/ou fluxogramas; produtos/serviços resultantes e seus requisitos – evento final do fluxo do processo; caminhos lógicos e interdependências – interfaces dos processos; clientes e fornecedores – interface de início (fornecedores) e final do fluxo (cliente); insumos requeridos – evento de entrada para início das atividades do processo; 2.3 Modelagem de Processos Modelagem de Processo é o termo utilizado para os trabalhos relativos ao: Mapeamento - levantamento e diagramação do processo como ele é executado (atual) (As Is) - é entendido como a identificação dos fluxos de trabalho com início, meio e fim bem determinados, com insumos e produtos/serviços claramente definidos e com atividades que seguem uma seqüência lógica, permitindo uma visão integrada e encadeada do trabalho; e


Redesenho - otimização do processo (proposta) (To Be) – é entendido como as melhorias realizadas por meio da racionalização do fluxo de trabalho. Gera uma base referencial que permite, entre outras aplicações, criar condições para a construção da estrutura organizacional, a definição e avaliação de indicadores de resultados de atendimento em nível interno e/ou institucional, a formulação de planos de sistemas de informações e a aplicação do Ciclo PDCA - Plan Do Check Action [SHEWHART1939]. 2.4 Diagramas São representações gráficas elaboradas para visualizar uma determinada realidade, de forma simplificada, possibilitando assim um melhor entendimento. Os diagramas se compõem, basicamente, de símbolos e de atributos, que são informações de texto que complementam a representação. Cadeia de Valor Agregado – VAC (Value Chain Added Diagram) – modelo que representa a Visão Sistêmica dos Processos Organizacionais, para que se tenha uma Macro-Visão da interligação e/ou encadeamento dos macroprocessos, processos, subprocessos, e tarefas, seguindo a seqüência de execução dos mesmos. Fluxo do Processo – modelo que representa a visão detalhada do subprocesso/processo em uma seqüência lógica e mostra sua integração com os demais processos da Cadeia de Valor Agregado. No ARIS, os processos são representados por uma cadeia de “Eventos” e “Atividades”, utilizando-se o modelo de Fluxo do Processo. A “Atividade” é a ação executada que tem por finalidade dar suporte aos objetivos da organização. As Atividades correspondem a “o quê” é feito e “como” é feito durante o processo. “o quê” é feito e descrito no Atributo Nome e “como” é feito no Atributo Descrição da Atividade. A descrição do objeto “Atividade” deve seguir o padrão de iniciar a frase com o verbo no infinitivo, ex.: “Atender Demandas”. Os “Eventos” são resultados de alguma atividade/ação ou são utilizados para representar acontecimentos temporais (Exemplo de eventos temporais: no final do exercício, semestralmente, diariamente). Estes objetos controlam ou influenciam as próximas atividades do processo, disparando a execução de uma ou mais delas. Os Eventos seguem o padrão de ser descrito com o verbo no particípio passado, ex.: “Demandas Atendidas”. A modelagem de um processo sempre se inicia com o objeto “Interface de Processo” ou o símbolo “Evento” e finaliza-se da mesma forma.

3. Padronização e modelagem O trabalho realizado para a o mapeamento e otimização do Processo de Transferência Voluntária a Estados e Municípios com Foco na visão dos Convenentes. A representação dos processos foi orientada pelo Manual de Padronização de Modelagem de Processos e foi empregada a ferramenta ARIS como solução para modelagem. As experiências da equipe técnica da SLTI/MPOG e as melhores práticas identificadas entre concedentes e convenentes que contribuíram para orientar a estruturação, organização e a interação estão refletidas na proposta de “Modelo de Referência Idealizado”. As informações e a representação gráfica referente ao redesenho dos processos das Transferências Voluntárias estão consolidadas em uma base de dados da ferramenta ARIS que, dentre outras aplicações, permitiu que fosse gerada essa documentação considerando os seguintes aspectos de processos: Modelos de Cadeia de Valor Agregado dos processos relacionados à Gestão dos Programas de Transferências voluntárias, com a representação gráfica dos processos em relação às fases de Planejamento, Execução, Controle e Avaliação (do inglês modelo PDCA), bem como a representação das entradas (inputs) e saídas (outputs) em todo o ciclo do processo. Modelos contendo o desenho dos processos inerentes às Transferências Voluntárias, com a representação gráfica de suas atividades, eventos, caminhos lógicos do processo e interfaces com outros processos. O Modelo Idealizado contemplado neste relatório está estruturado em 2 (dois) níveis, que permitem o entendimento desde os processos até o fluxo de atividades de cada um dos processos que compõem o


Modelo de Referência. Vale ressaltar que o detalhamento dos processos em fluxos de atividades contemplou apenas os aqueles que cabem aos convenentes, uma vez que este é o escopo deste trabalho. Os processos de responsabilidade dos concedentes foram representados apenas na Cadeia de Valor Agregado, com suas respectivas entradas e saídas, para evidenciar a complementaridade entre as ações dos concedentes e dos convenentes. Com vistas a facilitar o uso deste manual, está detalhada abaixo a lógica que orientou a estruturação e organização dos processos. 1º. Nível – Cadeia de Valor Agregado (VAC): na qual estão representados os processos de Transferências voluntárias, contemplando todo o ciclo de vida desse processo, desde a identificação das necessidades até a avaliação dos resultados gerais do convênio. Os processos estão organizados de modo a evidenciar as atuações que cabem aos concedentes e aos convenentes. Há duas representações da Cadeia de Valor , a primeira destaca a VAC dentro do ciclo PDCA; a segunda detalha as entradas e saídas que promovem a integração entre os processos da VAC; 2º. Nível – Elementos do Processo: apresenta a decomposição dos processos identificados no 1º. Nível em seus respectivos fluxos de atividades. Conforme abordado anteriormente, este nível não é adotado para os processos que cabem aos concedentes. É importante ressaltar que a seqüência adotada para representação dos processos neste artigo segue o fluxo do modelo PDCA, ou seja, primeiramente são apresentados os processos que compõem a fase de Planejamento, depois aqueles da fase de Execução, seguidos pelos de Controle e, por fim, são apresentados os processos da fase de avaliação.

Gerir programas para Tranferências Voluntárias Regras das ações de transferência voluntária

Diretrizes dos programas Planejar programas de governo

Ações Orçamentárias

Divulgação das ações Transferência Voluntária

PPA

Resultados dos programas Formalizar Processo de Transferência Voluntária

Instauração de TCE

Instrumentos de transferência voluntária

Liberar recursos

Previsao de dotação orçamentária

Acompanhar Convênios

Relatório do acompanhamento

Analisar Prestação Contas Convênio

Relatório final de prestação de contas

Avaliar resultados gerais dos Convênios

Bloqueio de recurso

Propostas

Diretrizes de governo

Instrumentos de transferência voluntária

Relatórios de fiscalização

Elaborar proposta de projeto

Documentação para prestação de contas

OB Registros da execução

Parecer da proposta (Técnico/Jurídico)

Demandas da sociedade

Diretrizes de governo

LIberação de recurso

Divulgação das Ações

Cronograma do convênio

Relatórios de análise de registros de execução

Executar Convênios

Relatório final de execução

Relatório final

Relatório de alcance dos objetivos

Elaborar prestação de contas de convênio

PPA Levantar necessidades

Demandas da sociedade

Identificar recursos Lista de necessidades

LDO

Fonte de recursos

Cronograma do convênio

Relatório de acompanhamento

Acompanhar execução

LOA

Cadeia de Valor Agregado (VAC) – Gerir Programas para Transferências Voluntárias (Representação das entradas e saídas dos processos)

4. Conclusão O Ministério do Planejamento visando a facilitar o acesso aos recursos disponibilizados pelo Orçamento Geral da União por meio das “Transferências Voluntárias” destacou com base em estudos prévios relacionados ao tema, uma determinante prioritária do êxito dos interessados nos seus pleitos de acesso aos recursos das Transferências Voluntárias - a capacidade e organização dos agentes na realização das atividades necessárias à habilitação. Quanto mais bem preparado e organizado o agente, maior a quantidade de recursos a que tiveram acesso. Neste sentido, uma política de distribuição mais adequada e com menores riscos de insucesso nos resultados passa necessariamente pelo aperfeiçoamento dos agentes tanto nos procedimentos para captação dos recursos como de sua capacidade de gestão dos Projetos que lhes forem delegados. A estratégia do Ministério neste segmento está calcada nas seguintes diretrizes:


a) Consolidação das experiências exitosas em um modelo para o “Processo de Transferência Voluntárias” que servirá como referência; b) Produção de uma metodologia que permita aos agentes interessado identificação abrangente e objetiva de suas capacidades, deficiências e focos prioritários de aperfeiçoamento; c) Levantamento de dados junto a agentes escolhidos como amostra, referente à sua forma de atuação no que diz respeito ao Processo de Transferências Voluntárias, utilizando a referida metodologia e analise comparativa em relação ao “Modelo de Referência”, ambos citados acima; d) Determinação, com base nestes levantamentos, das orientações necessárias, possíveis planos de cooperação do MPOG junto aos estados e municípios, visando o aperfeiçoamento do processo no âmbito do Município ou Estado. Concluímos a aplicação da metodologia Business Process Improvement (BPI) referida no item 2, acima, para obter um Modelo para o Processo de Transferências Voluntárias. Utilizamos o software Architecture of Integrated Information Systems (ARIS) com ferramenta de documentação e gerenciamento das informações, para identificação das capacidades, deficiências e focos prioritários de aperfeiçoamento das Transferências Voluntárias. O artigo no item 3 evidencia o trabalho realizado para a o mapeamento e otimização do Processo de Transferência Voluntária a Estados e Municípios com Foco na visão dos Convenentes. É importante ressaltarmos a seqüência adotada para representação dos processos neste artigo segue o fluxo do modelo PDCA, ou seja, primeiramente são apresentados os processos que compõem a fase de Planejamento, depois aqueles da fase de Execução, seguidos pelos de Controle e, por fim, são apresentados os processos da fase de avaliação.

Bibliografia BRATHWAITE, K. S. – Informations engineering: Analysis and administration – CRC Press- 1991 – USA. SICONV – Sistema de Convênios do Governo Federal. Disponível em: <www.siconv.gov.br>. Acesso em: 03 dez. 2009. DAVIS, R. – Business process modeling with ARIS – A pratical guide - Springer – Verlag 2001 - London DAVIS, Rob and BRABANDER Eric – ARIS Design platform – Getting started with BPM – Springer – Verlag 2007 - London HARRINGTON, H. J. – Bussiness process improvement: the breakthrough strategy for total quality, productivity, and competitiveness –ISBN 0070267685- McGraw-Hill 1991 – USA. SCHEER,August-Wilhelm – ARIS – Business process modeling – Springer – 2000 – USA. SHEWHART, Walter A. (1931). Controle econômico da qualidade do produto fabricado. Nova York: D. Van Nostrand Companhia. LCCN31-32090LCCTS155 .S47ISBN0-87389-076-0 (edition ??)OCLC1045408 pp p. 501 __________________(1939). Método estatístico do ponto de vista do controle de qualidade. W. Edwards DemingWashington, DCAgriculture ( W. Edwards Deming ). Washington, DC , A Escola de Pós-Graduação, o Departamento de Agricultura . LCCN44774LCCHA33 .S45ISBN0-486-65232-7 (edition ??)OCLC1249225 p. 155 p.. VIEIRA, L.L. -. Estudo comparado da gestão dos projetos de sistemas informações governamentais – Uma Proposta – IV conferência internacional de integração de sistemas – Brasília – DF 2 a 5 de dezembro de 2007 __________________. Gerência dos projetos de sistemas informações governamentais – Um Estudo comparado –I InfoBrasil TI & Telecon _ Fortaleza – Ceará – Brasil – Maio 2008 WOOD, J; SILVER, D. Joint application design. USA : Wiley 1989 WHITTEN, J. Systens analysis and design USA: McGraw-Hill 1994. WAINWRIGHT, Eric. "Convergence, Information and Records Management : Observations from an Australian Government Information Management Perspective". Disponível em:<http://www.nla.gov.au/>. WEINSTEIN, P. C. Ontology-Based Metadata: transforming the MARC Legacy. Digital Libraries, Pittsburg, p. 254-263. 1998. ZWEERS, K. ; PLANQUE, K. "Electronic Government. From a Organizational Based Perspective Towards a Client Oriented Approach". In: PRINS, J. E. J. (Ed.). Designing E- Government. [S. l.] : Kluwer Law International, 2001, p. 92


O Potencial da Segurança da Informação na Gestão Organizacional João Batista Costa Moreno, Álisson Gomes Linhares Grupo de Pesquisa em Informática Aplicada Instituto Federal de Educação Ciência e Tecnologia do Ceará - IFCE Canindé/CE, Brasil jbatistacmoreno@gmail.com, linhares.alisson@ifce.edu.br RESUMO A informação é, cada vez mais, um ativo de suma importância para uma organização, seja ela pública ou privada, e que atualmente ela está se tornando um diferencial para essas organizações. Com isso, a presente pesquisa objetiva verificar como é aplicada a política de segurança da informação nas organizações e empresas de grande relevância para o mercado de trabalho na cidade de Canindé (Ceará) e quais as dificuldades para sua aplicação. Com esse estudo observou-se que algumas delas dificilmente aplicam uma política de segurança, e que outras sempre aplicam, porém todas elas têm bons resultados ao aplicarem uma politica de segurança, objetivando atingir os propósitos da organização. Com isso, foi concluído que a realização das práticas da segurança da informação possibilita que a informação correta seja disponível na hora exata, para que, consequentemente, a pessoa certa, de forma estratégica, tome a decisão adequada. Palavras Chave — Segurança, diferencial, confidencialidade.

estratégia,

informação,

ABSTRACT Information is increasingly active paramount for organizations, whether public or private, and is becoming a differentiator for them. Thus, this research aims to analyze the security policy information from public and City businesses Canindé (Ceará). It was observed that most difficult to apply a security policy. However, those who apply have good results, aiming to achieve the purposes of the institution. The realization of practical information security that allows the right information is available at the right time, so that consequently the right person, in a strategic way, take the appropriate decision. KEY-WORDS: Security, strategy, information, differential confidentiality.

I.

INTRODUÇÃO

A informação é, cada vez mais, um ativo de crucial importância para uma organização, seja ela pública ou privada. Quando devidamente aplicada, auxilia na tomada de decisão [8], tornando-se um diferencial para essas organizações, pois associa diversos subsistemas e capacita a mesma a impetrar seus objetivos [5]. Os benefícios oferecidos pelas decisões acertadas, baseadas em informações valiosas, representam o sucesso da empresa. Com isso, à medida que cresce a importância das informações, aumenta cada vez mais

o trabalho de segurança da informação, no intuito de evitar ameaças e riscos. Para evitar ameaças e riscos às informações, é importante que haja uma política de segurança estruturada, que a implementação depende da estrutura organizacional, das normas da empresa, da forma de avaliação e controle da segurança da informação e da colaboração de todo o pessoal da organização[2]. A presente pesquisa tem como objetivo geral analisar dentro das organizações privadas e públicas de Canindé se há uma politica de segurança da informação implementada, e se sim, o que motivou a sua adoção. E específicos, verificar quais fatores influenciam ou dificultam a aplicação dessa política e descobrir qual é o principal objetivo de sua adoção. A. A segurança da informação como estratégia organizacional. A estratégia organizacional está diretamente relacionada com o comportamento global da organização, a mesma requer uma atuação proativa dos administradores, para que os processos organizacionais sejam realizados de forma eficiente e eficaz. A condição do mercado e do governo brasileiro e a burocracia do setor público afetam periodicamente a cultura dos administradores [6]. Por isso, as estratégias são uma resposta adaptativa ao meio e particular de cada instituição. Diante da crescente importância da informação para os negócios, a mesma passou a desempenha papel importante na definição e na execução de estratégias [6]. Ajuda na identificação das ameaças e das oportunidades da empresa e cria cenários para uma resposta, eficazmente, competitiva. Por isso, necessita de maiores cuidados e boa proteção. Porque riscos surgem diariamente, por exemplo, acesso indevido ou vazamento de informações por e-mails [9]. B. Princípios da segurança da informação Como já foi dito, a informação é de suma importância para organizações e empresas, onde estas necessitam de um bom aparato tecnológico para proporcionar uma boa proteção para os seus dados. Portanto, torna-as dependentes da tecnologia da informação para proporcionar segurança, tendo como base os seguintes princípios: 

Confidencialidade: a informação só pode ser acessada por pessoas autorizadas;


 

Disponibilidade: a informação deve estar disponível no momento em que for necessária; Integridade: a informação deve ser vista em sua forma original.

Mesmo com estes princípios da segurança da informação, ainda há outra ponderação, a veracidade, que se soma como estratégia na gestão da informação. Ou seja, a informação deve ser baseada em acontecimentos verídicos ou argumentos lógicos de acordo com a necessidade da empresa. Embora a informação possa ter uma fonte confiável, ela pode não ser verídica. A informação não basta ser confiável, deve ser também verídica. Esses são os princípios de uma boa política de segurança da informação [3]. II. MATERIAIS E MÉTODOS Primeiramente, em forma de pesquisa bibliográfica, a presente pesquisa foi fundamentada, analisada e discutida, com o auxílio de diversos autores. Foram colhidas informações sobre segurança da informação, como seus princípios e os resultados da aplicação desses princípios. Através deste estudo podemos citar algumas pesquisas já realizadas, como a que identificou a camada humana como o principal ponto onde apresenta a maior carência de cuidados por parte das empresas, seguida pela camada lógica [10]. Outras destacam que a segurança da informação vem sendo tema de grande debate nos tempos atuais e que essas empresas estão buscando soluções práticas e efetivas, que possam melhorar a qualidade de seus serviços. Finalmente, foi desenvolvido um estudo com empresas públicas e privadas da cidade de Canindé. Os detalhes são apresentados nas seções seguintes. A. Sujeito da pesquisa Os sujeitos da pesquisa foram os gestores da informação de organizações públicas e privadas da cidade de Canindé. B. Amostragem Foram entrevistados membros da gestão de 5 empresas públicas do Poder Executivo e Legislativo, e 5 empresas privadas, entre elas, bancos, supermercados, que são importantes para o mercado de trabalho do município de Canindé. C. Instrumento de coleta de dados A coleta de dados foi feita por meio de um questionário aplicado aos gestores da informação. Optou-se por esse instrumental porque possibilita a análise crítica e reflexiva das respostas dos entrevistados. As questões são apresentadas na Tabela 1. Questão 1. Na organização em que você atua, a política de segurança da informação é aplicada? 2. A política de segurança da informação trazem bons

Respostas possíveis Sempre; Dificilmente. Nunca; Sim; Não.

resultados para organização? 3. Que fator influencia ou dificulta a aplicação de uma política de segurança da informação na organização/empresa?

Quadro de pessoas; Equipamentos; Quadros de pessoa e equipamentos; Outros.

Tabela 1 – Questionário aplicado aos gestores.

D. Tipos de análise de dados Utilizou-se a análise quantitativa para explicar a relevância da segurança da informação nas organizações de Canindé e seu potencial estratégico para alcançar o objetivo dessas empresas. III. RESULTADOS E DISCUSSÃO Para facilitar a análise dos dados, o nome das empresas entrevistadas é preservado, e os resultados são mostrados através de gráficos de acordo com os questionamentos feitos aos gestores da informação. Os resultados foram os seguintes:

Fig. 1. Empresas e organizações que aplicam uma política de segurança da informação.

De acordo com os dados apresentados na Figura 1, 80% das organizações entrevistadas aplicam sempre uma política de segurança da informação, 20% aplicam dificilmente. De acordo com a pesquisa, apenas 40% dos gestores aplicam a política baseada na NBR ISO/IEC 27002, os outros 60%, baseando-se apenas em regulamentações do mercado em que atuam. Com a pesquisa, pode-se identifica também que 70% das organizações e empresas entrevistadas aplicam uma politica de segurança apenas por prevenção, e 30% afirma que a aplicação da política de segurança é motivada também por acontecimentos anteriores. Porém, apesar de muitas não aplicarem constantemente uma política de segurança, foi identificado também que, segundo a pesquisa feita, todos afirmam ter bons resultados ao aplicarem uma política de segurança, objetivando atingir os propósitos da organização. Com isso, percebe-se que poucas empresas estão se preocupando com a proteção de suas informações e que estas estão vulneráveis a futuros ataques e ameaças. Pois, muitas não aplicam uma política de segurança, e poucas seguem as normas para este fim. Porém, observa-se que as empresas e organizações que aplicarem uma política de segurança tem mais chance de atingir sucesso nos negócios.


Na Figura 2, 40% das organizações afirmam que o fator que interfere na política de segurança da informação é alguém do quadro de pessoal; 20%, que são os equipamentos, como computadores, pelo fato de serem velhos ou impróprios para as atividades que realizam; e 40% afirma que são, ao mesmo tempo, o quadro de pessoal e os equipamentos. Percebemos que muitas empresas e organizações não têm preocupação em preparar seus funcionários, e não possuem um aparato tecnológico apropriado.

vierem a causar algum dano financeiro à empresa por vazamento de informação. É importante que as empresas apliquem e sigam as regulamentações da área em que atuam para que melhore ainda mais seu plano estratégico. Com isso a criação de uma política de segurança da informação em uma organização/empresa irá proporcionar transparência e ao mesmo tempo fornecer credibilidade ao órgão perante a população. REFERÊNCIAS [1]

FONSECA, Paula F. Gestão de Segurança da Informação: O Fator Humano. 2009. 16 f. Monografia (Especialização)– Redes e Segurança de Computadores, Pontifícia Universidade Católica do Paraná, Curitiba, 2009.

[2]

LYRA, Maurício Rocha. Segurança e auditoria em sistemas de informação. Editora Ciência Moderna Ltda., 2008.

[3]

Segurança de redes em ambientes cooperativos. São Paulo:

Fig. 2. Fatores que influenciam ou dificultam a aplicão de uma política de segurança.

Nota-se então que o analista ou gestor de negócios deve dar maior atenção às pessoas, pois, como mostram os dados, 80% das organizações afirmam que alguém do quadro de pessoal influencia ou dificulta a política de segurança da informação. A politica de segurança da informação deve ser feita com base em uma análise organizacional e no conhecimento das normas estabelecidas pela mesma, onde tudo isso deve ser feito com base na NBR ISO/IEC 27002. A NBR ISO/IEC 27002 define um código de prática que orienta quais elementos devem ser considerados para uma adequada proteção da informação [4]. As empresas que utilizam esta norma possuem um recurso essencial para definir estratégias alternativas e para constituir uma organização flexível, tornando constante o aprendizado. Nelas, a informação é administrada de forma particular e diferenciada, o que não ocorre nas empresas que se baseiam apenas nas regulamentações do mercado. IV. CONCLUSÃO Percebe-se então que nas organizações/empresas o ponto mais fraco do processo de segurança da informação são as pessoas que a compõe, pois elas são as responsáveis pela veracidade da informação. É de fundamental importância a participação de um analista ou de um gestor de negócios no planejamento estratégico da informação, pois tem competência para avaliar o valor da informação. De acordo com a análise feita, atuar junto com as pessoas que de certa forma manipulam a informação demostra ser a melhor forma para garantir a segurança da informação. Como por exemplo, conscientizá-las através de treinamento, para que saibam manipular a informação de forma correta e que poderão ser responsabilizadas juridicamente se, por acaso,

NAKAMURA, Emilio Tissato e GEUS, Paulo Lício de. - -

Novatec Editora, 2007. [4]

NBR ISO/IEC 27002 – Tecnologia da Informação. Código de Prática para Gestão da Segurança da Informação. Associação Brasileira de Normas Técnicas. Rio de Janeiro, 2005.

[5]

OLIVEIRA, Djalma de Pinho Rebouças de. Sistemas de informação gerenciais: estratégias, táticas, operacionais. 8. ed., São Paulo: Atlas, 1992.

[6]

REZENDE, Denis Alcides e ABREU, Aline França. Tecnologia da Informação Aplicada a Sistemas de Informação Empresariais. Editora Atlas. São Paulo, 2000.

[7]

SEVERINO,

Antônio

Joaquim.

Metodologia

do

trabalho

científico. 23. ed. Ver. e atual.- São Paulo: Cortez, 2007. [8]

SHIMIZU,T. Decisão nas organizações- introdução aos problemas de decisão encontrados nas organizações e nos sistemas de apoio á decisão. São Paulo: Editora Atlas, 2001.

[9]

WALTON, R. E. Tecnologia de informação – o uso de TI pelas empresas que obtêm vantagem competitiva. São Paulo: Ed. Atlas S.A., 1994.

[10] Netto, A. da S., Silveira, M. A. P. da. Gestão da segurança da informação: fatores que influenciam sua adoção em pequenas e médias empresas. Universidade Municipal de São Caetano do Sul – IMES, Brasil.


1 de 6

Redes Neurais Artificiais de Softwares Livres na execução de Testes de Intrusão e Análise de Vulnerabilidades: uma proposta de arquitetura Cícero Leite Gadelha, cicerogadelha@gmail.com. Hedwio Carvalho e Silva, hedwio@gmail.com Centro Universitário Estácio do Ceará, fortaleza-CE

Resumo- Este artigo tem o objetivo de demonstrar como a interação das

procedimentos e ferramentas designadas para contornar os

redes neurais artificiais com soluções open source pode contribuir na

controles de seguranças dos sistemas.

resolução de problemas como Análise de Vulnerabilidade e Testes de Intrusão. Tal interação produz um modelo baseado em Redes Neurais Artificiais

que

possibilita

comunicação

entre

Softwares

Livres

O objetivo é medir o nível de resistência que a organização possui contra ataques bem como revelar fraquezas no

desfrutando de características das redes neurais.

ambiente. Estas medidas são adotadas para que a organização

Abstract- This article has the purpose of showing how the interation of

possa determinar a efetividade dos mecanismos de segurança

artificial neural networks with open source solutions can contribute in

ao invés de apenas confiar na expectativa informada por

the resolution of problems like Vulnerability Analisys and Penetration Tests. Such interaction produces a model based on Artificial Neural

fabricantes e mantenedores das soluções.

Networks that enable comunication between open source softwares

Um teste de invasão simula os mesmos métodos que

using neural networks caracteristics.

atacantes usariam. Atacantes podem ser astutos, criativos e abordar vários recursos em suas técnicas, fazendo com que

I. INTRODUÇÃO

esse teste deva estar alinhado com as mais novas técnicas e

Atualmente a informação tem se tornado cada vez mais

metodologias [3].

valiosa tanto para organizações como para um único

Uma rede neural artificial consiste em uma coleção de

indivíduo. A segurança da informação é responsavel por

elementos com poder de processamento interligados entre si e

garantir que estas informações sejam preservadas de forma a

com a capacidade de tranformar um grupo de entradas em

preservar características como Integridade, Disponibilidade e

saídas

Confidencialidade perante ameaças e vulnerabilidades. [3]

determinado pelas características dos elementos e pelo peso

Vive-se em um mundo em que as vulnerabilidades estão

associado as conexões entre eles. Através da alteração de

presentes. Um aspecto importante das vulnerabilidades é

conexões entre elementos é possível gerar adaptações das

como elas podem ser alcançadas e quais são os seus vetores

saídas [1, 2].

de ataque [4]. Neste cenário, o papel da análise de

Levando em conta o cérebro, que é o modelo em que este

vulnerabilidades é por meio de seus processos definir,

conceito se aplica com maior sucesso, percebe-se que o

identificar

em

mesmo não se trata de um computador para propósitos gerais,

computadores, redes e infraestruturas. Além disso, por meio

não sendo nem mesmo considerado um computador poderoso

dessa análise, pode-se mensurar se determinadas medidas de

quando comparado aos computadores digitais [6].

segurança estão agindo conforme especificado [5].

O neurônio é a unidade básica computacional usada pelo

Teste de invasão é o processo que simula ataques a uma rede

cérebro, é composto por uma parte central que sob o ponto de

e seus respectivos serviços com a autorização da gerência ou

vista biológico seria a célula onde sua membrana exterior

responsável.

toma a forma de vários ramos chamados dentritos, que

e

classificar

Eles

fazem

brechas

uso

de

de

um

segurança

conjunto

de

desejadas.

O

resultado

das

tranformações

é

recebem como entrada sinais elétricos de outros neurônios,


2 de 6 possuindo também uma estrutura semelhante que gera saída de informações para outros neurônios chamada axônio, conforme Figura 1. De forma semelhante os softwares livres realizam um tratamento das entradas recebidas para gerar o resultado desejado. Entende-se que é aquele software que respeita a liberdade e senso de comunidade dos usuários. A grosso modo, os usuários possuem a liberdade de executar, copiar, distribuir,

Figura 1: Neurônio biológico.[17]

estudar, mudar e melhorar o software. Com essas liberdades, os usuários (tanto individualmente quanto coletivamente) controlam o programa e o que ele faz por eles.[8] II. FUNDAMENTAÇÃO TEÓRICA A. Arquitetura das Redes Neurais Artificiais (RNA) A maneira como os neurônios artificiais podem ser agrupados é uma importante característica que define a arquitetura. Tipicamente a rede neural é composta por um conjunto de entradas e um conjunto de saídas. Uma RNA pode ser composta de camadas de neurônios entre as entradas e as saídas. Estas camadas intermediárias de neurônios são

Figura 2: Camadas de uma rede neural artificial [16].

conhecidas pelo nome de camadas escondidas, do inglês Hidden Layers. Uma RNA pode ter um número abitrário de camadas escondidas e cada uma delas pode ter um número arbitrário de neurônios [7]. Na Figura 2 é apresentada uma rede com quatro entradas, duas saídas e uma camada escondida com três neurônios. B. Etapas da análise de vulnerabilidade e testes de intrusão Atualmente, metodologias foram desenvolvidas para mapear e coordenar a forma com que o processo de análise de vulnerabilidades e testes de intrusão são

conduzidos. O

processo de forma geral é composto por cinco etapas intimamente

relacionadas,

Figura 3: Etapas da análise e intrusão

Reconhecimento,

Varredura/Enumeração, Exploração, Manutenção do acesso

C. Treinando Redes Neurais Artificiais

e Limpeza de rastros. [9, 13] Nesse caso, a camada inicial do

Redes Neurais são configuradas de forma a receberem um

processo seria a coleta de informações realizada na etapa de

conjunto de entradas e produzir saídas desejadas por meio da

reconhecimento. Na etapa final se obtém o resultado

força existente entre as suas ligações[7]. Existem vários

desejado. Este resultado será obtido por meio do tratamento

métodos de determinar a força entre as conexões, uma das

realizado nas nas camadas intermediárias conforme Figura 3.

maneiras é determinar explicitamente o peso das conexões


3 de 6 com base em um conhecimento anterior. Outra maneira é treinar a RNA ensinando-a padrões e deixando que a mesma ajuste os pesos com base em regras de aprendizado preestabelecidas. [7]

III. PROPOSTA A. Neurônios baseados em softwares livres Neste trabalho é mostrado que por meio dos mecanismos de entrada e saída de informação que os neurônios possuem, os neurônios

CI. Treinamento supervisionado

realizam

transformações

gerando

novas

informações com base nas que receberam. [6] Por associação,

Neste paradigma é fornecido para a rede neural as entradas e seus respectivos pesos de forma a produzir saídas desejadas. As informações devem ser providas por meio de uma entidade externa que poderia ser chamada de professor. [7]

percebe-se que este comportamento é semelhante a várias aplicaçãoes disponíveis, como por exemplo, ferramentas de resolução de nomes que recebem uma URL e um endereço de servidor DNS e o tranforma em um endereço IP. Comportamento semelhante pode ser visto em softwares de

CII. Treinamento não supervisionado

varreduras de portas, do inglês Port Scanners, que recebem

Neste modelo de aprendizado a rede neural não recebe os valores de entrada e pesos ideais, sendo obrigada a realizar ajustes nos pesos [7], obedecendo certas regras de aprendizado para que possa emitir saídas desejadas de acordo com as funções transformadoras e de ativação.

como entrada um endereço IP e um modo de operação e geram vários números de portas abertas como saída. Percebe-se que diferente dos neurônios tradicionais das RNAs que recebem valores numéricos como entrada os neurônios baseados em software livre recebem entradas em um formato mais diversificado, exigindo que funções

CIII. Funções transformadoras e de ativação

transformadoras e de ativação usem trechos de softwares

Na Figura 4 é feito um detalhamento de um neurônio, onde as

livres em complemento as funções matemáticas.

entradas são representadas pela variável “X”, os pesos pela variável “W” e a combinação da entrada “X” com o peso “W” é chamado de potencial de ativação.

A função

transformadora representada pelo símbolo de somatório recebe o potencial de ativação e o tranforma de acordo com a

B. Colaboração entre softwares livres. Uma rede neural artificial consiste em um conjunto de unidades simples de processamento que se comunicam entre si por mensagens. Cada unidade realiza uma uma tarefa

função nele embutida gerando a saida “U”. [7] O papel da função de ativação é receber a saída “U” que foi gerada e decidir se ela será emitida como saída. A emissão de saída também pode ser chamada de ativação do neurônio. CIV. Trabalhos relacionados RNAs já foram usadas em conjunto com soluções Open

Figura 4: Detalhamento neurônio artificial

Source em trabalhos relacionados com reconhecimento de padrões comportamentais na detecção de ataques. [14] Outra abordagem semelhante às redes neurais foi usada na análise de vulnerabilidade de redes por meio de sistemas baseados em grafos. [15]

Figura 5: Colaboração entre softwares


4 de 6 relativamente simples, recebe entradas enviadas por seus

endereço IP informado. Em caso de falha por meio de

vizinhos ou fontes externas e as processa gerando saídas que

treinamento não supervisionado, o ajuste de pesos fará com

serão propagada para outras unidades [7].Conforme exemplo

que novas entradas sejam tentadas desempenhando assim o

anterior é visto que as ferramentas de resolução de nomes e

processo de varredura

as de varredura de portas são avidas por certos tipo de

CII.Exemplo 2: Convertendo Dig em neurônio

informação que permitiriam um relacionamento entre elas,

O comando Dig é usado para realizar consultas a serviços de

conforme Figura 5.

DNS, também possui um modo de operação em lote para

Neste caso, percebe-se que um simples relacionamento entre

fazer suas pesquisas com base nas informações contidas em

duas ferramentas por meio de redes neurais já seria suficiente

um arquivo. [11] No caso do neurônio Dig, o mesmo

para contribir na coleta de informações de um determinado

receberá

sistema, uma das etapas tanto do Teste de Intrusão como da

supervisionado, neste caso um de seus estimulos de entrada

Análise de Vulnerabilidade. Apesar de cada neurônio possuir

serão o endereço IP de um servidor DNS e a outra um Fully

características simples, é conhecido que alteração nos arrajos

Qualified Domain Name ou FQDN. Caso a consulta ocorra

ou

com sucesso o neurônio emitirá um endereço IP como saída.

nas

entradas

recebidas

geram

comportamentos

suas

entradas

por

meio

de

treinamento

diferenciados. Tal situação é mais facilmente entendida quando observamos o neurônio “varredor de portas”

CIII. Exemplo 3: convertendo THC-Hydra em neurônio

recebendo uma entrada adicional chamada “Cuidadoso”

THC-Hydra é um software desenvolvido para quebra de

informando sobre a possibilidade de algum mecanismo de

senhas. Ele é capaz de quebrar senhas por meio de força bruta

detecção no ambiente.

possuindo suporte a vários tipos de serviços. [12]. Sob o ponto de vista do funcionamento de um neurônio o que

C. Convertendo softwares em neurônios

o THC-Hydra fará é tratar estimulos de nome de usuários e

Para fazer com que um sorftware se comporte como um

de senhas, gerando ativação caso estas informações sejam

neurônio,

algumas

compatíveis. Em caso de falha o ajuste de pesos fará com que

características como funções transformadoras e funções de

novas entradas sejam tentadas, desempenhando assim a força

ativação. As funções transformadoras trabalham em conjunto

bruta no processo de login.

o

mesmo

precisa

implementar

com uma característica chamada potencial de ativação, que é responsável por tratar as entradas e pesos para um posterior

D. Treinando Redes Neurais de Software Livre

repassse à função tranformadora. [7] Já as funções de

Da mesma forma que nas RNA tradicionais, o treinamento

ativação são responsáveis pela decisão de gerar ou não a

das redes neurais de softwares livre ocorrere por meio de

ativação, a ativação pode ser entendida como o sinal de saída

treinamento supervisionado e não supervisionado.

emitido pelo neurônio. [7]

Em comparação com as RNA, as Redes Neurais de softwares Livres podem alterar o peso de suas ligações com

CI. Exemplo 1 : Convertendo Nmap em neurônio

incrementos mais abrangentes que os numéricos, tal

Nmap é um software livre que possui vários recursos para

comportamento pode ser observado no neurônio THC-Hydra,

avaliação da segurança de computadores. Dentre suas

supondo que o mesmo tenha testado sem sucesso uma entrada

funcionalidades, ele é capaz de realizar vareduras de portas.

“aaa” como senha, a alteração do peso poderia fazer com que

[10]

esse valor fosse alterado para “aab” na próxima tentativa de

Sob o ponto de vista do funcionamento de um neurônio, o

quebra de senha.

que o Nmap faz é tratar estimulos de endereços IP, números

E. Redes Neurais de Softwares Livres ou RNASL

de portas, gerando ativação caso a porta esteja aberta no


5 de 6 Tanto os procedimentos de análise de vulnerabilidade como os de testes de invasão são compostos por um conjunto de etapas intimamente relacionadas possuindo fases como reconhecimento,

enumeração,

exploração

de

vulnerabilidades, manutenção do acesso e limpeza de rastros. A reprodução destas tarefas pode ser reproduzida por meio de arranjos feitos entre aplicações que foram convertidas para a arquitetura neural, de forma semelhante a figura 3, onde é mostrada a divisão em camadas das etapas bem como o fluxo de informação que percorre por entre as mesmas. IV. RESULTADO A Figura 6 mostra uma proposta de arquitetura elaborada por meio da comunicação de ferramentas de software livre adaptadas para se comportar como neurônios. Tal arranjo desempenha as etapas de reconhecimento, varredura, enumeração e exploração recebendo como entrada uma empresa e algumas entradas externas como “Servidores Raiz” e “Presença de IDS” geradas por outros neurônios que foram abstraídos. Para o exemplo abordado foram migrados para arquitetura neural alguns softwares como whois, dig, nslookup, dnsenum, nmap, nikto e metasploit. Parte destes softwares receberam entradas adequadas para gerar os resultados esperados de acordo com as características do aprendizado supervisionado, enquanto outros usaram aprendizado não-supervisionado para emitir os resultados esperados. Cada um desses softwares possuem várias funcionalidades, devido ao escopo reduzido do caso, apenas algumas serão usadas. O fluxo está descrito com base na Figura 5, conforme os seguintes passos: 1. Empresa, seu papel é gerar como saída um endereço de domínio para os neurônio Dnsenum e Dig. 2. O Dig recebe uma entrada adicional e gera como saída um endereço IP de um servidor DNS e encaminha para neurônios que precisam desta informação como Nslookup e Dnsenum.

Figura 6: Colaboração entre softwares livres 3. O Dnsenum com o endereço recém recebido e o nome de domínio, enumera os nomes “www” “ftp” e “smtp” e os encaminha como entrada para os neurônios Nslookup. 4 Nslookup resolve esses nomes gerando o endereço IP deste serviço como retorno para o neurônio Nmap. Desenvolvendo a etapa de enumeração e Varredura. 5. Nmap recebe o endereço IP gerado pelos neurônio Nslookup e a entrada adicional gerada por uma entidade chamada Modo Operação, que sugere a existencia de um IDS no ambiente e gera uma saída informando que a porta Tcp 80 está aberta e a encaminha para o neurônio Nikto. 6. Nikto, em posse do endereço IP que recebeu do Nslookup, da informação referente a porta 80 e o Modo de Operação percebe uma vulnerabilidade relacionada a versão de software e envia para o neurônio Metasploit Iniciando a fase de exploração desempenhada pelo neurônio Metasploit.


6 de 6 7. O uso das informações recebidas possibilita que o neurônio

[7] Kroese, Ben.; Smagt van der, Patrick. An introduction to Neural

Metasploit disponibilize um acesso à linha de comando do

Networks. 1996.

alvo representado pelo neurônio Shell.

[8] Matthew Stallman, Richard. GNU General Public License disponível em https://www.gnu.org/copyleft/gpl.html. 1989.

Nesse exemplo de arquitetura que usa o conceito de RNASL, o processo de análise de vulnerabilidade foi resumido contemplando

apenas

os

passos

Reconhecimento,

[9] Tuck Wai, Chan. Conducting a Penetration Test on a Organization,

SANS

Institute.

Disponível

http://www.sans.org/reading-room/whitepapers/auditing/conductingpenetration-test-organization-67. 2002.

Varredura/Enumeração e Exploração, visando facilitar o

[10] Lyon, Gordon . Nmap Network Scanning. 2009

entendimento de como os neurônio trocam informações.

[11]

VI. CONCLUSÃO

em

Manual

do

comando

Dig

disponível

em

http://linux.die.net/man/1/dig [12] Van Hauser, THC-Hydra Documentation. Disponível em

Por meio da proposta de arquitetura apresentada neste

https://www.thc.org/thc-hydra/

trabalho, é possível converter as funcionalidades de

[13] Oriyano, Sean-Philip. Certified Ethical Hacker Version 8 Study

softwares livres para a arquitetura neural, isso permite a colaboração entre esses softwares, permitindo que eles desempenhem vários tipos de tarefas como análise de

Guide. 2014. [14] Tan, Kymie. The Application of Neural Networks to UNIX Computer Security. [15] Phillips, Cynthia; Painton Swiler, Laura. A Graph-Based

vulnerabilidade e testes de intrusão.

System for Network-Vulnerability Analysis.

Tal proposta contribui na melhoria de soluções com interação

[16] K. Gurney. An Introduction to Neural Networks. London: UCL

entre vários softwares livres, possibilitando a produção de

Press,1997.

trabalhos futuros como criação de framework para migração

[17] Ferneda, Edberto. Redes neurais e sua aplicação em sistemas de

de softwares livres. Este trabalho visa possibilitar a

recuperação de informação. Ciência da Informação, Brasília, v. 35,

integração de ferramentas obedecendo a arquitetura proposta de Redes Neurais de Software Livre RNASL. Outra proposta visa usar a arquitetura apresentada para realizar comparações entre metodologias de análise de vulnerabilidades e testes de intrusão, representando seus procedimentos e etapas de execução por meio da arquitetura proposta. REFERÊNCIAS [1] Fox, Kevin L.; Henning, Rhonda R.; Reed, Jonathan H. A Neural Network Approach Towards Intrusion Detection. In Proceedings of the 13th National Computer Security Conference. 1990. [2] Hammerstrom, Dan. Neural Networks At Work. IEEE Spectrum. pp. 26- 53. 1993. [3] Harris, Shon. CISSP All-in-One Exam Guide, 6th Edition. pp. 1298. Mc Graw Hill. 2013. [4] Will Dormann, Daniel Plakosh, Vulnerability Detection in ActiveX Controls through Automated Fuzz Testing. 2008. [5] Rouse, Margaret. Search Mid Market Security. 2006. [6] James A., Anderson. An introduction to Neural Networks. 1997.

n. 1, p. 25-30, jan./abr. 2006.



ROBÓTICA EDUCACIONAL UTILIZANDO ROBOCODE COMO FERRAMENTA DE ENSINO DE CONCEITOS DE PROGRAMAÇÃO JAVA.

Alanio Ferreira1 allanio007@gmail.com Mikael do Nascimento3 – mikaelaraujo@gmail.com Vandilberto Pereira2 – vandilberto@yahoo.com.br Rômulo Nunes de Carvalho Almeida2- rnunes@dee.ufc.br Anderson Tadeu Soares de Paiva2- andersonnpaiva@hotmail.com Thiago de Souza Duarte2- thiago_wath@hotmail.com

Universidade Federal do Ceará - Campus Sobral 1 Curso de Engenharia da Computação, Universidade Federal do Ceará – Campus Mucambinho Rua Estanislau Frota , S/N - Centro CEP 62010-560 – Sobral – Ceará 2 Curso de Engenharia Elétrica, Universidade Federal do Ceará – Campus Mucambinho Rua Estanislau Frota , S/N - Centro CEP 62010-560 – Sobral – Ceará 3 Curso de Ciência da Computação, Universidade Estadual Vale do Acaraú – UVA Avenida da Universidade, 850 – Betânia CEP: 62.040-370 – Sobral – Ceará

Abstract: The use of the Java programming language with robocode as a teaching/learning tool, has become increasingly popular to teaching students at universities in the areas of engineering, it has shown efficacy in regards to encourage the teaching of programming with the open source educational game. This article presents related activities of a mini-course with its technologies in various aspects of the field of computing: logical reasoning, mathematical, artificial intelligence, neural networks and objectoriented programming through integration with Robocode software. The activities proposed were applied to students in higher education Federal University of Ceará in the course of introduction to engineering. These activities have demonstrated the efficiency of educational robotics as a tool teaching-learning in object oriented programming.

Keywords: Educational Robotics, Robocode, Object Oriented Programming.

Resumo: O uso da linguagem de programação java com robocode como ferramenta de ensino aprendizagem, tornou-se cada vez mais popular ao ensino de alunos nas universidades nas áreas de engenharias, pois tem mostrado eficácia no que diz respeito a incentivar ao ensino de programação com o jogo educacional de código aberto. O presente artigo apresenta atividades relacionadas de um minicurso com suas tecnologias em diversos aspectos da área de computação: raciocínio lógico, matemático, inteligência artificial, redes neurais e programação orientada a objetos através da integração com o software Robocode. As atividades propostas foram aplicadas aos alunos do ensino superior da Universidade Federal do Ceará na disciplina de introdução a engenharia. Essas atividades tem demonstrado a eficiência da robótica educacional como ferramenta de ensino-aprendizagem em programação orientada a objetos.

Palavras-chave: Robótica Educacional, Robocode, Programação Orientada a Objetos.


1.

INTRODUÇÃO

A técnica de ensino aplicada no Brasil no ensino superior nas Universidades é um processo de preparo de raciocíneo metodológico. Atualmente existem diversas maneiras utilizadas para facilitar o ensinoaprendizagem nos ambientes educacionais. Vários trabalhos têm sido desenvolvidos, como em [1]; [3]; [2]; [4]) objetivando da suporte ao aluno a suprir suas necessidades e obstáculos iniciais no aprendizado de programação. Com o objetivo de aperfeiçoar as técnicas de ensino utilizadas no Brasil e, incentivar os alunos para o estudo nas áreas de engenharia, a robótica educacional aparece como uma ferramenta de ensinoaprendizagem que induz o aluno a dividir um problema, e a organização do caminho que ele elabora para resolvê-lo. Dessa forma, diversos conhecimentos são difundidos nas diversas disciplinas para o estudo de engenharia, tais como: matemática, física, inteligência artificial e programação orientada a objetos em linguagem java. Também, vale salientar que os alunos tem um pouco de contato com a língua inglesa, visto que toda a área do software incluindo menus e comandos no editor são notoriamente em inglês. A robótica permite que os alunos pensem sobre diversos problemas, nos quais existem várias soluções possíveis [10]. Neste contexto, objetivando a incentivar os alunos aprenderem programação de maneira divertida na área de engenharia, serão desenvolvidas e aplicadas atividades para alunos da disciplina de introdução a engenharia da Universidade Federal do Ceará. O presente artigo tem como visão fornecer uma integração do software Robocode através de atividades propostas de modo a incentivar aos alunos a despertarem a sua curiosidade por robótica e programação usando sua criatividade na solução de problemas. 2.

ROBOCODE E SUA PLATAFORMA DE ENSINO

2.1. ROBOCODE O Robocode foi desenvolvido pela AlphaWorks, uma divisão da IBM que tem como finalidade difundir novas tecnologias de desenvolvimento. O Robocode é um projeto hospedado pela SourceForge e pode

ser encontrado em http://robocode.sourceforge.net. A idéia básica é fornecer um ambiente de simulação de batalhas entre robôs que execute em qualquer plataforma Java. Cada tanque é controlado por um programa de computador escrito na linguagem Java, informações sobre tal linguagem podem ser obtidas em [5], [6] e [7] . Para programar um robô, estende-se uma classe da API do Robocode. Essa API [8] é bem extensa, garantindo recursos para programar robôs guerreiros dos mais variados tipos. Existem um ambiente “Figura 2” para criar uma arena e configurar a batalha adicionando os robôs.

Figura 2. Tela principal do ambiente virtual do Robocode A integração do usuário é realizada pela interatividade com o ambiente na qual é programada através de eventos para tratamento do mouse e teclado. Os eventos em que os robôs são submetidos no campo de batalha são favorecidos sem prioridade em termos de competitividade para todos integrantes. O Robocode também suporta robôs em desenvolvimento utilizando IDEs externos, como por exemplo, Eclipse, IntelliJ IDEA, NetBeans, Visual Studio, etc. Além disso, existem eventos para avisar ao robô quando ele acerta um tiro no adversário ou é acertado, quando ele é eliminado da batalha, ou quando ela é finalizada. Existem algumas restrições em relação a energia e o calor para todos os robôs que são mencionadas 2.2 – CONHECENDO OS ROBÔS E SUA PLATAFORMA O Robocode possui seu próprio instalador, editor interno de robô e compilador Java, o único pré-requisito é ter uma Máquina Virtual Java (JVM) instalada no sistema operacional onde ele será instalado. O fato do Robocode rodar na plataforma Java o torna possível sua execução tendo sua portabilidade em qualquer sistema operacional com Java pré-


instalados, o que significa que ele será capaz de rodar em Windows, Linux, Mac OS, mas também UNIX e suas variantes. Assim, tudo que um desenvolvedor precisa para começar é fornecido com o arquivo principal Robocode distribuição (robocode-xxxsetup.jar).

implementação do código no editor, ou desenvolver um novo robô com outras aplicações e derivações de classes e métodos dando assim uma melhor robustez. Então, após o código do robô já implementado precisamos compilar através do menu compiler, em seguida para salvar usa-se como referência a figura 5 clicando no menu Battle, logo depois usamos o botão salvar e escolhendo na outra janela um nome para o arquivo.

Figura 3. Anatomia de um robô. A anatomia do Robocode através da figura 3 consiste em três partes: corpo, arma, radar. Existem algumas restrições em relação a energia e o calor para todos os robôs que são mencionados.

Figura 4. Visão do robô com radar

A ideia principal de robôs no Robocode está concentrada num método. Cada robô é uma entidade que controla o seu próprio ciclo de vida. Ao iniciar uma batalha, um método dos robôs é invocado e disparado, e a inteligência dele é codificada nesse método. Enquanto esse método estiver sendo invocado, notoriamente o robô está andando e atirando nos seus oponentes. Quando é usado o ambiente virtual este é apresentado com recursos pobres. Apesar de possuir palavras case sensitive, não contém função de auto-completar e destaque de sintaxe como é observado na NetBeans IDE. A execução do robô na plataforma virtual exige uma criação de uma arena na qual são adicionados. O Robocode possui dois tipos de classe que pode ser implementada: a classe simples extendida da classe Robot e a classe avançada extendida da classe AdvancedRobot. Após a instalação do software iniciamos o jogo conforme mostrado na figura 6 através do menu Battle, em seguida, selecionar New. Depois surgirá uma janela com informações pedindo para adicionar o nome do robô com um botão de confirmação, logo em seguida após essa confirmação teremos uma nova janela pedindo o nome do pacote com a confirmação para mostrar a janela de editoração. O próximo passo é desenvolver a

Figura 5. Começando um jogo A plataforma com a sua biblioteca possui robôs demo em que o programador pode usar sua estrutura de código como referência de estudo para utilizar a tecnologia de código já programada da própria prototipagem do software para implementar seu próprio robô.

Figura 6. Tela para adicionar os robôs a competição A batalha se inicia após adicionarmos os robôs através da figura 6 usamos o menu Battle, em seguida New, logo depois irá aparecer uma nova janela contendo os robôs que queremos adicionar a uma batalha escolhendo o tipo de robô e clicando no botão Add. Também é possível configurar nessa mesma janela através do menu Rules o tempo e número de Rounds. Após o término da batalha é apresentado uma tela como na


figura 7 com pontuação descrevendo detalhes do vencedor sobre: total de score, rank e etc. Na figura 6 também contém três tipos de pacotes com sua representação, caso o aluno ou o programador venha a criar futuramente um robô, este por sua vez, será apresentado nessa mesma janela. Os pacotes são representados para identicar o tipo da classe pertencente aos seus robôs que são representados por: 16 robôs do pacote da classe sample, 5 robôs do pacote da classe simplex, 3 robôs do pacote sampleteam. Demais pacotes que possam surgir são criados pelo próprio programador.

3. O MINI CURSO O mini-curso foi lecionado para 50 alunos matriculados na disciplina de Introdução a Engenharia do primeiro semestre do curso de Engenharia Elétrica da Universidade Federal do Ceará, Campus Sobral. O mini-curso teve duração de dois dias, cada dia com 2 horas de aula. O cronograma do mini curso é mostrado na tabela 2. O mini curso foi realizado no laboratório de informática do Campus, pelo bolsista e seu orientador com a participação do professor que lecionava a disciplina de Introdução a Engenharia. O robô construído para o desenvolvimento de atividades em sala de aula é mostrado seu código na Figura 7 possuindo problemas que induzam à procura pelos recursos necessários para resolvê-los, através de uma estratégia conhecida como PBL (Problem Based Learning ou Aprendizagem Baseada em Problemas). Tabela 2: Cronograma do mini curso. PRIMEIRO DIA: CONTEÚDO Teoria Sobre o Mini Curso O que é o Robocode? Conceitos Básicos Anatomia do Robô A Batalha A Competição Como Instalar Métodos Básicos Eventos Criando um Robô Exemplo de Código Iniciando uma Batalha SEGUNDO DIA: EXERCÍCIOS Prática Avançar para frente Virar o canhão com angulação de até 360º Andar para traz Estratégia para fugir dos tiros Estratégia após ser atingido por disparos Estratégia após ser detectado por radares Estratégia após detectar as paredes

Figura 7. Protótipo criado em sala de aula. Basicamente após ser apresentados os comandos básicos os alunos ficam preparados para conhecer novos desafios e solucionar. Quando os estudantes não foram capazes de resolver uma atividade de pequena ou grande complexidade, o bolsista mostrou a solução e discutiu com eles a fim de difundir conhecimento, aprendizagem com as novas soluçõs apartir das dificuldades apresentadas no exercício. 4 – AVALIAÇÕES E RESULTADOS Ao final do último dia do mini-curso, os alunos responderam a um formulário de perguntas que avaliaram a eficiência deste mini-curso em relação ao despertar ou reforçar a participação dos alunos no curso de Engenharia Elétrica, levando-os a permanecer no curso. Para confirmar ainda mais a eficiência do projeto, o número de reprovados foram listados em anos anteriores e foram comparados estes números com o número de reprovados no ano avaliado (2013). A Tabela 3 mostra as perguntas do formulário, junto com as respostas em percentuais dos estudantes: Tabela 3: Questionário com as respostas dos alunos. QUESTÕES Você ficou interessado em robótica através deste mini-curso? As palestras são fácil entendimento? Você recomenda esse minicurso para outros alunos? O mini-curso lhe motivou em aprender mais sobre robótica?

SIM

NÃO

67,00%

33,00%

80,00%

20,00%

80,00%

10,00%

69,00%

31,00%


Você já ouviu falar das Olimpíadas de Robótica? Você já participou de alguma olímpiada de robótica? Você tem interesse em um treinamento para participar de competições de robótica? Você já teve algum contato com a Robótica antes do mini-curso? Você já conhecia o software Robocode antes do mini-curso?

Tabela 4: Percentagem de alunos reprovados. 54,00%

46,00%

9,00%

91,00%

64,00%

36,00%

11,00%

89,00%

7,00%

93,00%

Percebemos que baseado na Tabela 3, que a maioria dos estudantes estavam interessados no mini-curso e na área de robótica. Em percentual maior por parte da classe, essa foi capaz de resolver e conhecer as funcionalidades somente nas primeiras cinco atividades sem problemas, no entanto, apenas um pequeno grupo de alunos foi capaz de pesquisar e resolver duas últimas atividades: estratégia após ser detectado por radares, estratégia após detectar as paredes do ambiente. Isso mostra que o mini-curso estava em um nível intermediário para o primeiro semestre de um curso de Engenharia Elétrica. Foi realizado um levantamento das disciplinas básicas de engenharia (Cálculo Diferencial e Integral I , Física Geral I e Programação Computacional) oferecidos no período de 2006 à 2013. Ao fazermos uma análise de acordo com a Tabela 4, observa-se que o número de matriculados em 2013 é muito maior do que o número de matriculados nos anos anteriores e, que a percentagem de alunos que foram reprovados nessas disciplinas que indiretamente envolvem a robótica é relativamente menor em 2013, do que a percentagem nos anos anteriores (2006 à 2012). De forma geral, o curso de Robocode foi aplicado pela primeira vez em 2013, em que a quantidade de inscritos foi compatível em maior número em relação a outros mini cursos ministrados em anos anteriores, podemos visualizar que o minicurso realmente fez os alunos possuírem motivação para optarem em seguir o curso de Engenharia Elétrica. A eficiência deste mini curso é mostrada tanto na Tabela 3, com o formulário que foi aplicado imediatamente após o mini-curso, como também na Tabela 4, na qual se compararmos com os anos anteriores, observamos que o número de alunos que reprovaram em 2013 é um dos menores índices.

Cálculo Diferencial e Integral I Rep* 14 30 33 39 41 29 44 48 Cálculo Diferencial e Integral I

Ano 2006 2007 2008 2009 2010 2011 2012 2013

Mat* 34 42 50 53 70 83 56 108

Ano 2006 2007 2008 2009 2010 2011 2012 2013

Mat* 34 34 63 57 66 102 52 111

Rep* 14 22 33 34 52 43 28 25 Física Geral I

% 41,18% 64,71% 52,38% 59,65% 78,79% 42,16% 53,85% 22,52%

Ano 2006 2007 2008 2009 2010 2011 2012 2013

Mat* 34 53 70 47 51 101 50 112

Rep* 24 45 43 27 33 42 27 52

% 70,59% 84,91% 61,43% 57,45% 64,71% 41,58% 54,00% 46,43%

% 41,18% 71,43% 66,00% 73,58% 58,57% 34,94% 78,57% 44,44%

Mat*=matriculados; Rep*=reprovados; O baixo rendimento acadêmico nestas disciplinas introdutórias dos cursos de engenharia pode ser uma das principais causas da evasão no curso de Engenharia Elétrica e retenção de alunos nos semestres iniciais. Esta falha pode ser atribuída à má formação do aluno durante o ensino nas escolas de ensino médio [9]. Podemos entender melhor com os gráficos abaixo, o baixo percentual de reprovados nas principais disciplinas básicas de engenharia em 2013, em relação aos anos anteriores. 5. CONCLUSÕES FUTURO

E

TRABALHO

As atividades aplicadas e desenvolvidas no presente artigo facilitam o ensino e a aprendizagem dos alunos no primeiro semestre e os incentivam sua permanência no curso. O Aluno bolsista que as atividades envolvendo a programação do software Robocode é válida para aqueles que desejam aprender ou aprimorar seus conhecimentos em linguagem de programação orientados a objetos. Lembramos que os alunos têm a


possibilidade de simular o código em um ambiente virtual sem custo de hardware. Tal possibilidade não é encontrada quando se equiparada com um ambiente real. Percebemos que por meios de dados estatíticos expostos nas tabelas mostrados neste artigo que o mini-curso deixou os alunos motivados a continuarem no curso e, reduziu o número de reprovações em disciplinas introdutorias essenciais para a engenharia. Vale ressaltar que o grupo tem outros projetos em paralelos, que tem como objetivo incentivar os alunos do ensino médio para os cursos de engenharia. Destes projetos destacamos o software RoboMind e o kit da Lego Mindstorms com a idéia de difundir os conheciemntos voltados para hardware e software. REFERÊNCIAS: [1]Raabe, A. L. A. (2005) "Uma proposta de arquitetura de Sistema Tutor Inteligente baseada na teoria das experiências de aprendizagem mediadas". Tese (Doutorado) – Programa de Pós-Graduação em Informática na Educação, Universidade Federal do Rio Grande do Sul, Porto Alegre. [2]Rapkiewicz, C. E. et al. (2006) "Estratégicas pedagógicas no ensino de algoritmos e programação associadas ao uso de jogos educacionais", http://www.cinted.ufrgs.br/ renote/dez2006/artigosrenote/25157.pdf. [3]Theiss, F. (2006) "Linguagem visual orientada por figuras geométricas voltada para o ensino de programação: versão 2.0". Trabalho de Conclusão de Curso (Bacharelado em Ciências da Computação) – Centro de Ciências Exatas e Naturais, Universidade Regional de Blumenau, Blumenau. [4]Mattos, M. M.; Fuchs, J. F. (2007) "Qualifica: Uma ferramenta para apoio a construção de algoritmos estruturados". In XVI Seminário de Computação - SEMINCO, Blumenau, 2007. p. 75-87. [5]FLANAGAN, David. Java: o guia essencial. Rio de Janeiro: Campus, 2000. [6]HAGGAR, P. Java - guia prático de programação. Rio de Janeiro: Campus, 2000.

[7]NEWMAN, A. Usando Java. Rio de Janeiro: Campus, 1997. [8]Robocode (2008a) "Robocode API", http://robocode.sourceforge.net/docs/robocod e. [9]SILVA, J.D.A.; TEIXEIRA, V.S.C.; MOREIRA, A.B.; TEIXEIRA, I.S.C. Análise do Curso de Engenharia Elétrica do Campus de Sobral: Promover o Interesse de Estudantes do Ensino Médio e o Controle da Evasão. XL - Congresso Brasileiro de Educação em Engenharia. Belém: UFPA, 2012. [10]BENITTI, F.B. VAVASSORI; VAHLDICK, A; URBAN, D.L; KRUEGER, M.L; HALMA, A: Experimentação com Robótica Educativa no Ensino Médio:CSBC - XXIX Congresso da Sociedade Brasileira de Computação, UFRGS, 2009.


1 de 5

Um estudo de caso realizado em uma escola pública na cidade de Limoeiro do Norte: Dificuldades e reflexões quanto ao uso de softwares livres na Educação Francisca Lindvania da Silva Vieira1 Francisco Ranulfo Freitas Martins Júnior2 Universidade Estadual do Ceará – Universidade Aberta do Brasil 1

francisca.lindvania@alunouece.br 2 ranulfo.freitas@uece.br Centro de Ciências e Tecnologias Rua José Hamilton de Oliveira – Polo Limoeiro Limoeiro do Norte/CE, Brasil, 62930-000 Resumo – Os softwares livres apresentam diversos e importantes

combate à exclusão social, propiciando a redução de custos

benefícios, em relação aos softwares proprietários. Entre os quais

na elaboração de laboratórios e projetos voltados para

podemos citar a redução de custos com aquisição e manutenção. Por ser uma ferramenta livre deveria ter seu uso priorizado nas instituições

educação.

Nos últimos anos o governo federal vem

públicas, principalmente de educação o que infelizmente ainda não

investindo muito nas tecnologias educacionais, especialmente

acontece, apesar dos investimentos que o governo federal tem feito junto

na expansão do software livre, com a entrega de

a essa plataforma. Alguns empecilhos se apresentam como motivos para

computadores às escolas que já vem com o Linux instalado,

a não utilização dos softwares livres nas escolas públicas, dentre os quais se destacam: o desconhecimento do software e a falta de treinamento

com intuito de reduzir custos.

para trabalhar com essas plataformas. Diante destes pressupostos, a

Por falta de conhecimento aos chegar às escolas os

presente pesquisa foi realizada em uma escola pública municipal de

computadores são formatados na tentativa de substituir o

Limoeiro do Norte-Ce, através de observações e vivência prática com

software livre pelo software proprietário.

alguns softwares livres aplicados na Educação. Servindo a presente pesquisa como esclarecimento para a necessidade da implementação e

O objetivo deste trabalho foi elaborar um estudo sobre software livre e seu uso nas escolas públicas municipais. Com

uso do software livre na instituição. ABSTRACT -Free softwares have several important advantages compared to

intuito de identificar os motivos pelos quais o software livre

proprietary software. Among which we can mention the reduction of

ainda não é utilizado em algumas escolas. Tal objetivo foi

acquisition costs and maintenance. Being a free tool should have prioritized

rapidamente alcançado, haja vista que, ao longo da pesquisa

their use in public institutions, especially education which unfortunately still

pôde-se perceber que há um desconhecimento e uma

does not happen, despite the investments that the federal government has done next to that platform. Some obstacles are presented as reasons for non-

desinformação dos profissionais da educação, acerca das

use of free software in public schools, among which are: the lack of software

vantagens de um software livre, bem como de suas

and the lack of training to work with these platforms. Given these

ferramentas acessíveis a operacionalização didática.

assumptions the present research was conducted in a public school in NorthCe Limon, through observation and practical experience with some free

Na escola onde foi realizado o estudo de caso, constatou-se que, a instituição possui um laboratório de

software applied in education. Serving this research as the need for clarification of the implementation and use of free software in the institution.

informática e que recebeu do governo federal através de pregão, um kit do PROINFO. Sem conhecimento, do que é

I. INTRODUÇÃO

das vantagens e funcionalidades do Linux, motivados pela ideia de que plataforma livre não funciona, a primeira

Softwares livres são todos os softwares que oferecem liberdade

de

execução,

cópia,

estudo,

orientação foi que as máquinas fossem formatadas e

distribuição,

substituído o sistema operacional livre por um proprietário, o

modificação e aperfeiçoamento. Xavier (2011), afirma que os

que ocasionou na inutilização das máquinas visto que a

softwares livres tornaram-se ferramentas importantes no

configuração de fabrica não permite tal modificação.


2 de 5

A escola ainda começou a trabalhar com um software

III. SOFTWARE LIVRE NAS ESCOLAS PUBLICAS

livre, denominado de Luz do Saber, o qual era um projeto do município de Limoeiro do Norte, para isto houve a

Apesar do governo federal está investindo em softwares

capacitação de apenas um dos professores. Contudo este fato

livres, entregando as instituições de ensino computadores

isolado, não responde a demanda destes profissionais da

com esses softwares já instalados, a realidade encontrada em

educação, pois na medida em que algum professor necessita

algumas escolas da rede pública municipal fica a desejar, com

fazer alguma atividade no laboratório de informática, se

relação a inclusão digital. Constata-se que em algumas

restringe somente aos computadores que possuam sistema

instituições os softwares livres são substituídos por softwares

operacional Windows, pois não conseguem trabalhar com o

proprietários, nem mesmo o Linux, que é um dos softwares

Linux, devido a falta de capacitação.

mais populares é usado nestas instituições, devidos as

Merecendo destaque, vale ressaltar que, apesar de possuir um laboratório de informática desde o ano de 2010, as atividades

pedagógicas

voltadas

e/ou

auxiliadas

dificuldades de operacionalização por parte daqueles que fazem o “dia a dia” da escola.

pela

A resistência desta realidade é confrontada por Xavier

informática ainda não fazem parte do projeto politico

(2011), quando este afirma que: “com a quebra de

pedagógico da instituição, e que seus profissionais até o

paradigmas

momento não haviam sido capacitados a trabalhar com essas

consequentes

ferramentas, nem tão pouco para com o uso de software livre.

educacional está sendo alterado”. Ainda comungando com o

educacionais, da

era

causadas

do

pelas

conhecimento,

mudanças o

ambiente

pensamento de Xavier, Américo Bernardes (2013) diretor do II. VANTAGENS DO USO DO SOFTWARE LIVRE

programa nacional de informática na educação (PROINFO), a política do governo federal é a implantação do software livre

Ao falarmos de software é extremamente importante fazermos a distinção entre software livre e software gratuito,

nas instituições públicas, acreditando que o PROINFO, é um dos maiores projetos de inclusão digital no país.

pois alguns programas mesmo que distribuídos gratuitamente,

No Brasil existem outras iniciativas por parte do governo

não podem ser modificados e aperfeiçoados, ou seja seu

federal em relação ao uso do software livre, como podemos

código fonte é restrito.

citar

Um software livre pode apresentar quatro diferentes tipos de liberdade, são elas: I.

II.

III.

IV.

o

Portal

do

Software

Público

Brasileiro

(www.softwarepublico.gov.br), que no ano 2009 já possuía mais de 50 mil usuários. Nesse portal são desenvolvidas

Liberdade de executar o programa, para qualquer

soluções que podem ser compartilhadas e modificadas por

propósito;

qualquer usuário interessado.

A liberdade de estudar como o programa funciona e

Em 05 de novembro de 2009 foi publicado no Diário

adaptá-lo às suas necessidades;

Oficial da União, um decreto onde o governo passará a fazer

A liberdade de redistribuir cópias de modo que você

algumas exigências às empresas ligadas aos serviços de

possa ajudar o seu próximo;

tecnologia e informática. Uma delas é que algumas empresas

A liberdade de aperfeiçoar o programa e publicar os

multinacionais que não disponibilizam seus códigos fontes,

seus

não sejam mais adquiridas por órgãos que compõem o

aperfeiçoamentos,

comunidade se beneficie.

de

modo

que

toda

governo federal, estando aparecendo como solução para essa questão, Softwares do tipo BrOffice e Ubuntu, o que além de proporcionar uma economia financeira, vai garantir a segurança dos dados brasileiros com relação às espionagens.


3 de 5

Existe uma cogitação de que os recursos economizados

ABC- Blocks – Alfabeto móvel.

com os pagamentos de licenças sejam utilizados na

Kverbos – Língua Estrangeira Estudo verbos do

capacitação de pessoal, para uso das plataformas livres.

Espanhol.

As funcionalidades de um software livre vão desde

Calc 3D – Gráficos: geometria e estatística.

sistemas operacionais, suítes de escritório, ferramentas e

Kbrusch – Trabalho com Frações.

jogos pedagógicos.

Kpercentage – Estudo de porcentagem.

3DPlanetárium – Programa que mostra o sistema solar

Como exemplos podem citar: 

Linux Educacional: é uma solução de software que 

Celestia – Viagem 3d ao Sistema Solar.

de forma a favorecer ao usuário final no que se refere

Chemtool – Desenhar estruturas Químicas.

ao uso e a acessibilidade da mesma, bem como ao

Eqchem – Balanceamento de fórmulas químicas.

responsável pelo laboratório no que se refere à manutenção e atualização da solução. 

em tempo real.

colabora para o atendimento dos propósitos do ProInfo

Pandorga:

A

distribuição

O uso do software livre na educação é mais que somente economia em termos de recursos, mais uma série de outras

educacional

Pandorga

GNU/Linux, é uma ferramenta com 120 atividades

vantagens como: sistema robusto, segurança, sem problemas com vírus e pragas virtuais.

pedagógicas eficazes no auxílio do ensino infantil e fundamental especialmente em escolas públicas. 

E-PROINFO:

O

Ambiente

Colaborativo

IV. POR QUE ALGUMAS ESCOLAS de

PÚBLICAS NÃO UTILIZAM OS SOFTWARES

Aprendizagem - e-ProInfo é um software público,

LIVRES?

desenvolvido pela Secretaria de Educação a Distância

- SEED do Ministério da Educação - MEC e

Sabe-se que o uso do computador na educação pode

licenciado por meio da GPL-GNU, Licença Pública

causar intensas melhorias nas formas de ensino e também na

Geral.

inclusão digital, por meio da democratização do acesso ao

Ubuntu: é um sistema operacional ou sistema

conhecimento, sem que haja nível hierárquico, como já

operativo de código aberto, construído a partir do

ocorreu em épocas durante a própria história da educação

núcleo Linux, baseado no Debian.

brasileira.

Fedora: é um sistema operativo que tem por base o

Assim entende-se que o uso de softwares livres

Linux, uma coleção de software que faz com que o seu

corrobora com a melhoria da educação deste país, através de

computador trabalhe.

suas inúmeras vantagens. Além disso, é preferível a utilização

Libre Office: é uma suíte de aplicações de escritório

deste tipo de software, pois a aquisição e manutenção dos

destinada

softwares proprietários geram um custo elevado para os

tanto

à

utilização

pessoal

quanto

profissional.

cofres das instituições, sendo o software livre uma excelente

Luz do Saber: é um recurso didático que tem por

alternativa para resolução desse problema. Mais se existem

objetivo contribuir para a alfabetização de crianças,

tamanhas vantagens porque o uso desses softwares ainda não

além de promover a inserção na cultura digital. É um

são prioridades?

software de autoria embasado primordialmente, na

Um dos fatores principais é a falta de informação e

teoria do educador Paulo Freire. Considera também

capacitação por parte dos profissionais das instituições.

algumas

e

Estando todos acostumados na comodidade do software que

AnaTeberosky acerca do processo de aquisição do

usualmente já utilizam se torna difícil a migração para outro

código linguístico.

tipo de software sem um prévio treinamento.

contribuições

de

Emilia

Ferreiro


4 de 5

O censo escolar de 2012 aponta que no ensino

3ª etapa: Pesquisa de campo.

fundamental da rede pública municipal de ensino, 48 % das

Última etapa metodológica da pesquisa que ocorreu no

escolas possuem laboratório de informática, sendo que destas

período de 02 a 04 de junho de 2014, por meio de entrevistas

45% possuem acesso à internet, já no ensino médio 92% das

com o núcleo gestor e a equipe docente da escola. Esta etapa

escolas possuem laboratórios e 93% deste total tem acesso à

teve por objetivo a indagação acerca dos conhecimentos

internet. Estudos apontam que a atuação do professor como

prévios e práticas relacionadas aos softwares livres. Após as

mediador no processo de ensino e aprendizagem por meio dos

entrevistas pôde-se obter os principais motivos pelos quais

recursos informáticos, é a chave no processo do uso do

não existe a prática do uso dos softwares livres dentro da

software livre, enfatizando o fato de que são necessárias

escola.

pessoas capacitadas para lidar com essas novas ferramentas. VI. RESULTADOS E DISCUSSÕES V.

METODOLOGIA O estudo mostrou que a maioria dos profissionais da

Com vistas a serem relatadas as principais dificuldades de

escola, nem mesmo sabem a diferença entre um software

utilização de softwares livres, como ferramentas de educação,

proprietário e um software livre. Foi constatado ainda que os

realizou-se uma pesquisa do tipo investigativa, tendo como

softwares que estão instalados na maioria das máquinas além

instrumento de elucidação o estudo de caso. Esta pesquisa

de serem proprietários estão com suas licenças vencidas, e

teve como campo a escola pública municipal de Ensino

que a máquina que possuiu sistema operacional livre (Linux),

Fundamental César Cal’s Neto, localizada na comunidade de

está inutilizada por falta de profissional capacitado para lidar

Sucupira, município de Limoeiro do Norte-CE, sendo

com o referido sistema.

dividida em três etapas, a saber:

O estudo mostrou uma realidade preocupante para um país em que há um investindo considerável em software livre.

1ª etapa: Estudo bibliográfico. O estudo bibliográfico feito para respaldar teoricamente o trabalho se deu por meio de uma pesquisa em páginas da

Pois foi constatado que o conhecimento sobre o assunto ainda nem chegou à instituição, como prova disso a inutilização da máquina recebida através do Proinfo.

web, artigos, monografias e decretos, com vistas a um maior

Como foi retratado ao longo de quase todo o presente

conhecimento e entendimento do assunto. Esta etapa ocorreu

artigo, se faz necessário um alerta para possíveis e

durante os dias 27 de maio a 18 de junho de 2014.

necessárias ações de informação e formação profissional, bem como para a construção de políticas públicas que

2ª etapa: Visita ao laboratório de informática da

trabalhem a disseminação do software livre em suas ações de

instituição.

distribuição, formação e capacitação dos sujeitos.

Esta etapa ocorreu no dia 02 de junho de 2014, com o intuito de identificar e realizar um estudo prévio acerca dos

VII. CONSIDERAÇÕES

tipos de softwares instalados nas máquinas do laboratório de informática da escola, observando prioritariamente aqueles

Segundo Kruger (2013), o uso do software livre vai

que poderiam ser utilizados como ferramentas voltadas e

muito além da questão técnica, é a busca pela liberdade de

aplicas na educação.

pensamento, e a disseminação do conhecimento para todos os níveis escolares. O presente estudo veio mostrar que apesar de possuir inúmeros benefícios, o software livre é ainda muito pouco


5 de 5

usado nas instituições públicas de ensino. Mostrando ainda

REFERÊNCIAS

que constantes investimentos do governo ainda são ineficazes devido à falta de capacitação e preparação humana. E que a expansão do software livre vai além da

_________, A Utilização do Software Livre nas Escolas

Públicas,

disponível

em:

distribuição de máquinas com o software instalado, é

http://textolivre.pro.br/blog/?p=1002, acessado em 05 jun.

necessário políticas públicas que priorize também a formação

2014.

profissional.

_________, Decreto aproxima Governo Federal do

Se o software livre traz como grande vantagem à

software

livre.

Disponível

em:

redução de custos com aquisição e licença dos softwares

http://gabinetedigital.rs.gov.br/post/decreto-aproxima-

proprietários, é preocupante a situação observada em algumas

governo-federal-do-software-livre/, acessado em 18 jun.

instituições públicas de ensino, onde a realidade é totalmente

2014.

contrastante.

KRUGER; MATTE, Ana Cristina. Falta a capacitação

Já é pretensão do Ministério da Educação que técnicos

a professores para usar o software livre nas escolas,

dos Núcleos de Tecnologias Educacionais sejam capacitados

disponível

para dar suporte aos docentes que trabalham nos laboratórios

capacitacao-a-professores-para-usar-o-software-livre-na-

de informática. Essa é uma importante iniciativa, mas o

escola, acessado em 05 jun. 2014.

essencial é que o treinamento ocorra também com os

em:

http://noticias.terra.com.br/educacao/falta-

___________, MEC entregará computadores com

docentes que estão em sala de aula, para que estes possam

software

adequar a tecnologias às suas metodologias de ensino.

http://www.softwarelivre.gov.br/noticias/meccomlinux/,

Para Richard Stallman (2014), “[…] as escolas têm uma

livre

instalado,

disponível

em:

acessado em 15 jun. 2014.

missão social: ensinar seus alunos a serem cidadãos de uma

STALLMAN, Richard. Por que escolas devem usar

sociedade forte, capaz, independente, cooperativa e livre. Elas

exclusivamente

devem promover o uso de software livre, do mesmo modo

https://www.gnu.org/education/edu-schools.pt-br.html,

como promovem a reciclagem. Se as escolas ensinarem

acessado em 05 jun. 2014.

software livre, os alunos tenderão a usá-lo depois de se

software

livre,

disponível

em:

____________________, Portal do Software Livre

graduar. Isso ajudará a sociedade como um todo a escapar do

Brasileiro.

domínio (e abuso) das megacorporações. O software livre

http://www.softwarepublico.gov.br/4cmbr/xowiki/Software,

permite aos estudantes que aprendam como o software

acessado em 18 jun. 2014.

funciona”. Esse tipo de software é baseado no

Disponível

em:

___________, Presidente Lula diz que Brasil será o princípio de

paradigma do uso de software livre no mundo. Disponível

compartilhamento de conhecimento, e na solidariedade

em: http://www.softwarepublico.gov.br/4cmbr/xowiki/news-

praticada pelos usuários da rede de computadores, o que é um

item64, acessado em 18 de jun. 2014.

dos princípios básicos da Educação, que é fomentar o cidadão

___________, Software livre, o que é? Disponível em:

para influenciar de maneira crítica e positiva o meio social,

http://softlivre.dgidc.minedu.pt/index.php?option=com_conte

contribuindo para o desenvolvimento do país bem como para

nt&task=view&id=13&Itemid=81, acessado em 05 jun. 2014.

sua emancipação como ser social. XAVIER, Danilo Domingos. Software Livre na Educação. UFMT-UAB, Cuiabá-MT, 2011. .



Avaliação de Emuladores para o Ensino de Redes de Computadores Atrícia Sabino1, Arthur Callado2 Campus de Quixadá, Universidade Federal do Ceará Quixadá – Ceará. 1

atriciasabino@gmail.com 2 arthur@ufc.br

Resumo— O uso de emuladores de rede é de fundamental importância para a pesquisa, o desenvolvimento de novos protocolos de rede, análise de um processo de desempenho da rede e também no desenvolvimento de novas tecnologias de rede. Este trabalho tem como principal objetivo introduzir esta técnica no ensino de redes de computadores e avaliar emuladores para uso no ensino. Abstract— The use of network emulators has fundamental importance for new research, development of new network protocols, performance analysis of a network process and also in developing new network technologies. The main purpose of this work is to introduce this technique in the teaching of computer networks and to evaluate emulators for use in teaching.

Utilizar emuladores para o ensino de redes de computadores pode ser uma das alternativas para criar ambientes ou cenários complexos sem grande consumo de recursos financeiros e computacionais. Com o intuito de contribuir com a comunidade acadêmica da Universidade Federal do Ceará no campus de Quixadá, esse trabalho tem como objetivo avaliar ferramentas de emulação para o ensino de redes de computadores. II. CONCEITOS

Emular comportamentos de uma rede pode ser uma alternativa interessante para testar aplicações que visam ser feitas em máquinas específicas. I. INTRODUÇÃO Muitas vezes pesquisadores precisam testar um A grande rede mundial de computadores, a aplicativo no computador de uma rede específica, Internet, continua a crescer, fazendo com que seu para que se tenha uma ideia do funcionamento da ambiente seja crucial para o desenvolvimento, aplicação, esses testes não precisam acontecer ao criação de novos protocolos e aplicações. Testar vivo. É nesse momento que surge um método esses novos protocolos e aplicações em laboratório conhecido como emulação de rede. de rede imitando condições reais ainda é possível, A emulação consiste em fazer um esforço para mas pode haver dificuldades nas condições de torna-se equivalente a outro, fazer-se passar por ele. ambiente e controle de tempo [1]. No contexto das redes de computadores, a Para isso existem diferentes tipos de técnicas que realização dessa técnica deve garantir que pelo permitem a realização de experimentos que menos as características do comportamento de uma dependem da infraestrutura e da sua necessidade. rede estejam disponíveis. Para possibilitar o uso de Os três métodos mais conhecidos são: testes em emulação é necessário utilizar emuladores, que em rede real, simulação de redes e o método de linguagem computacional serão os programas emulação de rede. A simulação de rede permite, capazes de executar os mesmos métodos/processos através da imitação de resultados (e não do de um sistema real sobre outro sistema hospedeiro e processo avaliado em si), fazendo com que as também reproduzem os mesmos resultados para condições e os elementos de uma rede sejam entradas iguais. Estes programas criam uma camada controlados e repetíveis, em cada execução. A de software entre as plataformas hóspedes e técnica de emulação também permite controlar e hospedeiras [3]. repetir vários experimentos, no entanto isso é feito A seguir são apresentados diferentes emuladores em tempo real [2]. pré-selecionados para avaliação neste trabalho. Não Keywords— Emulator, Computer Network, Teaching.


descartamos a possibilidade de outros serem identificados e considerados posteriormente.

O Mininet é um emulador criado com o objetivo de criar redes definidas por software (Software Defined Networks – SDN). Redes escaláveis em um A. Core Emulator único computador usando processos em redes O primeiro emulador considerado para início das distintas. Com isso o usuário cria, interage, avaliações foi o Core (Common Open Research modifica e compartilha um protótipo de SDN, Emulator), é uma ferramenta de emulação de rede fornecendo uma maneira mais fácil para rodar no Open Source. O Core é usado em sistemas hardware [6]. Nesse trabalho, ele foi usado com o operacionais linux e pode emular PCs, roteadores, e intuito de emular apenas uma rede comum, com o links de redes. Essa ferramenta é baseada no código switch modo usuário. livre do Integrated Multi-protocol Network III. METODOLOGIA Emulator/Simulator (IMUNES) da Universidade de Zabred. Esse emulador possui suporte a redes Esta seção tem por objetivo detalhar os passos wireless, scripts de mobilidade, IPsec, IPv6, para avaliação e comparação dos emuladores emulação distribuída, controle de roteadores utilizados para a realização desse trabalho. externos linux, uma API remota e widgets gráficos Primeiramente fez-se necessário: [4]. O Core possui um daemon (backend) que é 1. Pré- Selecionar emuladores open source e fazer responsável por gerenciar as sessões de emulações. um estudo de caso sobre emulação no ensino. Nessa Basicamente seu funcionamento consiste em etapa selecionaram-se três ferramentas de código conectar nós e redes via interfaces de cada nó, e aberto e utilizadas pela academia. então o daemon responsável pela criação da sessão é executado via interface gráfica CORE GUI 2. Criar um cenário geral de estudo, criando uma (frontend). Esses daemons usam módulos python padronização e com isto as ferramentas foram que são importados diretamente de scripts python testadas e comparadas em cima desse cenário. da instalação. É usado com mais frequência para emular nós em uma máquina real, e seu foco é mais 3. Para cada ferramenta observou-se: voltado para emulação na camada 3, testes de funcionalidades da ferramenta, configurações e suas protocolos e aplicações de software. características principais. B. NetKit Emulator

O Netkit dispõe de um conjunto de ferramentas com códigos abertos licenciados pela GPL. O experimento criado no emulador pode ser iniciado e criado através de scripts ou através da linguagem NetMl, que é uma linguagem baseada em XML para redes. As máquinas virtuais criadas no Netkit é um computador completo rodando uma distribuição Debian em modo usuário. Dos recursos que podem ser testados com o Netkit, podemos destacar; protocolos em todas as camadas, protocolos de roteamento, comutação de pacotes por MPLS, ferramentas de segurança, detecção de intrusão, encapsulamento, filtro de pacotes, montagem de pacotes. Podem ser utilizadas linguagens de script awk, bash, expect, python [5]. C. Mininet Emulator

4. Executar os experimentos e coletar os critérios de avaliação, nessa etapa é possível observar o desempenho de aplicações na rede emulada. 5. Avaliação e comparação dos emuladores. A avaliação permitiu a comparação das ferramentas estudadas, a partir da qual pudemos tirar conclusões e propor a adoção de uma destas ferramentas para uso nas disciplinas e atividades de avaliação de desempenho em redes. IV. EXPERIMENTOS E RESULTADOS

Nesta seção, são mostrados os requisitos para a realização do experimento, como também como foi o desempenho de cada emulador. Os resultados, características e discussões resultantes do experimento também são mostrados.


A configuração do cenário foi feita com duas máquinas físicas e duas emuladas. Utilizou-se uma máquina real executando o ubuntu server 12.04, com o emulador instalado, emulando hosts e outra máquina real com o ubuntu 12.04 desktop. Permitindo então que máquinas emuladas pudessem se comunicar com uma física. A figura mostra como foi arquitetado o cenário.

o Core. Pensando na facilidade de uso optamos por usar a interface gráfica da ferramenta Core GUI, simples e intuitiva. Basta conhecer alguns objetos, e barras de configurações e então é possível usar o Core facilmente. Com uma simples ação de selecionar e arrastar os ativos de rede é possível montar um cenário de rede rapidamente. A parte mais trabalhosa é a de habilitar alguns serviços que raramente falham e a parte de roteamento. De acordo com a documentação oficial o Core Emulator está disponível para plataformas operacionais Linux e FreBSD, no linux a partir do kernel 2.6.24 e no FreBSD a partir de kernels 4.11. A ferramenta também pode ser usada virtualmente, inclusive possui algumas máquinas prontas para uso e testes do protocolo IPv6. Depois de configurar uma máquina real para fazer o papel de gateway e uma máquina física para a comunicação com as máquinas emuladas, Fig. 1 Cenário Experimental Esse cenário funciona da seguinte forma, uma utilizou-se a ferramenta iperf, comumente usada máquina real linux com o emulador instalado, para medir o desempenho de redes ao injetar fazendo o papel de gateway conectada a uma um tráfego na rede, permitindo coletar os dados das física através da placa eth0 (Rj45). A máquina máquinas emuladas. Ao utilizar a ferramenta “Ping” gateway é configurada para rotear o entre uma máquina física e uma máquina emulada encaminhamento de pacotes. Em cada máquina é no Core foi possível saber qual a latência 0.691 ms, preciso adicionar rotas para que as redes possam ser perda de pacotes de 112 pacotes e taxa de enxergadas, permitindo assim ser feitos os testes transmissão de 92 Mbits/sec. entre ambiente real com emulado e, então, coletar E. Avaliação NetKit as métricas e critérios tidos como objetivos nesse A segunda ferramenta escolhida para ser avaliada trabalho. Para que se tenha um equilíbrio entre o foi o Netkit emulator, seu funcionamento consiste no uso de dois componentes: um conjunto de scripts desempenho de uma rede e o ensino baseado em emulação, definiram-se alguns critérios que foram que auxiliam a criação de cenários e um conjunto de dispositivos virtuais. Possui uma instalação fácil levados em conta na comparação dos emuladores. Dentre eles, selecionamos para atender ao ensino ou até mesmo o uso a partir de um live cd. Alguns conhecimentos básicos do sistema operacional linux configuração/instalação do emulador, facilidade de uso, disponibilidade operacional; e para o são suficientes para instalá-lo e configurá-lo. Disponível apenas para plataformas operacionais desempenho de redes largura de banda, latência, linux baseadas em Debian, o Netkit também só cria perda de pacotes. máquinas linux emuladas. Ainda não existem D. Avaliação Core versões para o Windows, uma alternativa para que Na configuração e instalação da ferramenta Core, usa Windows é utilizá-lo emulado em uma máquina pode-se notar que existe uma facilidade para virtual ou para facilitar mais ainda rodar a versão realizar essa tarefa. Para sua instalação no ubuntu é live cd. Na configuração é necessário criar algumas necessário apenas instalar alguns pacotes que são pré-requisitos, e então partir para a instalação das variáveis de ambientes que são exigidas para que o funcione corretamente. Uma bibliotecas e do módulo para roteamento. Para emulador característica negativa da ferramenta é que sempre concluir a instalação, basta iniciar o daemon e usar


que a máquina for desligada, ela vai perder as configurações, exigindo que o usuário configure tudo novamente, mas como as variáveis são para o bash, basta apenas escrever os export no arquivo .bash_rc dessa forma ele será iniciado juntamente com o sistema. De acordo com o cenário global definido anteriormente, mais uma vez fez-se uso do iperf para inserir tráfego na rede. Outro ponto negativo da ferramenta é a tarefa de adicionar internet nas máquinas virtuais emuladas, por se tratar de máquinas virtuais é preciso ainda criar as pontes para a internet fosse compartilhada, surgiu essa necessidade devido ao fato que cada host tivesse o iperf instalado para então comunicar com a máquina real. A métrica de perda de pacote foi feita diminuindo a capacidade do enlace da rede, o que possibilita ver qual é a perda de pacotes na comunicação da rede real com a virtual. No total de pacotes transmitidos a perda foi de 154 pacotes. Também foi possível medir a largura de banda da transmissão equivalente a 89,8 Mbits/sec e a latência de 0.442 ms. Percebe-se que até agora os emuladores conseguem medir essas métricas, contribuindo para suas características positivas para o ensino. F. Avaliação Mininet

antiga e com alguns bugs. No entanto, a opção de apenas utilizar a VM que o site do emulador disponibiliza não tem esses problemas, basta apenas fazer o download e executar com um algum software de virtualização. Ou seja, ela já está completa com todos os ativos e ferramentas que serão necessários para executar experimentos. A avaliação das métricas de perda de pacotes, latência e largura de banda foi feita seguindo o cenário global de uma máquina gateway configurada para fazer o roteamento entre uma máquina real e as virtuais emuladas criadas pelo Mininet. As máquinas emuladas foram criadas no código em python e podiam ser acessadas via ssh ou até mesmo abertas no terminal. O objetivo geral do emulador Mininet é permitir experimentos de Redes Definidas por Software (SDN), no entanto como nosso intuito é apenas mostrar que é possível emular e criar experimentos de redes, não utilizamos o OpenVSwitch da ferramenta, que define redes virtuais. Assim para criar o cenário definido nas configurações utilizouse apenas um cenário de roteamento simples. Como não utilizamos switch então não teve problema. Mas, no site eles sugerem que quando não for utilizar o switch openflow, use o switch para rede legadas, que pode ser feito facilmente com o comando sudo mn --switch user --test iperf. Depois de configurada, uma máquina host emulada no Mininet foi utilizada para comunicar com uma máquina real, seguindo a configuração do cenário global para testar se era possível medir a largura de banda que foi de 94.8 Mbps, a latência da comunicação que foi de 0.060 ms, e a perda de pacotes que foi 102 pacotes, em quantidade. O que demonstra que o Mininet pode ser usado para a realização de experimentos que não envolvam apenas SDN, podendo ser configurado para mediar métricas de desempenho de uma rede. O Mininet é um emulador novo, mas que está sendo muito utilizado atualmente pela academia em pesquisas de SDN. Assim, pode-se afirmar que ele traz um novo legado para as práticas de redes, não só das redes comuns, mas também no novo paradigma de Redes Definidas por Software.

O último emulador testado foi o mininet, por usar um único kernel do Linux para criar todos os hosts emulados, o que significa que não é possível executar softwares dependentes do Windows ou outros sistemas operacionais, embora seja possível executar em uma máquina virtual (VM). Com uma instalação relativamente fácil no ubuntu, em uma máquina real basta apenas digitar o comando aptget instal mininet e com isso a ferramenta é instalada facilmente. Já sua configuração não é tão trivial, visto que com apenas esse comando de instalação, algumas dependências e módulos não são instaladas, o que deve ser feito manualmente. Isto resulta numa tarefa desgastante, pois é necessário executar os experimentos e só então com os erros saber o que falta. Nesse trabalho, o Mininet foi instalado em uma máquina rodando o ubuntu 12.10, devido ao G. Resultados fato da versão disponível para o 12.04 ser muito


A tabela a seguir apresenta resumidamente os também se preocupar com a sintaxe do código se já resultados obtidos com a avaliação de cada não tiver aprendido a linguagem. emulador. A tabela está divida de acordo com os O Core, apesar da desvantagem de atribuir critérios de avaliação. endereços IPv6 automaticamente a cada host quando se cria uma rede, é mais leve e possui uma TABELA I CRITÉRIOS DE AVALIAÇÃO GUI que permite uma maior interação, além de possibilitar ver o funcionamento da rede em tempo real. É mais voltado para testes de serviços no IPv6, talvez esse seja o emulador mais indicado para experimentos de redes em disciplinas de redes. Com muitos serviços implementados, como NAT, IPSec e IPv6, com alguns laboratórios disponíveis utilizando serviços do IPv6, o Core passou a ser muito utilizado. Não tem muitos problemas de instalação nem de configuração, com um desempenho notável. Comparando as características positivas e negativas, fica claro que o Core é o emulador sugerido desse trabalho. Finalmente, é importante ressaltar que a escolha de cada emulador dependerá da sua necessidade, portanto quem quiser trabalhar com SDN uma boa V. CONCLUSÕES A emulação de Redes permite que facilmente seja escolha seria o Mininet; para a virtualização e uma criada uma topologia de rede, independente da maior robustez o Netkit seria o indicado; e para uma condição da rede, ou de equipamentos. Assim, criação de experimentos que vão desde o simples ao utilizar a técnica de emulação de redes no ensino complexo, com suporte a praticamente quase todos une os conceitos de redes aprendidos teoricamente e os serviços de redes, o Core seria o mais apropriado. que podem ser colocados em práticas com REFERENCIAS facilidade. [1] KIDDLE, Cameron. Scalable Network Emulation. 2004. 202 f. Tese (Doutorado) - Curso de Computer Science, University Of Calgary, Com os emuladores avaliados pode-se observar Calgary, 2004. que estes estão praticamente no mesmo nível, e os [2] SARI, R.F.; WIRYA, P.L.P., Performance Analysis of Session Initiation Protocol on Emulation Network using NIST NET, Advanced resultados demonstraram que é possível coletar Communication Technology, The 9th International Conference on, métricas em cada emulador. O Netkit utilizando de vol.1, p.506,510, 12-14 Feb. 2007. terminais simula bem o funcionamento de redes do [3] CARISSIMI, Alexandre. 2008. Virtualização: da teoria a soluções. Minicursos do Simpósio Brasileiro de Redes de Computadores mundo real. Apesar de alguns serviços trazerem SBRC´2008, 173-207. dificuldades de configurações, é um emulador de [4] AHRENHOLZ, Jeff et al. CORE: A REAL-TIME NETWORK EMULATOR. Ieee. Seattle, Wa, p. 1-7. ago. 2008. fácil manuseio para o usuário, no entanto consome [5] GURGEL, Paulo Henrique; BARBOSA, Ellen Francine; BRANCO, Kalinka Castelo. A ferramenta Netkit e a virtualização aplicada ao muita memória e usa bastante espaço em disco. ensino e aprendizagem de redes de computadores. In: XXXII Para cada máquina emulada ele ocupa um espaço CONGRESSO DA SOCIEDADE BRASILEIRA DE COMPUTAÇÃO (CSBC), 22., 2012, Curitiba. Anais... . Curitiba: Congresso da de 10 a 15 GB no disco, o que dificultaria testes Sociedade Brasileira de Computação, 2012. p. 1 - 10. para implementar uma rede grande. [6] GOMES, R. L.; MADEIRA, E. R. M. A Traffic Classification Agent for Virtual Networks Based on QoS Classes. In: IEEE LATIN O Mininet é o emulador do momento, muito AMERICA TRANSACTIONS, 3., 2012, Campinas. Conference. utilizado e não ocupa muito espaço. Já possui Campinas: Ieee, 2012. p. 1 – 900. muitos serviços implementados, mas exige muitas configurações mesmo para uma criação de rede comum, então seu uso é mais voltado a SDN. Outro ponto é o uso de bibliotecas no python, levando um aluno a se preocupar em arquitetar sua topologia e


Análise da experiência do usuário no tablet educacional Paulo Henrique Bezerra Matias1; Francisco Kelsen de Oliveira2 Instituto Federal de Educação Ciência e Tecnologia do Sertão Pernambucano (IF SERTÃO) – Campus Salgueiro - BR 232 - KM 508 - Salgueiro-PE henrique_paulo100@hotmail.com1; francisco.oliveira@ifsertao-pe.edu.br2 RESUMO

A computação móvel está a cada dia mais presente em nosso cotidiano em Smartphones e tablets, inclusive com poder de processamento próximo ao que antes existia apenas em computadores pessoais (PC). Esses dispositivos também possuem seus Sistemas Operacionais (SO) que servem como uma camada de abstração de hardware para a realização de tarefas de forma mais simples ou instalação de aplicativos, bem como para garantir a interface para os usuários (TANEMBAUM, WOODHULL, 2006). Dessa forma, esta investigação realizou a análise da experiência dos usuários nos tablets educacionais distribuídos aos professores e alunos pelo Ministério da Educação (MEC). Assim, foram elencadas as principais atividades realizadas em tablets, a fim de realizar testes com os alunos do Instituto Federal de Educação, Ciência e Tecnologia do Sertão Pernambucano (IF Sertão-PE) dos cursos médio integrado: Informática, Edificações e Agropecuária, e dos cursos superiores: Licenciatura em Física e Tecnologia em Alimentos. Para isso, foram aplicados questionários para definir os perfis dos usuários e realizadas tarefas sob filmagem da interface gráfica dos dispositivos no momento da execução das tarefas. Os dados obtidos foram analisados com o intuito de identificar as dificuldades dos usuários, tendo em vista propor melhorias aos problemas detectados ou mesmo tornar mais simples o uso de tais dispositivos. Palavras-chave: tablet experiência do usuário.

educacional,

usabilidade,

ABSTRACT

Mobile computing is increasingly present in our everyday day in smartphones and tablets, including processing power close to that previously existed only in personal computers (PC). These devices also have their Operating Systems (OS) that serve as a hardware abstraction layer for performing tasks simpler installation or application form as well as to ensure the interface for users (TANEMBAUM, WOODHULL, 2006). Thus, this research conducted an analysis of users' experience in educational tablets distributed to teachers and students by Ministério da Educação (MEC). Thus it was listed the main activities performed on tablets in order to perform tests with students of Instituto Federal de Educação, Ciência e Tecnologia do Sertão Pernambucano of integrated high school in: Informática, Edificações and Agropecuária, and degree courses: Física and Tecnologia em Alimentos. To this end, questionnaires were applied to define user profiles and tasks performed under shoot the graphical interface of the devices

at the time of execution of the tasks. The data were analyzed in order to identify the difficulties of users, and propose improvements to the detected problems or even make it simpler to use such devices. Keywords: educational tablet; usability; user experience. INTRODUÇÃO

O poder computacional dos dispositivos móveis tem aumentado bastante nos últimos anos, sendo comparado ao processamento existentes antigamente em computadores pessoais (PC), enquanto o tamanho de tais componentes tem reduzido, sendo cada vez mais acessíveis e presentes em nosso cotidiano, principalmente, por causa da possibilidade de incluir funções de software por meio da instalação de aplicativos. De acordo com o Ministério da Educação (MEC) [2], fora investido cerca de 600 mil reais na compra de tablets para professores de escolas públicas municipais, estaduais e federais. O objetivo é fornecer instrumentos e formação a professores e gestores de escolas públicas, a fim de intensificar o uso das Tecnologias de Informação e Comunicação (TICs) no processo de ensino aprendizagem. Os dispositivos distribuídos pelo Fundo Nacional de desenvolvimento da Educação (FNDE) e MEC tem versões de tela multitoque de 7 ou 10 polegadas, câmera e microfone, saída de vídeo, conteúdos pré-instalados e o Sistema Operacional (SO) Android OS. O SO, portanto, torna-se necessário em tais equipamentos, pois é o responsável por gerenciar os recursos da máquina e realizar a comunicação com hardware, oferecendo ao usuário uma interface simples para o rápido acesso aos serviços que tal máquina possui [1]. Contudo, não basta apenas desenvolver o SO e os aplicativos a fim de instalá-los no hardware. É importante que tais aplicações possuam uma boa usabilidade, ou seja, a facilidade com que as pessoas usam um objeto para realização de uma tarefa específica [3]. Dessa forma, é possível analisar as diferentes formas de entradas de dados, por diferentes maneiras e por usuários diversos a fim de se chegar a um determinado objetivo, sendo fonte de estudo para os pesquisadores da área de usabilidade. Conforme a norma [4], a usabilidade é a medida na qual um produto pode ser usado por usuários específicos para alcançar objetivos específicos com eficácia, eficiência e satisfação em um contexto específico de uso.


Já [5] afirma que usabilidade está relacionada ao aprendizado, eficiência, na realização da tarefa de memorização, minimização de erros e satisfação subjetiva do usuário.

tradução para português com parceria da Fundação Lemann; Projetos de Aprendizagem Educacionais (Banco Internacional de Objetos Educacionais – MEC); Coleção Educadores.

A usabilidade é parte da Interação HumanoComputador (IHC) que, por sua vez, é uma das áreas da Engenharia de Software, por isso [6] afirma que a usabilidade é considerada como a principal busca da IHC.

Comprado pela Google em 2005, Android é SO desenvolvido pela Andoid, Inc para plataformas móveis, seu SO foi baseado em Linux e tem código aberto. Através do seu repositório pode se encontrar uma grande diversidade de aplicativos, além de já vir com alguns aplicativos instalados. Dispõe de conectividades sem fio, Wi-Fi e Bluetooth. Oferece suporte a câmera, se o hardware conter uma câmera. O Android pode ser instalado em diferentes máquinas, de diferentes fabricantes.

Dessa forma, esta pesquisa analisou a experiência dos usuários com o S.O Android utilizado nos tablets educacionais. [7] mostraram estudo sobre a área envolvendo smartphones, então, embasados em tal pesquisa, buscou-se as principais tarefas possíveis de serem realizadas pelos usuários em tablets. As seções seguintes apresentarão os referenciais teóricos, os materiais e métodos envolvidos na pesquisa, as atividades realizadas no período, os resultados e discussão gerados, as conclusões alcançadas e as referências bibliográficas utilizadas. REFERENCIAIS TEÓRICOS

Com software um computador pode armazenar, processar, recuperar informações, bem como realizar as mais diversas funções. O software pode ser dividido em dois tipos: aplicativos, (executa uma função específica ao usuário) e programas de sistemas ou básicos (gerencia toda a atividade do computador). O SO é o principal exemplo de software básico, tendo as funções de gerenciar os recursos da máquina e de fornecer uma camada de abstração do hardware para que os aplicativos possam ser instalados [8]. Mais de 90% das Unidades de Processamento Central (CPU) não estão em computadores Desktops e notebooks, mas em sistemas embarcados como telefones celulares, PDAs, câmeras digitais, roteadores sem fio, tablets e muitos outros produtos. E muitos deles usam chips de 32 e 64 bits e quase todos executam um SO maduro [9]. Pode se entender que os SO’s realizam basicamente duas funções: fornecer aos programadores e usuários uma camada de abstração entre as aplicações e o hardware. E gerenciar tais recursos de forma eficiente [9]. Acessar as tarefas do hardware de uma máquina pode ser uma tarefa complexa. Por isso, tais máquinas possuem um dispositivo de software denominado SO. Este que fornece aos programas de usuários uma interface com hardware mais simples. Os tablets educacionais segundo [10] dispõe do SO Android OS, sendo um dos principais SO utilizados em plataformas móveis. Os tablets vem com aplicativos préinstalados. Tais aplicativos são: navegador, câmera, e-mail, mapas, e controle de voz. Ainda de acordo com o site da [10], os respectivos dispositivos, dispõe de conteúdos préinstalados pelo MEC. Tais conteúdos são: Conteúdo Portal do Professor / MEC; Portal Domínio Público; Khan Academy (Física / Matemática / Biologia / Química):

Ainda oferece um ambiente de desenvolvimento de aplicações para o mesmo. Pode-se desenvolver aplicativos para o Android na linguagem de programação Java. Para começar a desenvolver aplicativos é necessário o download do Andoid Software Development Kit (SDK) além de uma Integrated Development Environment (IDE). Pode ser desenvolvido dentro das plataformas Windows ®, Mac OS X e Linux. Contudo, não basta apenas ter o hardware e o software instalado, pois [5] ressalta a importância da usabilidade, sendo considerada um dos aspectos influentes na aceitação de um produto e se aplica a todos os aspectos do sistema com os quais a pessoa pode interagir, incluindo os procedimentos de instalação e manutenção e deve ser sempre medida relativamente a determinados usuários executando determinadas tarefas.

Utilidade Usabilidade Design de Interação Experiência do Usuário Usabilidade Figura 1: Escopo de usabilidade baseado em [3]. Foram analisados de acordo com [3] os respectivos critérios do gráfico acima. Onde será descrito tais critérios nos parágrafos que seguem. O critério de Experiência do usuário se aplica quando a variabilidade do público alvo, se refere especificamente aos diferentes níveis de experiência do usuário [3]. Design de interação é quando o usuário diante de uma tela desconhecida, irá aplicar as estratégias desenvolvidos na interação com outras telas de um mesmo software [3].


Usabilidade é quando o software é usado para medidas específicas por usuários específicos para alcançar um objetivo com eficácia [4]. A Utilidade se refere à funcionalidade do aplicativo, software ou sistema propriamente dito, ou seja, o sistema é útil e atende às necessidades do usuário [3]. MATERIAIS E MÉTODOS

A pesquisa teve como base a análise da experiência do usuário na utilização do SO para tablets educacionais. Por isso foi feita uma análise das principais tarefas realizadas nos tablets a fim de identificar a experiência do usuário com o respectivo SO na realização das tarefas descritas na tabela 2. A pesquisa então foi realizada com os tablets educacionais, que utilizam o SO Android OS. De acordo com a [11], o Android OS possui uma participação no mercado de tablets correspondente a 60,8% até dezembro de 2013, ver tabela 1.

Tabela 1: Participação de mercado de SO para tablets de 2012 a 2017.

Tablet OS Android IOS Windows Other Total

2012 Market 2013 Market 2014 Market Share Share* Share* 52,0% 60,8% 58,8% 45,6% 35,0% 30,6% 0,9% 3,4% 10,2% 1,4% 0,8% 0,4% 100% 100% 100% Fonte: (IDC, 2013)

Foram elencadas algumas tarefas relacionadas à configuração, instalação e utilização do dispositivo a fim de que os usuários a partir da realizassem mediante a gravação do vídeo das ações executadas, de tal modo a resguardar as identidades dos participantes, pois foram captadas imagens das telas dos dispositivos testados. As tarefas realizadas pelos participantes tiveram seus vídeos analisados e descritos para identificar as dificuldades e as facilidades existentes na realização de cada tarefa, a fim de realizar as interpretações à luz dos conceitos de [5], de [3], de [4] e de [7]. Após a análise dos dados, esses foram tabulados para facilitar a interpretação que foi realizada mediante aos vídeos, questionários e observações feitas pelos pesquisadores durante a aplicação do experimento. Antes da realização do experimento propriamente dito, os participantes foram orientados sobre a experiência, as etapas da coleta, assinaram o termo de aceitação de participação na pesquisa e responderam ao questionário semiestruturado 1, que versava sobre os conhecimentos prévios e experiências de cada usuário acerca do uso de tecnologia, natureza dos dispositivos eletrônicos, tempo de uso, funções utilizadas e finalidades de uso.

Antes da realização da experiência do usuário com o dispositivo, os participantes recebiam uma folha com as tarefas a serem realizadas. Para isso, o laboratório de Informática do IF Sertão-PE com cadeira, mesa, condicionador de ar e luz adequada foi reservado para proporcionar um ambiente propício ao experimento e conforto dos participantes, sendo um participante por vez. Logo após a realização da experiência, cada participante respondeu ao questionário semiestruturado 2 que solicitava o seu ponto de vista acerca da dificuldade e facilidade para realização das tarefas solicitadas, bem como a apresentação de sugestões de melhorias, sendo sugerida a apresentação de justificativas para as respostas apresentadas. Além disso, foi solicitada a apresentação de notas referentes aos níveis de dificuldade para realizar cada atividade. O grupo amostral da pesquisa foi definido a partir da escolha aleatória dos alunos dos cursos superiores de Tecnologia em Alimentos e Licenciatura em Física, além dos alunos dos cursos de Ensino Médio Integrado (EMI) de Agropecuária, Edificações e Informática do campus salgueiro do IF Sertão-PE, de tal forma a garantir as quantidades de participantes com os mesmos percentuais equivalentes aos totais de alunos por curso. Os tablets educacionais disponíveis para pesquisa possuíam versão Android OS 4.0 com tela sensível ao toque de 9,7 polegadas, e com conexões Wi-fi, Bluetooth, miniUSB e mini-HDMI. Quanto a natureza das variáveis, pode se afirmar que é do tipo qualitativo, pois avaliou as experiências dos usuários no Android OS no tablet educacional. Quanto ao objetivo da pesquisa, teve características exploratórias, pois buscou-se conhecer a experiência do usuário na realização das tarefas no Android OS. Além disso, é considerada descritiva, pois detalhou os procedimentos dos usuários para realização das tarefas. Quanto ao procedimento foi feita uma pesquisa bibliográfica que deu embasamento na fundamentação teórica, sendo utilizados materiais já disponibilizados em livros e repositórios de textos acadêmicos científicos. A partir do levantamento feito acerca das principais atividades realizadas pelos usuários com o uso dos tablets, apresentase a tais tarefas na tabela 2. Tabela 2: Tarefas executadas no experimento. Nº 01

Tarefas Visualizar imagens

02

Utilizar player de áudio

03

Utilizar player de vídeo

04

Visualizar

Descrição Disponibiliza a visualização de arquivos de formatos de imagens, e se este, disponibiliza um aplicativo vindo com o SO, que realiza tal tarefa. Suporta à execução de arquivos de áudio através de aplicativos padronizados já instalados juntamente com o SO. Suporta à execução de arquivos de vídeo através de aplicativos padronizados já instalados juntamente com o SO. Dispõe de um aplicativo pré-instalado para


05

06

07

08 09 10

11 12

13 14 15 16 17 18

19

20

documentos de texto, planilhas eletrônicas, slides e e-books Conectar-se com outros dispositivos por Wi-Fi Buscar aplicativos ou arquivos Utilizar Calendário/Agen da Alterar brilho da tela Configurar som e volume Conectar-se com outros dispositivos por Bluetooth Configurar data e hora Buscar aplicativos ou arquivos por comando de voz Compartilhar conexão Wi-fi Desinstalar aplicativo Alterar idioma Editar arquivos multimídia Alterar contas de usuários Editar planilhas eletrônicas, slides ou documentos de texto Desbloquear tela com reconhecimento facial Alterar serviços de localização geográfica

exibição de arquivos de textos, planilhas eletrônicas, slides, pdf e epub (formatos de livros digitais ou e-books). Capacidade de se conectar a outras máquinas (PC, roteadores Wi-Fi) através de conexões Wi-Fi. Capacidade do SO de buscar dados presentes no aparelho por meio de palavras-chave digitadas. Possibilidade de adicionar eventos no calendário por data. Permite a alteração do brilho da tela. Permite a alteração a alteração do som ou volume do dispositivo. Capacidade de se conectar a outras máquinas através de conexões Bluetooth.

Possibilidade de alterar data e hora no dispositivo. Proporciona uma filtragem de dados através do comando de voz.

Permite o compartilhamento da conexão de Internet. Possui um software para desinstalar aplicativos de acordo com o usuário. Alterar o idioma de exibição do dispositivo. Há aplicativos que permitem alterações arquivos de mídia. Suporte a alternância de contas conectadas em um mesmo dispositivo. Possibilita a edição de arquivos de textos, planilhas eletrônicas, slides, pdf e epub (formatos de livros digitais ou e-books). Dispõe da função de desbloqueio do aparelho por reconhecimento facial.

Oferece a escolha ao usuário de permiti que seja identificado seu local em sites e aplicativos.

Fonte: Pesquisa direta. A partir dos dados tabulados, foi realizado um estudo comparativo entre as funcionalidades disponíveis em cada SO, tomando como base a pesquisa realizada por [7]. RESULTADOS E DISCUSSÕES

De acordo com a análise dos questionários aplicados para identificação do perfil do usuário, os alunos dos cursos de Informática, Tecnologia em Alimentos, Edificações e Agropecuária utilizam e dispõem de pelo menos um dispositivo móvel. Os participantes da turma de Licenciatura em Física, nunca utilizaram algum dos dispositivos. Notou-se que apenas um dos participantes da pesquisa e aluno do curso de EMI de Informática conhece o que é o Phablet, embora alguns deles possuam modelos de exemplos de tais

dispositivos ou demonstraram interesse em adquirir tais modelos. Em média os alunos utilizam tais dispositivos a dois anos, e com exceção dos participantes do curso de Licenciatura em Física, os demais utilizam ou tiveram contato com o Android OS pelo menos uma vez antes do momento do experimento. Viu-se que há uma divergência entre os participantes sobre o conceito de dispositivos móveis, pois no primeiro questionário, pergunta se o participante já utilizou algum dispositivo móvel, e alguns responderam que não, porém afirmam utilizar um dispositivo para realização de atividades pessoais, como efetuar uma ligação, em resposta aos questionamentos posteriores. De acordo com os dados fornecidos pelos participantes, 55% utilizam o dispositivo para educação, 80% para entretenimento, 45% para Gerenciamento de tarefas cotidianas, e 20% para atividade pessoal. De forma geral, 60% relatou que não houve dificuldade para utilizar os dispositivos que já tiveram contato. Através do primeiro questionário, foi notado que as tarefas que os usuários mais utilizam são Visualizar imagens, Utilizar player de áudio, Utilizar player de vídeo, Visualizar documentos de textos, planilhas eletrônicas, slides e e-books. Conforme o segundo questionário após a aplicação dos testes com os participantes, notou-se a dificuldade que os alunos tiveram ao realizar as tarefas em tablets, conforme a tabela 3. Tabela 3: Resultados do questionário 2. Nº

Tarefas

01 02 03 04

Visualizar imagens Utilizar player de áudio Utilizar player de vídeo Visualizar documentos de texto, planilhas eletrônicas, slides e e-books Conectar-se com outros dispositivos por Wi-Fi Buscar aplicativos ou arquivos Utilizar Calendário/Agenda Alterar brilho da tela Configurar som e volume Conectar-se com outros dispositivos por Bluetooth Configurar data e hora Buscar aplicativos ou arquivos por comando de voz Compartilhar conexão Wi-fi Desinstalar aplicativo Alterar idioma Editar arquivos multimídia Alterar contas de usuários Editar planilhas eletrônicas, slides ou documentos de texto Desbloquear tela com reconhecimento facial Alterar serviços de localização geográfica

05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

Sem dificu ldade 80% 50% 50% 40%

Pouca dificuld ade 15% 40% 30% 45%

Muita dificul dade 5% 0% 0% 5%

Não conseguiu realizar 0% 10% 20% 10%

75%

15%

5%

5%

30% 75% 65% 50% 40%

15% 20% 15% 20% 30%

15% 5% 20% 15% 10%

40% 0% 0% 15% 20%

65% 40%

25% 35%

0% 5%

10% 20%

5% 35% 60% 25% 25% 20%

5% 35% 30% 30% 20% 10%

0% 0% 0% 5% 5% 10%

90% 30% 10% 40% 50% 60%

5%

0%

5%

85%

30%

15%

15%

40%

Fonte: Pesquisa direta.


Nas tarefas Visualizar Imagens, Utilizar Player de áudio e Utilizar player de vídeo viu-se que os usuários em sua maioria tiveram pouca ou nenhuma dificuldade. Infere-se então que o motivo são ícones de mídia evidentes e já conhecidos pelos usuários, considerando que em média 80% realizou tais tarefas, e 80% dos alunos utilizam os dispositivos para a finalidade de entretenimento. Possivelmente essas tarefas são executadas frequentemente pelos usuários seja em tablets, smartphones e etc. Na tarefa Visualizar documentos de texto, planilhas eletrônicas, slides e e-books, viu-se que em sua maioria fora realizada pelos alunos. Todavia 50% tiveram alguma dificuldade e 10% não realizou. Dessa forma, infere-se que os alunos não utilizam com frequência os dispositivos para realizar tal tarefa. Porém utiliza o dispositivo para entretenimento, o que pode facilitar na realização da tarefa intuitivamente. Embora os dispositivos dependendo do seu fornecedor, não disponibilizem aplicativos pré-instalados para executarem arquivos em tais formatos. Todavia na tarefa Editar planilhas eletrônicas, slides ou documentos de texto os alunos em sua maioria não conseguiram realizar, devido não saberem da existência dessa função, embora os mesmos tenham conseguido realizar a tarefa Visualizar documentos de texto, planilhas eletrônicas, slides e e-books. Para a tarefa Conectar-se com outros dispositivos por WiFi, nota-se que estabelecimentos comerciais, residências e diversos locais públicos dispõem de redes wireless as quais os usuários utilizam com frequência, que pode ter facilitado o uso e rápida configuração devido às experiências anteriores. Ainda o SO Android tem por padrão a função Wifi, localizada no menu de configurações tanto em tablets como smartphones, o que facilitou a execução de tal na tarefa no tablet pelos alunos. Ao buscar aplicativos ou arquivos e buscar aplicativos ou arquivos por comando de voz, os alunos confundiram onde era para pesquisar, alguns foram direto na pesquisa do Google. Isso se dá ao fato de a questão não estar bem explicada, o que pode ter causado uma interpretação errada. O mesmo fato pode ter ocorrido na tarefa Utilizar calendário/agenda, pois os usuários em sua maioria facilmente encontraram o calendário devido a frequente utilização principalmente em smartphones, embora não tenham nem tentando utilizar a função da agenda. Nas tarefas Alterar brilho de tela, Configurar som e volume, Configurar data e hora, Desinstalar aplicativos e Alterar idioma os usuários em sua maioria conseguiram realizar com facilidade. O que pode se justificar pelo fato de haver uma semelhança com a função no smartphone e do ícone encontrar-se no menu de configuração com ícone evidente, pois os usuários já haviam utilizado a função WiFi, o que facilitou para posteriormente realizar tais tarefas. Ainda na configuração de som de volume, os botões físicos existentes no hardware para facilitar a execução de

tal tarefa, pois os usuários usavam diretamente os botões ao invés da função disponível no menu de configurações. A tarefa Conectar-se com outros dispositivos por bluetooth, fora realizada pela maioria dos usuários, entretanto, viu-se que alguns já haviam utilizado tal função de forma esporádica, e que não lembravam como realizar novamente, o que resultou no método tentativa e erro. E na tarefa Compartilhar conexão Wi-fi os usuários em sua maioria não realizou e alguns durante o experimento mostraram-se surpresos ao saber que era possível utilizar os dispositivos para compartilhar uma rede de internet. Embora de inicio confundissem tal tarefa com apenas conectar-se a uma rede WiFi. Viu-se que nas tarefas Editar arquivos multimídia, Alterar contas de usuários, Alterar serviços de localização geográfica e Desbloquear tela com reconhecimento facial os alunos tiveram muita dificuldade devida não utilizarem o dispositivo com frequência para tal aplicação, e ainda podem ter utilizado tais funções de forma esporádica e não lembrarem mais como realizar novamente. Os usuários também mostraram de inicio não saber que existira a possibilidade de realizar essas tarefas no tablet. Entretanto os alunos que utilizaram a função desbloqueio de tela com reconhecimento fácil, pode-se dar a semelhança com a função existente no smartphone. Notou-se ainda que ao ser entregue os tablets aos alunos, 50% deles, tiveram dificuldades para desbloquearem o dispositivo. Além de procurar os ícones diretamente na tela inicial, sem a utilização do menu, pois esses não conseguiam localizá-lo. O segundo questionário solicitava aos participantes que atribuíssem notas de 0 a 10 para representar o nível de dificuldade que tiveram nas realizações das determinadas tarefas, sendo 0 nenhuma dificuldade e 10 não conseguiu realizar ou de extrema dificuldade. Assim, percebeu-se que participantes atribuíam nota mínima para tarefas não executadas ou realizadas de modo equivocado. Os participantes já experientes no uso Android OS pelo smartphone, tiveram maior facilidade na maioria das tarefas, pois seguiram o mesmo padrão para realizar as tarefas nos tablets, porém relataram que as execuções de algumas tarefas no dispositivo utilizado no experimento estavam em locais ou ícones diferentes dos equipamentos já utilizados ou mesmo não existiam tais funções em suas experiências anteriores, pois os equipamentos utilizados na traziam configurações semelhantes aos dispositivos com configurações do fabricante, enquanto vários usuários relatavam que a facilidade estaria em simplesmente apresentar todas as funções logo em ícones da tela inicial. CONCLUSÃO

Os participantes experientes no uso dos smartphones tiveram maiores facilidades na execução da maioria das


tarefas solicitadas, porém, pode-se perceber também que tarefas de configurações não tiveram as mesmas facilidades se comparadas com aquelas que solicitavam apenas a abertura de um arquivo de mídia, texto ou planilha eletrônica. Segundo 85% dos participantes que realizaram os testes, a maior dificuldade para realizar as tarefas foi encontrar os seus respectivos ícones, ou seja, as imagens correspondentes a determinadas funções não traziam um significado direto ao que se pretendia realizar, inclusive alguns participantes afirmaram que as alterações das imagens dos ícones provocaram tais dificuldades em encontrar tais funções. Os alunos apresentaram sugestões de melhorias na realização das atividades, como: ícones mais descritivos, para fácil identificação das tarefas; melhorias na organização das funções no menu principal do dispositivo do respectivo SO, sendo perceptível a analogia direta feita com os principais SO para desktops que trabalham de modo análogo, pois afirmavam que usuários iniciantes irão utilizar e teriam maior facilidade; melhorar a identificação das funções de tal modo a apresentar o caminho até a referida função; linguagem mais simples, para usuários que não entendem bem termos técnicos ou totalmente traduzidos para o idioma escolhido pelo usuário; melhorar a visibilidade dos ícones; ícones específicos para as principais funções; agregação dos menus mais simples e intuitiva. Conclui-se que as tarefas de configurações são poucas vezes realizadas pelos usuários que não buscam conhecer os dispositivos e restringem-se em simplesmente utilizarem as principais funções, ou seja, consumir o serviço ou produto sem demandar tempo para desbravar novas funcionalidades. REFERENCIAS

[1] TANENBAUM, Andrew S.; WOODHULL, Albert S. Sistemas Operacionais: Projetos e Implementação. São Paulo: Bookman, 2006. [2] Ministério da Educação. Ministério distribuirá tablets a professores do ensino médio. Disponível em: http://portal.mec.gov.br/index.php?option=com_conten t&view=article&id=17479:ministerio-distribuira-

tablets-a-professores-do-ensino-medio&catid=215. Acessado em: 02 de Junho de 2014. [3] CYBIS, W., BETIOL, A. H., FAUST, R. Ergonomia e Usabilidade: conhecimentos, métodos e aplicações. São Paulo: Novatec, 2007. [4] ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 9241: requisitos ergonômicos para trabalho de escritórios com computadores. Rio de Janeiro, 2002. [5] NIELSEN, J. Usability Engineering. New Jersey: Academic Press, 1993. [6] BENYON, David. Interação humano-computador. 2.Edição. São Paulo: Pearson Prentice Hall, 2011. [7] ALVES, W. S.; OLIVEIRA, F. K. Análise da usabilidade dos sistemas operacionais para dispositivos móveis. Disponível em: http://periodicos.ifsertaope.edu.br/ocs2/index.php/jinci/jinci_2012/paper/downl oadSuppFile/733/665. Acessado em: 20 de novembro de 2013. [8] TANENBAUM, Andrew S.; WOODHULL, Albert S. Sistemas Operacionais: Projeto e Implementação. Porto Alegre: Bookman, 2000. [9] TANENBAUM, Andrew S.; Ronaldo A.L. Gonçalves, Luís A. Consularo, Luciana do Amaral Teixeira, Raphael Y. de Camargo, Sistemas Operacionais Modernos. São Paulo: Pearson Prentice Hall, 2009 [10] Fundo Nacional de Desenvolvimento da Educação. Tablet. Disponível em: http://www.fnde.gov.br/programas/programa-nacionalde-tecnologia-educacional-proinfo/proinfo-tablets. Acessado em: 02 de Junho de 2014 [11] International Data Corporation Worldwide. Tablet Shipments Forecast to Slow to Single-Digit Growth Rates by 2017. Disponível em: http://www.idc.com/getdoc.jsp?containerId=prUS2446 1613. Acessado em: 20 de novembro de 2013. [12] Andoid Inc. Android. Disponível em: http://www.android.com. Acessado em: 20 de Maio de 2014


1 de 5

Análise do Uso de Amplificadores Ópticos em Sistemas WDM Através da Ferramenta de Simulação Optisystem Édipo M. Almeida¹, Rachel M. Nepomuceno², Glendo de Freitas Guimarães³ Instituto Federal de Educação, Ciência e Tecnologia do Ceará, IFCE. E-mail¹: edipo15@gmail.com; E-mail²: rachel_nepomuceno@hotmail.com; E-mail³: glendo.freitas@ifce.edu.br Departamento de Telemática Av. Treze de Maio, Nr. 2081, Campus Fortaleza Fortaleza/CE, Brasil, 60040-531

Resumo - A crescente demanda por tráfego de dados chama a atenção para os sistemas de comunicações ópticas, que são capazes de fornecer transmissão rápida e confiável para uma grande quantidade de informações. No intuito de potencializar a eficiência desses sistemas, a aplicação de amplificadores ópticos se mostra uma alternativa promissora. No contexto mencionado, esse trabalho apresenta uma análise do uso de amplificadores ópticos atuando de diferentes maneiras em um sistema de transmissão óptico que utiliza a tecnologia WDM. Após uma breve explanação abordando as características desses componentes, expomos os testes realizados. Com o uso do software OptiSystem, que nos proporcionou simulações precisas e eficientes do nosso objeto de estudo, foi possível observar os efeitos do uso de amplificadores em diferentes configurações de um mesmo sistema WDM. I. INTRODUÇÃO Nos últimos anos, os sistemas de comunicações ópticas têm evoluído de forma acelerada tornando-se cada vez mais presentes no nosso cotidiano. Assim, a busca por recursos e técnicas que visem intensificar sua eficiência fica evidenciada pelo volume de pesquisas realizadas na área. Nesse cenário, o uso de amplificadores ópticos tem alterado positivamente a implementação dos sistemas de fibras ópticas atuais. Os primeiros modelos de amplificadores ópticos foram desenvolvidos no intuito de substituir os componentes conhecidos como repetidoresregeneradores. Os regeneradores de sinais são componentes que realizam a conversão do sinal óptico em elétrico, amplificam esse sinal atuando tanto sobre a atenuação quanto sobre o alargamento do pulso e, posteriormente, o convertem novamente em sinal óptico. Esse processo apresenta custo muito elevado e pode provocar problemas como o aumento do tempo de atraso, distorções no sinal, entre outros, além da rápida degradação dos componentes eletrônicos envolvidos. Diferente dos regeneradores de sinais, os amplificadores ópticos atuam apenas na amplificação do sinal sem a necessidade de uma conversão eletro-óptica. Isso faz dos amplificadores ópticos uma alternativa vantajosa e

amplamente utilizada na implementação de sistemas de comunicação por fibras ópticas. Outro benefício trazido pelos amplificadores ópticos sobre os regeneradores de sinal é o uso conjunto com a tecnologia WDM (Wavelength Division Multiplexing), técnica que compartilha uma mesma fibra para vários canais, isto é, para diversos sinais ópticos de diferentes comprimentos de onda. Para um regenerador atuar em um sistema WDM, os sinais precisam ser demultiplexados, processados individualmente e novamente multiplexados. Assim, a complexidade desse processo aumenta na medida em que se utilizam mais canais, tornando esse tipo de implementação inviável. Já os amplificadores ópticos permitem a amplificação simultânea de todos os canais do sistema WDM. Entre os modelos de amplificadores ópticos existentes, podemos encontrar aqueles baseados em efeitos não lineares, como espalhamento de Raman e Efeito Brillouin, como também amplificadores baseados em fibras ópticas dopadas com Érbio, os conhecidos EDFAs, que são amplamente utilizados em sistemas ópticos. Os amplificadores ópticos podem ser encontrados ao longo do sistema em três posições diferentes: logo após o transmissor, desempenhando a função de Amplificador de Potência, conhecido como Booster; localizados ao longo do percurso de transmissão, atuando como um Amplificador de Linha; e, desempenhar o papel de Pré-Amplificador, elevando o sinal luminoso que chega ao receptor. Em seguida, são apresentadas as análises do uso de amplificadores em cada uma dessas posições.

Figura 1 – Amplificadores Ópticos: (a) Booster; (b) Amplificador de Linha; (c) Pré-Amplificador. II. METODOLOGIA


2 de 5 A. Programa OptiSystem Desenvolvido pela empresa canadense Optiwave Corp, o software OptiSystem permite o planejamento, testes e a simulação de sistemas ópticos. Amplamente utilizado por pesquisadores e profissionais da área, também pode exercer significativa influência no âmbito acadêmico, auxiliando estudantes a compreender de forma intuitiva vários elementos presentes no universo das comunicações ópticas.

Figura 3 – Cenário Inicial da Simulação Na primeira implementação, o amplificador é posicionado após o multiplexador. Desse modo, exerce a função de Booster, aumentando a potência do transmissor.

Figura 2 – Ambiente de Trabalho do Software OptiSystem Como o desenvolvimento de qualquer projeto deve considerar vários fatores que possam afetar sua implementação, o uso de ferramentas e softwares que permitam simulá-la previamente auxiliam na análise do sistema. Nesse sentido, para sistemas de comunicações ópticas, o software OptiSystem fornece um ambiente de simulação poderoso e completo com uma extensa biblioteca de componentes e uma ampla variedade de ferramentas, tornando possível a modelagem dos mais diversos sistemas ópticos. Dessa forma, todas as simulações apresentadas são modeladas no ambiente oferecido por esse software. B. Cenários Analisados

Figura 4 – Implementação do Booster Em seguida o amplificador é reposicionado, passando a atuar como um Amplificador de Linha. Nessa implementação, o sinal percorre os primeiros 150 km de fibra monomodo e, nesse ponto, passa pelo amplificador. Após a passagem pelo amplificador, o sinal continua seu percurso através dos 30 km de fibra DCF restantes.

O sistema simulado consiste em uma rede WDM de 32 canais que apresenta frequência de espaçamento entre canais de 200 GHz e transmite uma sequência aleatória de bits com codificação RZ. Esse sinal percorre uma fibra do tipo monomodo com atenuação de 0.2 dB, através de uma distância de 150 km e, em seguida, passa por uma fibra compensadora de dispersão, DCF (Dispersion Compensating Fiber) de 30 km, até chegar ao fim do sistema implementado. Simulamos, para essas mesmas condições, o uso de amplificadores do tipo Booster, Amplificador de Linha e Pré-Amplificador. Figura 5 – Implementação do Amplificador de Linha


3 de 5

Posteriormente, o amplificador é movido para antes do demultiplexador, desempenhando no sistema o papel de Pré-Amplificador. Nesse modelo, o sinal percorre todo o percurso, sendo amplificado apenas antes da detecção óptica.

Figura 7 – Diagrama de Olho do Cenário Inicial

Figura 6 – Implementação do Pré-Amplificador

Com o uso do amplificador Booster constatamos uma significativa melhora no diagrama de olho, que agora se mostra próximo de sua representação ideal.

III. RESULTADOS O desempenho dos cenários implementados foi avaliado através da taxa de erro de bit (BER), que é a medida de qualidade essencial para redes de telecomunicações. Utilizando o componente BER Analyzer, presente na biblioteca do OptiSystem, que nos mostra o Diagrama de Olho, é possível observar de imediato a qualidade do sinal no sistema. O Diagrama de Olho é uma técnica de medida, obtida no domínio do tempo, e constitui em uma ferramenta importante no processo de avaliação do desempenho de um sistema óptico digital, permitindo uma visualização da distorção do sinal transmitido. A largura da abertura do olho, definida pelo eixo horizontal da figura que o representa, mostra o intervalo de tempo sobre o qual o sinal recebido pode ser amostrado sem ocorrência de erros. O melhor momento de amostragem é o que corresponde ao de maior abertura vertical do olho. Quando ocorre distorção na amplitude do sinal, a altura da abertura do olho é reduzida. A distância vertical entre o topo da abertura do olho e o máximo nível do sinal define a distorção máxima. Desta forma, quanto mais fechado o olho estiver, a detecção do sinal será mais difícil. No cenário inicial, sem a presença de amplificadores, o diagrama de olho se mostra degradado com altas taxas de ruído.

Figura 8 – Diagrama de Olho com uso do Booster A implementação do Amplificador de Linha também mostrou uma considerável melhora em relação ao diagrama de olho obtido no cenário inicial. Entretanto, a implementação que faz uso do amplificador tipo Booster ainda se mostra como a melhor alternativa para o sistema.


4 de 5

IV. CONCLUSÃO

Figura 9 – Diagrama de Olho com uso do Amplificador de Linha Já a configuração que utiliza o PréAmplificador apresentou o diagrama de olho seriamente degradado, se mostrando uma alternativa inadequada.

Assim como foi possível analisar as diferentes aplicações do uso de amplificadores no ambiente implementado, o software OptiSystem fornece também suporte para análise de diversos elementos abrangidos pelas comunicações ópticas. Esse software possui extensa biblioteca, que abrange componentes do domínio óptico e elétrico, oferece várias ferramentas de visualização gráfica que auxiliam na análise dos sistemas que podem ser modelados, e apresenta uma interface intuitiva, permitindo uma rápida adaptação por parte dos usuários que em pouco tempo são capazes de usufruir dos recursos oferecidos. Tudo isso permite uma visão global do desenvolvimento de diversos tipos de redes ópticas. Desse modo, o presente trabalho também foi desenvolvido com o intuito de estimular alunos e professores, tanto de cursos técnicos quanto de engenharias, a explorar o ambiente oferecido pelo OptiSystem. Agradecimentos Os autores agradecem ao Instituto Federal de Educação, Ciência e Tecnologia do Ceará (IFCE) pelo apoio recebido e ao professor Glendo de Freitas, por apresentar o software OptiSystem através de suas aulas e incentivar o desenvolvimento do presente trabalho. REFERÊNCIAS BIBLIOGRÁFICAS AMAZONAS, José Roberto de Almeida. Projeto de Sistemas de Comunicações Ópticas, 1. ed. Barueri: Editora Manole, 2005.

Figura 10 – Diagrama de Olho com uso do PréAmplificador Após a análise das distintas situações, foi possível observar que o amplificador tipo Booster, cuja representação se aproxima do diagrama de olho ideal com baixas taxas de erro, foi o que atuou de forma mais satisfatória no sistema modelado.

RIBEIRO, José Antônio Justino. Comunicações Ópticas, 2. ed. São Paulo: Editora Érica, 2003. REINTJES, J. F. Nonlinear optical processes. In: MEYERS, R. A. (Ed.) Encyclopedia of lasers and optical technology. San Diego, Academic Press, 1991. ROCHA, Mônica de Lacerda. Projeto e Avaliação Sistêmicos: Diagrama de Olho. INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE SANTA CATARINA. Disponível em:<http://www.sj.ifsc.edu.br/~saul/sistemas%20optico s/diagrama%20do%20olho.pdf> Acesso em: 18 maio 2014. KAZOVSKY, L.; BENEDETTO, S.; WILLNER, A. Optical fiber communications systems. Norwoord: Artech House, 1996.

Figura 11 – Comparação entre os Diagramas de Olho das configurações analisadas: (a) Diagrama de Olho com uso do Booster; (b) Diagrama de Olho com uso do Amplificador de Linha; (c) Diagrama de Olho com uso do Pré-Amplificador

DESRUVIRE, E. Erbium doped fiber amplifiers: principles and applications. New York: Jonh Wiley, 1994.


5 de 5 SPIRIT, D. M.; BLANK, L. C.; DAVEY, S. T.; WILLIAMS, D. L. System aspects of Raman fiber amplifiers. Proc. IEE (London), 137 Pt.J(4):221-224, Aug., 1990. ATKINS, C. G.; COTTER, D.; SMITH, D. W.; WYATT, R. Application of Brillouin amplifier in coherent optical transmission. Electron.Lett., 22(10): 556-558, MAY, 1986. SANTOS, João Miguel Melo. UNIVERSIDADE DE AVEIRO, Departamento de Física. Amplificadores Ópticos Híbridos, 2011. Amplificadores Ópticos. Disponível em: <http://www.sj.ifsc.edu.br/~saul/sistemas%20opticos/a mplificadores%20saul.pdf> Acesso em: 18 maio 2014. FERNANDES, Luiz Felipe de Camargo. DWDM: Amplificadores Ópticos. Disponível em: <http://www.teleco.com.br/tutoriais/tutorialdwdm/pagin a_4.asp> Acesso em: 18 maio 2014. FERREIRA, Rafael Jales Lima. Redes Ópticas Passivas II: O Software Optisystem. Disponível em: <http://www.teleco.com.br/tutoriais/tutorialropassiva2/p agina_2.asp> Acesso em: 02 maio 2014. Medição da taxa de bits errados (BER). Disponível em: <http://www.maxwell.lambda.ele.pucrio.br/11319/11319_3.PDF> Acesso em: 08 jun. 2014. OptiSystem Overview. Disponível em: <http://optiwave.com/resources/applicationsresources/optical-communication-system-design/> Acesso em: 01 maio 2014. VILELA, Dênio; SANTOS, Jorge Luiz; BRANDÃO, Luiz Gustavo; BREDA, Mateus. Estudo da Viabilidade de Comunicações Ópticas no Espaço Aberto I. Disponível em: <http://www.teleco.com.br/tutoriais/tutorialfsoeab1/pagi na_4.asp> Acesso em: 18 maio 2014.


BIBLIOTECA SETORIAL DIGITAL: UM MAPEAMENTO PARA A ONTOLOGIA DUBLINCORE A. S. Santos, T. B. C. Farias and L. A. Minora Resumo - Aborda a utilização de ontologia como uma estratégia eficiente para a padronização de termos utilizados em bibliotecas digitais com o objetivo de facilitar a recuperação da informação. Tem como propósito mapear uma antologia para o sistema de biblioteca setorial da DIAC. A sua finalidade é mapear a ontologia para o modelo de classes do sistema de biblioteca digital setorial, como também, mapear a ontologia para o modelo de banco de dados do sistema, e por fim desenvolver o sistema de Biblioteca Digital da Diretoria Acadêmica de Ciências. Utiliza-se como metodologia a pesquisa bibliográfica e eletrônica para embasamento teórico acerca dos conceitos e traços historiográficos da biblioteca digital, das ontologias mais utilizadas nas bibliotecas digitais, como também se faz o estudo do padrão de metadados Dublin Core, como sendo a ontologia mais indicada para o mapeamentos dos termos em bibliotecas digitais, além de orientações do Professor Mestre Leonardo Ataide Minora. Conclui informando a importância que é a técnica de utilizar ontologias para facilitar a recuperação, por parte dos usuários, e integração de informações entre unidades de informação, ele é de grande relevância por se tratar de um método que mapeia todos os dados, desde a inserção em uma biblioteca digital até a pesquisa. Palavras-chave: Dublin core, Ontologia, Biblioteca digital, Python, Django.

Abstract— Discusses the use of ontology as an effective strategy for the standardization of terms used in digital libraries aiming to facilitate information retrieval. Aims to map an anthology for the library system of sectoral DIAC. Its purpose is to map the ontology to model the classes of sectoral digital library system, but also the ontology mapping model for database system, and finally develop the system of the Digital Library of the Academic Board of Science. It is used as a methodology to bibliographic and electronic search for theoretical foundations about the concepts and features of historiographical digital library of commonly used ontologies in digital libraries, but also becomes the study of the Dublin Core metadata standard, as being the most appropriate ontology for mappings in terms of digital libraries, in addition to guidance from Professor Leonardo Minora  A. S. Santos, Instituto Federal de Educação, Ciência e Tecnologia (IFRN), Natal, Rio Grande do Norte, Brasil, alexsandra.santana1987@gmail.com. T. B. C. Farias, Instituto Federal de Educação, Ciência e Tecnologia (IFRN), Natal, Rio Grande do Norte, Brasil, talita.bcf@gmail.com. L. A. Minora, Instituto Federal de Educação, Ciência e Tecnologia (IFRN), Natal, Rio Grande do Norte, Brasil, leonardo.minora@ifrn.edu.br.

Ataide. Concludes stating the importance of the technique is to use ontologies to facilitate recovery from users, and integration of information between units of information, it is of great importance because it is a method that maps all data from the insertion in a digital library to research. Keywords — Dublin core, Ontology, Digital Library, Python, Django.

1. INTRODUÇÃO A Globalização é um fato importante para o desenvolvimento da sociedade por ser um fenômeno que, ao surgir, trouxe consigo mudanças, provocando diversas transformações, seja no setor econômico e político, quanto no social. A partir de então, a informação deve ser considerada pela sociedade como um fator que serve de apoio para as tomadas de decisões. Ela é uma das fontes que impulsionam a geração do conhecimento e consequentemente meio de transformação do mundo. Nesse contexto é possível destacar que a informação digital publicada na web é um meio pelo qual os usuários podem encontrar informações. Em consequência da diversidade e quantidade de informação digital, surge a preocupação de como tratar, controlar, armazenar e disponibilizar utilizando a tecnologia da informação como mecanismo para este fim. Este é o fim das bibliotecas digitais que tem como função principal a disponibilização da informação por meio digital, como afirma Ambrósio (2005, não paginado): O acesso ao conhecimento para todos tem necessidade de “bibliotecas” no mundo digital, com isso as bibliotecas transformam quanto à natureza e a função ao se afrontarem com a necessidade de exercer suas missões sociais e culturais no ciberespaço.

Isso permitiu que instituições apropriem-se da ideia de biblioteca digital como forma de tornar “público” o seu conhecimento. Onde existe a permissividade de cada instituição ter seu software de biblioteca digital, bem como definir a forma como


representar as suas informações. Essa permissividade dificulta principalmente o diálogo para troca de informações entre esses softwares. Uma das formas de minimizar essa dificuldade, é o uso de ontologias ou para representar as informações ou para permitir o diálogo entre softwares. Em ambos, a ideia é especificar os conceitos de biblioteca através de metadados definidos por uma ontologia de biblioteca. Essa dificuldade de diálogo entre softwares diferentes também pode ser encontrada em uma única instituição, por diversos motivos principalmente se ela é fisicamente distribuída. Por exemplo, o Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte (IFRN) tem 2 softwares de biblioteca: um setorial e outro central. Enquanto o software setorial foi desenvolvido pelo IFRN e tem o foco no acervo dos setores; o central é um software privado e proprietário que tem foco no acervo do IFRN. Como informação, este último foi objeto de doação ao IFRN. Neste caso, o problema identificado é a impossibilidade de comunicação, de tal forma que o software da biblioteca central não pesquisa o acervo da biblioteca setorial e vice-versa. Neste artigo, como parte de um projeto de integração entre as bibliotecas do IFRN, é apresentado a ontologia Dublincore e como esta foi utilizada para desenvolver a representação dos dados da biblioteca setorial (através de um mapeamento). Como resultado deste trabalho é mostrado um exemplo dos dados do acervo da biblioteca setorial da Diretoria Acadêmica de Ciências (DIAC) do Campus Natal Central do IFRN com esta representação, e uma integração com os dados da plataforma CNPq Lattes.

Tabela 1 – Mapeamento Dublin Core para o Sistema digital de biblioteca da DIAC

2. ONTOLOGIA DUBLINCORE

Fonte: Autoria própria.

2.1. Histórico

3. BIBLIOTECA SETORIAL DA DIRETORIA ACADÊMICA DE CIÊNCIAS

A ontologia Dublin Core teve origem em um Workshop sobre Metadados, esse evento foi promovido nos Estados Unidos em Dublin pela Online Computer Library Center (OCLC) e pela National Center for Supercomputing Applications (NCSA) no ano de 1995. (RAMALHO,2010). O Principal objetivo da ontologia é o de permitir a identificação e definição de um conjunto mínimo de elementos que tenham a capacidade de tornar eficiente e localização de documentos eletrônicos. 2.2 Elementos principais Dos 15 (quinzes) elementos disponíveis na ontologia Dublin Core foram utilizados apenas 7 (sete), sendo eles: Title, Creator, Subject, Description, Date, Type e Identifier, cada elemento desse foi associado a um atributo da classe Publicação, as quais são demostrados na Tabela 1 como exposto abaixo:

Elementos do Dublin Core

Elementos do Sistema da Diretoria

Descrição do Metadado

dc:title

Publicacao.título

Título do Trabalho

dc:creator

Publicacao.dono_ do_registro

Autor do Trabalho

dc:subject

Publicacao.assunt o

Assunto trabalho cadastrado

dc:description

Publicacao .resumo

Pequena síntese do trabalho

dc:date

Publicacao.data_e nvio

Data que trabalho submetido avaliação.

dc:type

Publicacao.tipo

Tipo do trabalho: artigo, monografia, dissertação, tese, e-book.

dc:identifier

Publicacao.isbn

Número do registro disponibilizado pela Biblioteca Nacional.

do

o foi à

1.1 Contexto O software de biblioteca setorial teve como projeto piloto a DIAC do campus Central-Natal do IFRN e foi objeto de trabalho de um estágio supervisionado que culminou num trabalho de final de curso de Análise e Desenvolvimento de Sistemas (TADS) deste mesmo campus. Este estágio aconteceu na Coordenação de Sistemas de Informação da Diretoria de Gestão de Tecnologia da Reitoria do IFRN. Como tal, a arquitetura apresentada na próxima sessão expõe 3.1.Arquitetura do Sistema O sistema de Biblioteca Digital da Diretoria Acadêmica de Ciências foi desenvolvido utilizando a


linguagem de programação Python com o framework Django e o banco de dados SQLite. 3.2. Modelo de representação dos dados da biblioteca setorial A modelagem de um sistema é parte de suma relevância, pois a partir da modelagem é possível entender a funcionalidade do sistema e como os modelos se comunicam. No tópico a seguir será explicado como o Framework Django utilizado na implementação do Sistema de Biblioteca Digital da Diretoria Acadêmica de Ciências se comporta em relação ao mapeamento objeto relacional. Como também será disponibilizado o diagrama de classes do sistema, enfatizando as classe que estão no elemento Model do Django. Dando continuidade, será feito um levantamento para mostrar o mapeamento da ontologia Dublin Core utilizada com finalidade de facilitar a inserção e a recuperação de documentos em bibliotecas digitais.

preenchimentos dos campos(atributos) no formulário da classe. A classe tipo de publicação consiste em disponibilizar o cadastro de tipo de publicações, podendo ser elas: artigo, monografia, dissertação, tese e e-book. Já a classe Curso é parecida com a classe tipo de publicação ao ponto que é possível cadastrar um curso, caso o curso no ato do cadastramento da publicação não esteja disponível é possível inseri-lo no sistema. E por fim, a classe Proprietários que consiste em uma Pessoa Física que possui papeis definidos, sendo eles: Autor, Coautor, Orientador, Coorientador. Para representar graficamente o domínio descrito acima será utilizado o diagrama de classe, que tem como objetivo mostrar o conjunto de classes e seus relacionamentos que no sistema existe. Considerado o digrama central da modelagem orientada a objetos. Figure 1- Diagrama de Classe do Sistema de Biblioteca Digital da Diretoria Acadêmica de Ciências

3.2.1. Modelo de Dados O Django organiza toda a informação através de um elemento chamado Model. Este contém o comportamento e a estrutura dos dados que serão armazenados. O Django usa o Model para fazer o mapeamento para o banco de dados. Dessa forma ele pode gerar as tabelas como também manipular os dados contidos nelas. Essa é a técnica que o Django utiliza para diminuir a abstração da programação orientada a objetos e usa banco de dados relacionais. As tabelas do banco de dados são representadas pelas classes, e os registros por sua vez são representados como instancias dessas classes. Uma das maneiras de comunicação entre a aplicação e o banco de dados consiste da utilização dos conceitos de Active Record Pattern (FOWLER ET AL., 2002), ou seja, invocando os métodos dos objetos reminiscentes a cada tabela da base de dados, sem o uso dos comandos SQL. 3.2.2. Modelo Orientado a Objetos No Sistema de Biblioteca Digital da Diretoria Acadêmica de Ciências foram verificadas a existência de 5 (cinco) classes: Publicação, Curso, Tipo de Publicação, Proprietário e Pessoa Física, como mostrado na Figura 1. A classe Publicação é a principal do sistema de Bibliotecas da Diretoria Acadêmica de Ciências, nela estão composto todos os atributos necessários para que o ator Publicador possa publicar seu trabalho através do

Fonte: Elaborado pelo Autor.

De acordo com a Figura 1 uma publicação está associada a um curso como também a um tipo de publicação. Esses relacionamentos estão representados graficamente através de associações com multiplicidade um para um. Além disso, uma publicação possui um ou mais proprietários (graficamente representado pela associação um para muitos entre as classes Publicação e Proprietário), que são pessoas físicas (associação um para um entre Proprietário e Pessoa Física), e possuem um papel (associação um para um com a enumeração “Papel”) especifico: Autor, Coautor, Orientador e Coorientador.


3.3 Correlação entre o Dublin Core e Representação dos dados da biblioteca setorial O Padrão de Metadados Dublin Core tem em sua composição 15 elementos descritivos simples e autoexplicativos, desse forma, ao usuário submeter a sua publicação a uma biblioteca digital, o autor preenche um formulário descrevendo seu documento, associando metadados a esse arquivo e armazenando-os nas bases de dados (MARCONDES, 2005). 3.3.1

Mapeamento para o Modelo OO

A classe Publicação é o mapeamento propriamente da ontologia Dublin core, onde os atributos foram baseados nos elementos da ontologia, sendo eles: título, data_envio, assunto, dono_do_registro, resumo, tipo. Esses elementos foram mapeados todos no diagrama de classe na classe publicação. 3.3.2 Exemplo de dados do acervo da biblioteca digital

3.4 Mapeamentos Para o Lattes A Plataforma Lattes representa a tentativa do Conselho Nacional de Desenvolvimento Cientifico e Tecnológico (CNPq) na integração de bases de dados de Currículos, de Grupos de pesquisa e de Instituições em um único Sistema de Informações. Ela é base de dados pública, qualquer pessoa pode ingressar e também recuperar informações através da internet. Todos os dados enviados para a plataforma lattes estão sempre no padrão XML que são definidos pela Comunidade Conscientias, que são responsáveis por desenvolverem ontologias em Ciência, Tecnologia e Informações de Aperfeiçoamento de Nível Superior (CONSCIENTIAS). Na Conscientias, as ontologias são representadas pela linguagem de marcação XML (eXtensible Markup Language) e têm por finalidade principal o estabelecimento de uma forma comum de troca de informações entre agências de fomento e suas instituições usuárias. (http://lmpl.cnpq.br/lmpl/) Em virtude da importância e da integralização dos trabalhos com a plataforma lattes foi realizado um mapeamento da ontologia utilizada no sistema de biblioteca setorial digital da DIAC com a finalidade de facilitar a exportação de trabalhos para a plataforma. 4. CONCLUSÃO As mudanças e transformações no mundo e em todas áreas ocorrem, e com o advento da Internet na atual sociedade da comunicação e informação, ocasiona

o uso dos vários recursos estão cada vez mais frequentes pelas pessoas. A tecnologia da informação tem possibilitado o desenvolvimento de metodologias, que surgem com o objetivo de organização e tratamento da informação, nesse caso em formato digital, adaptando aos diferentes mecanismos de busca e recuperação, atendendo assim todo o público. No entanto, o impacto dessa tecnologia sobre o desenvolvimento de sistemas e serviços de informação está obrigando a uma reengenharia dos processos de produção e distribuição da informação, e uma reformulação no manejo de estoques mais convencionais como os dos arquivos e bibliotecas. Assim, a necessidade de ontologias se tornam cada vez mais precisas para que a informação seja cadastrada e compartilhada de maneira eficiente e eficaz, permitindo a integração com outras bibliotecas. REFERÊNCIA ALMEIDA, M. B.; BAX, M. P. Uma visão geral sobre ontologias: pesquisa sobre definições, tipos, aplicações, métodos de avaliação e de construção. Ciência da Informação, Brasília, v.32, n.3, p.7- 20, set./dez. 2003. ALBUQUERQUE, Nikolai Dimitrii Braga de. Uma arquitetura para o compartilhamento do conhecimento em bibliotecas digitais. 2003. 108 f. Dissertação (Mestrado em Engenharia de Produção) – Programa de Pós-Graduação em Engenharia de Produção, Universidade Federal de Santa Catarina, Florianópolis, 2003. Disponível em: < https://repositorio.ufsc.br/xmlui/bitstream/handle/12345 6789/86516/228341.pdf?sequence=1>. Acesso em: 25 dez. 2014.

BORGE, Luiz Eduardo. Python para desenvolvedores. 2ª ed. Rio de Janeiro: Creative Commons, 2010. BRANDÂO, Marinho. Aprendendo Django no Planeta Terra. [S.l. : s.n., 2009. (v. 1).

CUNHA, Murilo Bastos da. Biblioteca digital: bibliografia das principais fontes de informação. Ciência da Informação, Brasília, vol.39, n..1, p.88-107, jan./abr., 2010. DUBLIN Core Metadata Initiave (DCMI). DCMI Metadata Terms. Disponível em: <http://dublincore.org/documents/2012/06/14/dcmiterms/>. Acesso em: 10 mar 2014.


DUBLIN Core Metadata Initiave (DCMI). Dublin Core Metadata Element Set, Version 1.1. Disponível em: <http://dublincore.org/documents/dces/>. Acesso em: 09 mar 2014. DUBLIN Core Metadata Initiave (DCMI). Metadata Basics. Disponível em: <http://dublincore.org/metadatabasics/>. Acesso em: 09 mar 2014. FLAMINO, Adriana Nascimento. MARC21 e XML como ferramentas para a consolidação da catalogação cooperativa automatizada: uma revisão de literatura. 2003. 142 f. Monografia (Graduação em Biblioteconomia) – Curso de Biblioteconomia, Faculdade de Filosofia e Ciência, Universidade Estadual Paulista, Marília, 2003. Disponível em: < http://www.producao.usp.br/handle/BDPI/35149>. Acesso em: 04 jan. 2014. FONSECA, Vinicius Prado da, BRAGA, Felipe Mendes. Django, desenvolvimento ágil para a web. In: ENCONTRO DE ESTUDANTES DE INFORMÁTICA DO TOCANTINS, 11, 2009, Palmas. Anais ... Palmas: Centro Universitário Luterano de Palmas, 2009. p. 4950. Disponível em: <http://tinyurl.com/yg5v3ws>. Acesso em: 10 jan 2014. FOWLER, M; , et al. Patterns of Enterprise Application Architecture. Massachusetts: AddisonWesley Professional, 2002. GONÇALVES, Eduardo Corrêa. SQLite, Muito Prazer!. Disponível em <http://www.devmedia.com.br/post-7100-SQLiteMuito-Prazer.html>. Acesso em 20 fev 2014. GUARINO, N.; GIARETTA, P. Ontologies and knowledge Bases: towards a terminological clarification. In: N. MARS (Ed). Towards very large knowledge bases: knowledge building and knowledge sharing. Amsterdam: IOS Press, 1995. p. 25-32. Disponível em: <http://www.loacnr.it/Papers/KBKS95.pdf>. Acesso em: 03 jan. 2014. HILLMANN, Diane. Using Dublin Core. 2007. Disponível em: <http://dublincore.org/documents/usageguide/>. Acesso em: 14 fev. 2014. KOWATA, Elisabete Tomomi. Metadados de banco de dados relacionais: extração e exposição com o protocolo OAI-PMH. 2011. 125 f. Dissertação (Mestrado em Ciência da Computação) – Programa de

Pós-Graduação do Instituto de Informática, Universidade Federal de Goiás, Goiânia, 2011. Disponível em: < http://www.inf.ufg.br/mestrado/sites/www.inf.ufg.br.me strado/files/uploads/Dissertacoes/Elisabete.pdf>. Acesso em: 08 jan. 2014. LARMAN, Craig. Utilizando UML e padrões. Porto Alegre: Bookman, 2004. MARCONDES, Carlos Henrique. In: MARCONDES, Carlos H., et al. Metadados: descrição e recuperação na Web. Salvador, BA: EDUFBA; Brasília; IBICT, 2005. p. 77-143. Disponível em: <http://livroaberto.ibict.br/bitstream/1/1013/1/Biblioteca s%20Digitais.pdf>. Acesso em: 14 fev. 2014. MORATO, Adriany de Castro; MORAES, Marcos Antonio. Metadados, Dublin core: uma breve introdução. Disponível em: <http://eprints.rclis.org/14424/>. Acesso em: 18 dez. 2014. OLIVEIRA, Luiz Henrique Gonçalves de. Extração de Metadados utilizando uma ontologia de domínio. 2009. 66 f. Dissertação (Mestrado em Ciência da Computação) – Programa de Pós-Graduação em Computação, Universidade Federal do Rio Grande do Sul, Porto Alegre, 2009. Disponível em: < http://hdl.handle.net/10183/22814>. Acesso em: 3 jan. 2014. PEREIRA, A. M. ; RIBEIRO JÚNIOR, D. I. ; NEVES, G. L. C. Metadados para a descrição de recursos da Internet: as novas tecnologias desenvolvidas para o padrão Dublin Core e sua utilização. Revista ACB: Biblioteconomia em Santa Catarina. Santa Catarina, v. 10, n. 1, p. 241-249, jan./dez., 2005. RAMALHO, R. A. S. Web Semântica: aspectos interdisciplinares da gestão de recursos informacionais no âmbito da Ciência da Informação. 2006. 120 f. Dissertação (Mestrado em Ciência da Informação) – Faculdade de Filosofia e Ciências, Universidade Estadual Paulista, Marília, 2006. Disponível em: <http://www.marilia.unesp.br/Home/PosGraduacao/Cien ciadaInformacao/Dissertacoes/ramalho_ras_me_mar.pdf >. Acesso em: 3 jan. 2014. RAMALHO, Rogério Aparecido Sá; FUJITA, Mariângela Spotti Lopes. A utilização de ontologias em bibliotecas digitais: um estudo metodológico. In: SEMINÁRIO DE PESQUISA EM ONTOLOGIA NO BRASIL, 2008, Niterói. Resumos... Niterói, 2008.


RÜHLE, Stefanie; BAKER, Tom; JOHNSTON, Pete. User Guide. Disponível em: <http://wiki.dublincore.org/index.php/User_Guide>. Acesso em: 09 mar 2014. SILVA, Walison Dias da. XML NA LINGUAGEM LOTUSSCRIPT: importação de dados do lattes para o opus. 2012. 49 f. Monografia (Especialização em Informática) - Universidade Federal de Minas Gerais, Belo Horizonte, 2012. Disponível em: <http://www.bibliotecadigital.ufmg.br/dspace/handle/18 43/BUBD-942GK2>. Acesso em 28 de Fevereiro de 2014.


1 de 4

CAIPO JOGO PARA APRENDIZAGEM AMBIENTAL Bruno R. Santos, André L. Gusmão. Ufpa , Rua Algusto Corrêa – Guamá, brurei10@gmail.com, andredgusmao@gmail.com Laboratório de Engenharia de Software Belém/PA, Brasil, 66810-080

Re sumo – As flore stas guardam uma grande riqueza em sua

destruição e utilização de forma irregular dos recursos

dive rsidade: plantas e animais desconhecidos, madeira, minérios e

naturais para obtenção de lucros individuais, continua cada

outros recursos fazem parte deste tesouro. Neste cenário, a proteção ambie ntal é um te ma bastante difundido e necessário em nossa

vez mais forte e impactando negativamente no meio

sociedade atual, tendo implicações nas práticas ,ensino e conscientização

ambiente. A Educação Mediada por Computador é uma

da população. Como forma de apoiar de maneira lúdica os conceitos

metodologia de ensino largamente empregada nos países

re lacionados à preservação ambiental, este artigo apresenta o sistema

cujos índices de crescimento tecnológico e educacionais são

Caipo (Jogo para aprendizado ambiental), que foi desenvolvido na plataforma ruby tendo como principal diferencial: aprender brincando. De sta forma, o usuário obtém conhecimento enquanto se diverte em um jogo com o mesmo estilo dos tradicionais, diferenciado pela Educação Ambie ntal que e le promove.

vistos como de fundamental importância para a capacitação continuada de profissionais das mais variadas áreas. Muito se fala sobre a chamada “Revolução da Tecnologia da Informação”, no entanto, poucos pesquisadores têm ido

Abstract – Forests store a vast wealth of i ts diversity. Unknown plants and animals, timber, minerals and other resources are part of this

tão a fundo ao estudo da conceituação e descrição histórica

tre asure. In this scenario, environmental protection has gained many

dessa mais recente revolução técnico-social. “Contudo, à

adhe rents in recent years among them we find doctors, psychologists

medida que a tecnologia informática se populariza, aumenta

and pe dagogues. Thus, the area of computing could not be left out, so

a necessidade de a comunidade científica se ocupar dessa

this paper presents the Caipo (Game for Environmental Learning), which was deve loped on the ruby with the primary difference: The e ducational fun. This way the user learns while having fun in a game with the same focus and style of traditional, differentiated by Environme ntal Education that he promotes.

questão” [2] Sem dúvida alguma, a evolução tecnológica nos trouxe e continuará nos trazendo - conforto, agilidade, precisão, comodidade, dentre inúmeros benefícios. Não tratemos aqui

I. INT RODUÇÃO

dos possíveis efeitos colaterais que possa resultar, como a substituição do homem em atividades até então executadas

Em pleno século 21, ainda percebe-se que o homem não

somente por ele, ainda que à exaustão, os reflexos sobre o

encontra-se perfeitamente educado sobre a importância da

meio-ambiente ou o vício humano de se cercar de tecnologia

preservação ambiental. O direito ambiental é um direito de

em casa, no lazer, nos estudos, nos cuidados com a vida.

todos e não de indivíduos, onde os princípios ambientais buscam efetivar as condutas de preservação para a presente e futura geração, com ações concretas que visam minimizar os impactos atuais ao meio ambiente, bem como, os atos futuros lesivos a este [1].

O grande diferencial da revolução das Tecnologias de Comunicação está na aplicação do conhecimento para geração

de

novos

conhecimentos

e dispositivos de

comunicação, em um ciclo ágil e veloz de retroalimentação e inovação no seu uso. Desta forma, os usuários dessas

Como podemos ver, mesmo com programas de incentivo a preservação, e até mesmo com leis mais rígidas, a

tecnologias se apropriam desses novos conhecimentos e, muitas vezes as redefinem por si mesmos.


2 de 4

“Um ambiente de aprendizagem deve ser constituído

Neste,

foi

utilizado

uma

contextualização

de

pelos principais elementos compositores de um processo

destruição ambiental, onde o personagem aprende sobre o

educativo: os sujeitos (professores, estudantes, monitores,

meio ambiente em diálogos que ocorrem no decorrer da

etc.), os recursos, as metodologias e os espaços e tempos

história. Os jogadores são forçados a ler, entender,e assimilar

possíveis dentro do processo educacional” [3]. Ambientes de

pois, os textos são informações lúdicas sobre o estudo do

aprendizagem que

incorporam ferramentas digitais ou

meio ambiente. Assim, eles são “obrigados a aprender” pois

computacionais entre seus recursos são conhecidos por

estes temas serão alvo de perguntas no decorrer de todo o

Ambientes Digitais de Aprendizagem (ADA).

jogo, no qual, as respostas corretas permitirão que ele

Neste contexto surge o jogo Caipo, que tem como

prodiga. Veja figura 2 e 3.

intuito, repassar de forma divertida o aprendizado sobre a proteção e importância do meio ambiente através de perguntas específicas sobre a natureza em várias etapas do game. II. METODOLOGIA Caipo é um jogo estilo RPG (Role Play Games). os RPGs são jogos tão abrangentes que muitas vezes é difícil definir até que ponto certas variantes poderiam ou não ser classificadas em um mesmo grupo. No entanto, o básico do RPG é um jogo de interpretação de personagem onde existe

Fig. 2 - Mostra de imagem de diálogos do jogo.

um desenvolvimento tanto do personagem como da história. Você possui uma história e um personagem que vai evoluindo de acordo com certas tarefas que devem ser executadas no decorrer do jogo. Neste, você possui uma tarefa que é salvar a natureza da destruição causada pelo homem. A figura 1 mostra a sua tela inicial.

Fig. 3 - Exemplo de pergunta e opções de respostas

Este jogo, foi criado em conjunto com uma equipe de professores de gestão ambiental e Engenharia ambiental, os quais, foram responsáveis por selecionar e elaboras as perguntas de uma forma mais assertiva. Ele foi criado na Fig. 1 -Tela inicial Jogo Caipo

linguagem Ruby, uma linguagem dinâmica, open source com foco na simplicidade e na produtividade. Tem uma sintaxe elegante de leitura natural e fácil escrita, tornando assim,


3 de 4

ainda mais simples seu desenvolvimento em conjunto com o motor gráfico Maker Vx. Este, proporciona que sejam criados ambientes 2D de forma mais simples, aumentando a produtividade

dos

programadores, tendo

como única

preocupação o fluxo das informações e a lógica do sistema em termos de linhas de código. Para este jogo, também foi desenvolvida uma versão em 3D, que utiliza como motor gráfico Unity 3D. “Também conhecido

como Unity

jogo 3D proprietário e

3D,

é

um

uma IDE criado

motor pela

de Unity

Technologies. Unity é similar ao Blender, Virtools ou Torque

Fig. 4-Demonstração Caipo 3D.

Game Engine, em relação a sua forma primária de autoria de jogos: a sua interface gráfica” [4]. Com Unity, você otimiza seu desenvolvimento criando modelos na ferramenta Blender por exemplo. “O Blender pode ser utilizado em qualquer área que seja necessária a geração de modelos tridimensionais, geração de imagens renderizadas,

animação

e

jogos,

como

aplicações

em arquitetura, design industrial, engenharia, animação, produção de vídeo, e desenvolvimento de jogos, graças ao seu motor de jogo embutido. Esta característica pode ser ampliada e agilizada com o uso de scriptsem Python. Como modelador, foi recomendado pela Peugeot, para ser usado

Fig. 5-Demonstração Caipo 3D.

em seus concursos de design de carros, o Peugeot Design Contest”[5]. A versão 3D encontra-se em fase beta, mas possui as mesmas características da 2D, tendo como diferencial sua qualidade gráfica mais atual, que proporciona um maior interesse aos usuários por se comparar graficamente aos jogos mais atuais no mercado. Veja algumas imagens abaixo:

Fig. 6-Demonstração Caipo 3D. III. CONCLUSÃ O Como podemos perceber, ainda há muito à ser feito em relação ao meio ambiente. Não podemos medir esforços para que possamos mudar a grande degradação ambiental que


4 de 4

vem ocorrendo nos dias atuais. A informática pode ser

excelentes resultados. Precisamos rever nossos conceitos para

utilizada para auxiliar nesse meio, utilizando a tecnologia a

que assim, possamos tornar nossa sociedade cada vez melhor.

favor da educação e da humanidade, afinal, ela possui este como um dos principais objetivos. Precisamos de incentivos para que estas metodologias de assimilação de conhecimento possam ser utilizadas, pois, para que as mudanças futuras ocorram, para que melhoremos a consciência das pessoas, nada melhor que plantarmos isso à partir do berço, pois, com a consciência das novas gerações chegarem com esta ideia, forem educadas de uma forma que, a proteção ambiental seja um fator normal e cotidiano para elas, assim como olhar para os dois lados da rua é uma coisa automática e necessária, muito temos a melhorar na nossa sociedade. A informática veio para isso, para auxiliar em assuntos cotidianos, maximizando os resultados positivos, e utilizando uma nova dinâmica de ensino, mais intuitiva, divertida, interessante e, ao mesmo tempo didaticamente falando, com

REFERÊNCIAS [1]CANOTILHO, J. J. G.. “Direito Constitucional e Teoria da Constituição. 2 ed. Portugal: Almedina, 1998. R. and Renault, O. (1991) “3D Hierarchies for Animation”, In: New Trends in Animation and Visualization, Edited by Nadia M agnenat-Thalmann and Daniel Thalmann, John Wiley & Sons ltd., England. [2]P. Alex. “Ferramentas de interação em ambientes educacionais mediados por computador. Educação”. <http://www.pesquisando.atravesda.net/ferramentas_interacao.pdf>. Em 01/07/2014 15:07h. [3]P. Liliana M aria ; M . Sandra Portella. “Inclusão social via acessibilidade digital: proposta de inclusão digital para Pessoas com Necessidades Especiais (PNE)”. E-Compós (Brasília), v. 8, p. 1-18, 2007. [4]L. Collin. “Revealed: Title, Character Design and 1st M inute” :http://www.sintel.org/news/revealed-title-character-design-and-1stminute/. Em: 25/06/2014. [5]M . Lucas. “Is Unity Engine written in M ono/C#? or C++”. Disponível em: http://www.unity3d.com Acesso: 20 de Outubro de 2013.


Desenvolvimento de Aplicativos para Celulares pelos Alunos, como Proposta de Apoio ao Ensino de Engenharia Civil João Batista Lamari Palma e Silva Faculdade Integrada Metropolitana de Campinas (Metrocamp) Departamento de Engenharia Civil Rua Dr. Sales de Oliveira, n. 1661, Campinas/SP, Brasil joao.lamari@metrocamp.edu.br

Resumo – Um dos fatores que influenciam no desenvolvimento das habilidades e competências do aluno durante sua formação profissional, é o uso de ferramentas de ensino adequadas, tais como recursos advindos da inovação tecnológica, como, por exemplo, o celular. Com isto, integrar o uso do celular no ensino da Engenharia, por meio do desenvolvimento de aplicativos (softwares) para celulares pelos próprios alunos, para uso na Engenharia Civil, pode ser uma oportunidade para que os mesmos aprofundem seus conhecimentos, em determinado assunto da Engenharia que se pretende empregar no aplicativo. O MIT (Massachusetts Institute of Technology), mantem o App Inventor 2 Beta para programação visual, para aparelhos que dispõem sistema operacional Android. A partir desta plataforma, foram desenvolvidos dois aplicativos para celulares, sendo um deles para alvenaria estrutural e outro para apresentação de Diagramas de Momento Fletor, Forças Normal e Cortante em vigas, verificando-se assim, detalhes da programação em questão. Palavras-Chave - ensino da engenharia, celular, aplicativos.

I. INTRODUÇÃO Com o aumento das obras de construção civil nos últimos dez anos no Brasil, deflagrou-se um crescimento evidente de vagas para Engenheiros Civis. Com isto, devido à carência destes profissionais, inúmeras instituições de ensino começaram a oferecer cursos de Engenharia Civil. Esta preocupação quanto o aumento de vagas, de modo geral, ocorre em toda a sociedade, mais especificamente nas instituições de ensino, nos conselhos profissionais e nos órgãos governamentais relacionados à educação, pois o desenvolvimento das habilidades e competências do aluno não deve ser afetado devido a este aumento. Um dos fatores que influenciam no desenvolvimento das habilidades e competências do aluno durante sua formação profissional, é o uso de ferramentas de ensino adequadas, tais como recursos advindos da inovação tecnológica, que podem colaborar substancialmente com a formação do futuro profissional. Levar a teoria para o contexto prático no cotidiano do aluno não é nenhuma inovação, contudo o uso de novas tecnologias, desperta um interesse diferenciado por parte dos alunos, que quando associadas à teoria, podem promover bons resultados no desenvolvimento das habilidades e competências, sendo que para Moran [1], “As mudanças que estão acontecendo na sociedade, mediadas pelas tecnologias

em rede, são de tal magnitude que implicam em reinventar a educação como um todo, em todos os níveis e de todas as formas.”. Um exemplo de tecnologia presente no cotidiano das pessoas é o celular, em especial os smartphones, os quais oferecem os mais diversos recursos, o que atrai sobremaneira boa parte das pessoas. Com isto, integrar o uso do celular no ensino da Engenharia, como uma ferramenta colaborativa para o desenvolvimento de atividades, em conjunto a metodologias de ensino e aprendizagem, por meio dos mais variados recursos disponíveis no mesmo, pode ser uma possibilidade para obtenção de melhores resultados na formação do futuro profissional. O emprego de um celular do tipo smartphone nas mais variadas situações do cotidiano, propicia o acesso a inúmeros aplicativos e mídias de aquisição de dados (som, imagem, vídeos, códigos, localizadores, entre outros) e compartilhamentos (redes sociais, e-mails, entre outras formas), o que por si só são inovações tecnológicas. Contudo, é possível ir além destes recursos tecnológicos, como por exemplo, o desenvolvimento de aplicativos (softwares) para celulares pelos próprios alunos de uso na Engenharia Civil. Contudo, as tecnologias possibilitam realizar atividades de aprendizagem de maneira diferente, mas são apenas apoios e meios [2]. III. MATERIAL E MÉTODOS Pressupõe-se que para o desenvolvimento de um aplicativo para celulares é necessário algum tipo de conhecimento em programação computacional, bem como conhecimento sobre o conteúdo específico que se pretender oferecer com o uso do aplicativo, ou seja, neste caso a Engenharia Civil em suas diversas especificidades. Para tanto é necessário que o aluno conheça com propriedade o tema da Engenharia Civil que se pretende explorar no aplicativo. O curso de Engenharia Civil, nem sempre possui disciplinas relacionadas à programação computacional. Daí a necessidade de se buscar linguagens acessíveis, tais como a programação visual, as quais requerem menor conhecimento em programação, do que, por exemplo, as linguagens textuais. Dentre as diversas linguagens para programação visual, destacam-se as seguintes: Khoros, Simulink, StarLogo TNG, Scratch e Labview, cada uma com suas particularidades e


direcionamento para uso, por exemplo, jogos, educação, automação, controle e matemática. A grande maioria dos smartphones possui algum dos seguintes sistemas operacionais: Android, Windows Phone, Symbian ou iOS. De acordo com Sena [3], o sistema operacional Android apresenta uma plataforma com código aberto, o que possibilita seu uso por qualquer fabricante de aparelhos (celulares, tablets e computadores) e os aplicativos desenvolvidos para este sistema podem ser utilizados em qualquer dispositivo, independentemente do fabricante. A Google Inc. desenvolveu em 2010 e atualmente o MIT, mantem gratuitamente uma plataforma web denominada App Inventor 2 Beta [4] para programação visual de aplicativos, para aparelhos que dispõem sistema operacional Android. O App Inventor 2 Beta é uma plataforma de interface gráfica, com base na linguagem Java, a qual possibilita que usuários sem conhecimento na referida linguagem possam desenvolver aplicativos. Basicamente o App Inventor, possui uma divisão em dois ambientes de trabalho, ou seja, o Designer e o Blocks (Fig. 1). No primeiro ambiente, existe uma subdivisão em Palette, Viewer, Components e Properts, onde o usuário seleciona os componentes desejados, incluindo-os no corpo da tela que representa um celular, bem como atribuindo as propriedades para cada um dos componentes. Já o ambiente Blocks, possui uma subdivisão em Blocks e Viewer, onde o usuário literalmente conecta os blocos, os quais podem ser dos seguintes tipos: Controle, Lógica, Matemática, Textos, Listas, Cores, Variáveis e Procedimentos.

Durante a elaboração do aplicativo, o mesmo pode ser testado, por meio de um Emulador (Emulator AI2), também disponibilizado pelo MIT [5], ou diretamente num aparelho que disponha do sistema operacional Android, sem que o mesmo tenha de ser instalado, ou seja, apenas pela conexão wireless ou com cabo USB com o computador, contudo sendo necessário instalar o aplicativo AI2 Companion – MIT [6], disponibilizado na Google Play, para executar os arquivos de teste. O projeto do aplicativo fica armazenado no servidor do site do App Inventor, podendo ainda ser gerado um arquivo com a extensão “aia” para download. Quando finalizado o desenvolvimento do aplicativo, é possível gerar o arquivo com a extensão “apk” para instalação em aparelhos, por meio do próprio arquivo, ou pela Google Play, onde os autores podem submeter seus aplicativos para publicação no referido site.

III. RESULTADOS A partir da plataforma App Inventor 2 Beta, foram desenvolvidos dois aplicativos (figura 2) para smartphones com sistema operacional Android, com temas diretamente relacionados à Engenharia Civil, proporcionando uma forma de se verificar os conhecimentos necessários na referida programação, visando o desenvolvimento de aplicativos próprios pelos alunos. Neste caso, a partir do 5º semestre do curso, onde os alunos já tenham cursado algumas das disciplinas específicas da Engenharia Civil.

Fig. 1 - Ambiente Blocks do App Inventor 2 Beta Fonte: http://ai2.appinventor.mit.edu


Fig. 2 - Tela de abertura dos aplicativos de ALVEST 1.0

Fig. 3 - Tela de abertura dos aplicativos de RESMAT 1.0

O aplicativo para dimensionamento de paredes em alvenaria estrutural à compressão simples no Estado Limite Último (ELU), denominado ALVEST 1.0 (Fig. 2), tem por objetivo determinar a resistência à compressão simples de blocos estruturais cerâmicos. O desenvolvimento deste aplicativo depende do conhecimento no dimensionamento em questão, o que implica na seleção de fórmulas, variáveis, restrições e outros parâmetros técnicos, em especial aqueles constantes da NBR 15812-1 [7], bem como valores de ensaios de materiais, como, por exemplo, a relação fpk/fbk (resistência característica de compressão simples do prisma e do bloco), apresentada por Parsekian [8]. O segundo aplicativo, foi desenvolvido para ser uma ferramenta de uso didático, ou seja, enquanto o aplicativo anterior trata de um tema especifico da Engenharia Civil, este se refere a um tema de conteúdo básico da Engenharia, ou seja, formas de apresentação dos Diagramas de Esforços Solicitantes em vigas, denominado RESMAT 1.0 (Fig. 3). Basicamente, no que se refere ao conteúdo deste aplicativo, é necessário o conhecimento dos tipos de condições isostáticas das vigas (bi-apoiadas ou engastadas), bem como os tipos de carregamentos (concentrado, distribuído e momento) em que a viga está sujeita. Após combinação destes dois parâmetros, o aplicativo fornece visualmente os Diagramas de forma genérica (sem valores numéricos), para Força Normal, Força Cortante (ou Tangencial) e Momento Fletor, pois segundo

Botelho [9], traçando tais diagramas de uma viga, determinase “assim os esforços internos solicitantes ponto a ponto”, contudo, são necessários cálculos que não estão comtemplados nesta versão do aplicativo, para determinação dos valores dos esforços.

III. CONCLUSÃO Com base nos aplicativos desenvolvidos, foi possível verificar que o conteúdo relacionado à programação em linguagem visual do App Inventor 2 Beta, pode ser facilmente assimilado pelos alunos dos cursos de Engenharia, visto que boa parte dos recursos utilizados referem-se a questões intimamente ligadas as ciências extadas, tais como questões matemáticas e lógicas, o que naturalmente já se faz presente no dia-a-dia destes alunos. Diante disto, a elaboração de tais aplicativos, pode fazer com que o aluno desenvolva ou aperfeiçoe seus conhecimentos em linguagem visual para programação de aparelhos como smartphones. Contudo, mais importante que o citado conhecimento em programação, o aluno tem a oportunidade de aprofundar seu conhecimento em determinado assunto da Engenharia, por exemplo, com o emprego de pesquisas, exercícios e experimentos com o conteúdo que se pretende propor para um aplicativo.


Outra questão muito importante neste binómio aplicativoengenharia, é o despertar do aluno para a questão de que além das grandes descobertas e invenções que podem ser feitas na Engenharia, é possível unir e combinar diferentes tecnologias, objetivando inovação nas atividades de Engenharia. AGRADECIMENTOS A Faculdade Integrada Metropolitana de Campinas (Metrocamp), pelo apoio irrestrito na realização deste trabalho. REFERÊNCIAS [1] J. M. Moran. Os novos espaços de atuação do professor com as tecnologias. In: Moran, J. M. Novas Tecnologias e Mediação Pedagógica. 21. ed. São Paulo: Papirus, 2013. p. 27-27. http://www.eca.usp.br/prof/moran/site/textos/tecnologias_eduac acao/espacos.pdf. Em 19/06/2014, 22:41h. [2] J. M. Moran. Educação e Tecnologias: Mudar para valer. In: Moran, J. M. Novas Tecnologias e Mediação Pedagógica. 21. ed. São Paulo: Papirus, 2013. p. 12-14. http://www.eca.usp.br/prof/moran/site/textos/tecnologias_eduac acao/educatec.pdf. Em 19/06/2014, 22:59h.

[3] F. R. Sena. Evolução da Tecnologia Móvel Celular e o Impacto nos Resíduos de Eletroeletrônicos. Rio de Janeiro: DEC/PUC, 2012. 185p. Dissertação de Mestrado. http://www.youblisher.com/p/729054-PUC-Mestrado-emEngenharia-Urbana-e-Ambiental/. Em 20/06/2014, 21:32h. [4] Massachusetts Institute of Technology (Massachusetts) (Org.). App Inventor 2 Beta. http://ai2.appinventor.mit.edu/. Em 19/06/2014, 13:05h. [5] Massachusetts Institute of Technology (Massachusetts) (Org.). Emulator in AI2. http://appinventor.mit.edu/explore/ai2/setup-emulator.html. Em 19/06/2014, 13:08h. [6] Massachusetts Institute of Technology (Massachusetts) (Org.). AI2 Companion. https://play.google.com/store/search?q=aicompanion&hl=pt_BR . Em 19/06/2014, 12:55h. [7] Associação Brasileira de Normas Técnicas (ABNT). NBR15812-1. Alvenaria estrutural – Blocos Cerâmicos parte 1: projeto. Rio de Janeiro, 2010. [8] G. A. Parsekian; A. A. Hamid; R. G Drysdale. Comportamento e dimensionamento de alvenaria estrutural. 2 ed. – São Carlos: Edufscar, 2013, p.247-248. [9] Botelho, M. H. C. Resistência dos materiais: para entender e gostar. 2. Ed. - São Paulo: Blucher, 2013.


Energydownow: aprendendo física através de um jogo para controle de consumo elétrico A. S. Santos, A.P.M. de Melo e A.G. de Lima

Resumo — Apresenta o projeto EnergyDownNow que consiste no desenvolvimento de um jogo lúdico e interativo para o ensino da Física, mais precisamente tópicos de Eletricidade. A interação entre os usuários e o jogo se dará através de cenários em que o objetivo do jogador será o de reduzir o consumo elétrico de uma residência sem afetar o conforto dos moradores. O interesse dos alunos pelo estudo da Física sempre foi um grande desafio para as escolas, por isso para muitos alunos é preciso criar situações em que a relação com as matérias seja estimulada. Tendo acesso a um software adequado, os alunos podem estar envolvidos numa situação de desafios e entretenimento que irá motivar um contato eficaz com disciplinas das ciências exatas. Diante deste contexto, acreditamos que o jogo estimulará a aprendizagem dos alunos no tocante às grandezas físicas relacionadas aos aparelhos elétricos e ao consumo de energia, apresentando-se como uma ferramenta de apoio aos docentes. Palavras-Chave — Software, Física, Eletricidade, Jogo,

elétrico sem afetar o conforto dos residentes da casa. Na execução do jogo o usuário poderá se utilizar de estratégias como a diminuição do tempo de uso de um eletrodoméstico ou a realização da troca de alguns aparelhos. Entre os objetivos específicos, encontram-se facilitar a identificação, por parte dos usuários do jogo, das grandezas físicas e características presentes nos aparelhos domésticos e que possuem impacto direto no consumo elétrico de uma residência, aplicação dos conhecimentos adquiridos pelos bolsistas nas disciplinas do curso de Tecnologia em Análise e Desenvolvimento de Sistemas, publicação de artigos em congressos, proporcionar aos bolsistas a vivência com um processo de desenvolvimento de software e pesquisa científica, criação e estabelecimento de um sítio do projeto acessível pela Internet, além de estimular o uso do jogo no ensino da Física no IFRN.

Educação. I. INTRODUÇÃO Segundo Fiolhais e Trindade (2003), as recentes tecnologias computacionais abriram novas perspectivas para o ensino e aprendizagem das Ciências em geral, permitindo a diversificação das estratégias de ensino. A enorme quantidade de softwares disponíveis para o ensino da Física, fato facilmente verificado por uma consulta a sítios de busca da Internet, reforça a concepção de que o computador apresenta potencial como ferramenta de apoio ao ensino, mesmo que não haja um consenso em relação à forma exata de como utilizar tais ferramentas (FIOLHAIS E TRINDADE, 2003). Dentre as diversas ferramentas que auxiliam os estudantes no processo de aprendizagem, tem-se o computador como um grande aliado. O computador, representando as diversas ferramentas da informática e os softwares educativos usados nas escolas, torna-se cada vez mais um amplificador de potencialidades na capacitação e aperfeiçoamento de alunos, professores e das próprias instituições de ensino. De acordo com Silva (2007), softwares educativos se destacaram no campo educacional por possibilitarem a criação de ambientes de ensino-aprendizagem lúdicos através de jogos, agregando elementos tais como entusiasmo, concentração e motivação. Com isso, este projeto de pesquisa visa auxiliar docentes e alunos da área de Física e tecnologia como forma de estímulo e dando propulsão a aprendizagem, fazendo assim desenvolver o interesse dos discentes na matéria. Este objetivo será alcançado com o desenvolvimento de um jogo computacional de caráter lúdico e interativo que orienta os usuários na tomada de ações que irão acarretar na diminuição do consumo

II. REVISÃO BIBLIOGRÁFICA Os jogos eletrônicos têm fascinado pessoas de todas as faixas etárias, em todo mundo. Não é de se admirar que o seu uso em sala de aula esteja cada vez mais presente, já que durante o jogo o aluno se mantém bastante concentrado e com o nível de atenção elevado, o que o leva a um desenvolvimento maior de suas habilidades visomotoras, já que para controlar o game ele precisa fazer uso de botões, controles remotos ou mesmo o teclado e o mouse do computador. Partindo dessas observações procuramos desenvolver um software que associa o encantamento favorecido pelo jogo eletrônico ao processo de aprendizagem de grandezas físicas utilizadas no cotidiano de uma residência. Assim como os experimentos físicos, no processo educacional o computador passa a ser usado com o objetivo de diversificar as formas de ensino da Física criando um ambiente de simulação onde o aluno/jogador processa as informações e as agrega a seus conhecimentos colocando-os para funcionar, uma vez que ele se sente desafiado a vencer o jogo. De acordo com Aliprandini (2009): As simulações podem ser consideradas, a solução de muitos problemas que professores de física enfrentam ao tentar explicar para seus alunos fenômenos demasiado abstratos para serem visualizados pela descrição em palavras, e demasiado


complicados para serem representados por meio de uma figura estática. Elas possibilitam observar em alguns minutos a evolução temporal de um fenômeno que levaria horas, dias ou anos em tempo real, além de permitir ao estudante repetir a observação sempre que o desejar. Contribuindo com esta reflexão, Silva (2007) afirma que a falta de experimentação, o ensino livresco das Ciências e a ausência do estabelecimento de relação com o cotidiano são alguns entre os fatores responsáveis por dificultar a aprendizagem dos alunos brasileiros em disciplinas de Ciências. A falta de identificação com os conteúdos apresentados implica diretamente na baixa motivação em Ciências apresentada de forma geral pelos estudantes. Para contornar este aspecto, Silva (2007) propõe a adoção do lúdico como estratégia de motivação. Igualmente Mattar (2010, p. xiii) afirma que “o aprendizado necessita de motivação para um envolvimento intenso, o que é atingido pelos games”. A adoção do lúdico no processo de ensino-aprendizagem efetiva um processo educativo centrado nas ações do sujeito e nas perturbações produzidas pela análise de situações práticas com o intuito de se obter as condições que permitam compreender as bases conceituais interessantes. As atividades experimentais realizadas em práticas de laboratórios compartilham esse intuito de estimular a descoberta das relações de causa e efeito e instigar posturas questionadoras, só que em um contexto formal. Na relação ensinoaprendizagem das ciências, o lúdico assume um papel que transcende a função de proporcionar apenas prazer aos estudantes envolvidos com as atividades experimentais. Neste contexto, o lúdico também estimula a motivação, a qual adquire papel fundamental na apreensão dos conceitos científicos envolvidos (SILVA, 2007). Segundo Aliprandini (2009), o ensino da Física não deve se reduzir apenas às repetições conceituais e análises matemáticas. Deve-se estimular o desenvolvimento de outras habilidades importantes para compreensão dos conteúdos como a observação, a descrição, a leitura, a interpretação e a conclusão. O objetivo deve ser capacitar os estudantes de forma que estes utilizem os conhecimentos científicos adquiridos na tomada de decisões. Lawson e McDermott (1987 apud Aliprandini, 2009), afirmam que devem ser encorajadas técnicas de instrução atraentes e que coloquem a ênfase na compreensão qualitativa de conceitos físicos complexos e difíceis de visualizar. Apesar dos benefícios proporcionados pela simulação em software, Figueira (2005) alerta para que seja realizada a distinção, junto aos alunos, entre simulações e experimentos físicos: As ciências são construções humanas com base em observações e conjecturas. Assim, o experimento físico é crucial em todo o desenvolvimento teórico (da ciência). A modelagem ou simulação são modelos teóricos da realidade, com base nas observações do mundo real. Assim entende-se que simulações não podem substituir a atividade experimental,

e o uso de laboratórios, no ensino, é uma necessidade para que nossos alunos compreendam a atividade científica. Segundo Fiolhais e Trindade (2003), o caráter de jogo de algumas simulações pode aumentar bastante o potencial pedagógico de uma simulação, permitindo uma grande variedade de situações e uma exploração flexível delas pelos jogadores. Moratori (2003) defende que a utilização de jogos computadorizados é eficiente, pois associa a riqueza dos jogos educativos com o poder de atração dos computadores, proporcionando uma experiência lúdica e prazerosa na exploração de determinado ramo do conhecimento, além de estimular outras habilidades como destreza, associação de ideias e raciocínio lógico e indutivo. Os jogos educativos computadorizados devem possuir várias características específicas como (MORATORI, 2003, p. 18): a) Permitir um envolvimento homem-máquina gratificante; b) Possuir uma paciência infinita na repetição de exercícios; c) Estimular a criatividade do usuário, incentivandoo a crescer, tentar, sem se preocupar com os erros; d) Ter clareza dos objetivos e procedimentos, promovendo interações para facilitar o alcance das metas, uma vez que o jogador pode mudar os parâmetros, variando o ambiente e podendo, assim, enfrentar objetivos e dificuldades diversificadas, conforme o andamento das jogadas; e) Ter formas para detecção de procedimentos e/ou respostas inadequadas e execução em tempo real, para o fornecimento de respostas imediatas a cada jogada do usuário; f) Oferecer um adversário virtual ao usuário, simulando jogadas conforme as decisões tomadas pelo jogador; g) Propiciar um ambiente rico e complexo para a resolução de problemas, através da aplicação de regras lógicas, da experimentação de hipóteses e antecipação de resultados e planejamento de estratégias, trabalhando também com representações virtuais de uma forma coerente; h) Fornecer diretrizes no início do jogo e disponibilizá-las ao jogador até a sua finalização, sem apresentar instruções equivocadas, exceto quando a descoberta das regras for parte integrante do jogo. Isto não impede que o aluno seja desafiado, através de interações consecutivas que conduzam a um resultado preciso, incorporando níveis variáveis de solução de problemas, feedback do progresso, registro de pontos e análise do desempenho, oferecendo reforço positivo nos momentos adequados. Além disto, deve apresentar o desempenho parcial durante o jogo e ao final seu desempenho global; i) Exigir concentração e certa coordenação e organização por parte do usuário; j) Permitir a criação de ambientes de aprendizagem individualizados (ou seja, adaptado às características de cada aluno), onde a forma de acesso à informação segue também o interesse dos aprendizes.


Franciosi (1997 apud Moratori, 2003, p.19), indica os seguintes requisitos básicos de qualidade didática-pedagógica que devem ser observados no planejamento de um software educacional: a) Objetivos bem definidos; b) Encadeamento lógico do conteúdo; c) Adequação do vocabulário; d) Possibilidade de formação de conceitos; e) Correção da palavra escrita (ortografia e gramática); f) Feedback apropriado; g) Clareza e concisão dos textos apresentados; h) Possibilidade de acesso direto a diferentes níveis do programa; i) Possibilidade de o professor incluir/excluir/alterar conteúdos do sistema. Apesar das potencialidades descritas ao adotar jogos de computador na prática pedagógica, Moratori (2003) chama atenção para o uso adequado do computador em sala de aula. A utilização da informática na educação deve partir de um referencial teórico que privilegie o processo de construção do conhecimento pelo aluno ao invés do resultado final. A visão de que ensinar é apenas transmitir conteúdos deve ser abandonada, e os alunos devem ser inseridos como personagens centrais na construção e descoberta do conhecimento.

III. METODOLOGIA A princípio foram realizadas reuniões durante a semana contando com a participação de professores a fim de levantar os requisitos do jogo a ser desenvolvido, bem com as regras que seriam adotadas. Posteriormente as reuniões foram realizadas apenas com os bolsistas a fim de por em prática o que foi decidido e o que foi proposto pelos professores. Essas reuniões aconteceram três vezes na semana inicialmente no laboratório de pesquisa do NUDES, utilizando computadores pessoais, e posteriormente no laboratório 2 da DIATINF. As tarefas eram realizadas em dupla conforme a proposta inicial do projeto, sempre com o suporte do professor orientador. Entre as tarefas realizadas, vale destacar a pesquisa a respeito de software similares que pudessem servir de inspiração para o programa ser desenvolvido. Definido o escopo do projeto, demos início a uma pesquisa sobre os equipamentos eletroeletrônicos mais usados em residências e suas respectivas potências. A pesquisa foi realizada em sites e lojas especializadas em vendas desses equipamentos. Para realizar a implementação da lógica do jogo foi escolhida a linguagem Java, por ser uma linguagem de programação voltada à orientação a objetos referência no desenvolvimento de software, e uma linguagem com a qual os desenvolvedores estavam familiarizados. A lógica do jogo foi desenvolvida de forma independente de sua interface com o usuário e validada através de testes unitários. Foi utilizado JUnit 4 como ferramenta de apoio aos testes unitários. A ferramenta de desenvolvimento utilizada foi a NetBeansIDE 7.1.1 por oferecer um melhor suporte para criação de interfaces gráficas de maneira visual apresentando

funcionalidades para soluções mais completas em programações com Java. A imagem utilizada para reproduzir o cenário foi elaborada no aplicativo Google Sketchup, que é um software utilizado par a a criação de modelos em 3D. Para realizar o versionamento dos códigos que eram gerados utilizamos o GIT, que é um sistema de controle de versão distribuído que gera um repositório com todos os históricos de reposição e controle de revisões. A fim de que todos os envolvidos no projeto tivessem acesso a versão mais atual do jogo, foi criada uma conta no Google Code, que é um site de hospedagem de projetos de software livre. Ao final de cada dia de trabalho, tudo que era produzido era enviado para o mesmo e todos participantes do projeto poderiam ter acesso on line ao código do jogo na sua versão atualizada.

IV. REQUISITOS IDEALIZADOS Com o objetivo principal de desenvolver um jogo lúdico capaz de auxiliar a compreensão das grandezas física envolvidas no consumo de energia elétrica, a equipe definiu o formato e os requisitos do que deveria ser produzido. Como o público-alvo do jogo será formado basicamente por estudantes de ensino médio e por professores de Física, seja em sala de aula ou em atividades extra-classe, o jogo deve estar facilmente disponível, seja através de acesso remoto ou local. Adicionalmente, um processo de instalação descomplicado facilita a adoção e uso do software. Diante disto, optou-se pelo desenvolvimento em formato Java Applet, atendendo ambas as formas de acesso idealizadas e os requisitos de instalação. Em relação ao formato, foi decidido que o jogo oferecerá diversos cenários de interação, os quais podem ser vistos como níveis de dificuldades ofertados aos jogadores (e.g, fácil, médio e difícil). Cada cenário representa uma residência com um conjunto de aparelhos eletroeletrônicos, e uma meta de consumo a ser atingida. O andamento do jogo é baseado em turnos, sendo que cada turno representa o período de um mês. A cada turno o programa calcula o consumo energético do cenário (residência) e verifica se a meta foi atingida ou não. Para influenciar o consumo mensal, os jogadores poderão executar duas ações: alterar o tempo de funcionamento de um aparelho, ou realizar a sua troca. Para tornar o jogo mais interessante, indo além de uma calculadora de consumo elétrico, decidiu-se que cada cenário também possuirá um conjunto de personagens, cada qual com suas restrições de conforto. Assim, ao alterar o tempo de uso de um aparelho o jogador poderá estar interferindo na sensação de conforto de um ou mais personagens. Assim, para que o jogador obtenha sucesso ele deve atingir não apenas a meta de consumo energético, mas também deve atender as restrições de conforto de todos os personagens integrantes do cenário. Acredita-se que esta é uma característica que tornará a interação com o jogo bem mais interessante. Basta imaginar que para atingir uma meta de consumo, em determinados cenários, bastaria deixar de utilizar a geladeira, um dos eletrodomésticos com maior impacto no consumo energético residencial. Em uma situação real, esta seria uma decisão com


impacto extremamente negativo no conforto de todos os moradores da residência. A outra ação disponível aos jogadores permitirá a substituição por aparelhos energeticamente mais eficientes (e.g., lâmpadas fluorescentes frente a lâmpadas incandescentes). Entretanto, esta ação será limitada por uma quantidade em dinheiro disponível no cenário. Assim, como as trocas não serão ilimitadas, os jogadores terão que descobrir quais trocas de aparelhos se mostrarão mais adequadas. V. RESULTADOS O software abordado neste trabalho teve a lógica de jogo (classes de domínio) completamente implementada de acordo com as ideias apresentadas na seção anterior. Esta camada, composta por sete classes, foi desenvolvida de maneira independente da interface com o usuário (IU), sendo que sua execução foi verificada através de testes unitários. Também foi implementada uma versão de um pequeno cenário para fins de validação e compreensão das funcionalidades da aplicação final.

Figura 1 - Protótipo de tela de interação com cenário. Fonte: Autoria Própria. A camada de interface com o usuário encontra-se ainda em desenvolvimento. Por enquanto, foram implementados apenas alguns protótipos para melhor definição do produto final (Figura 1) e alguns componentes personalizados para facilitar a integração entre a IU e os objetos de domínio (Figura 2).

aos jogadores realizarem apenas alterações no tempo de uso dos aparelhos, mantendo o conforto dos personagens do cenário. Posteriormente, serão criados cenários mais dois cenários, um de nível intermediário e um de nível avançado, onde será possível, além de alterar o tempo de uso dos aparelhos, realizar a troca por aparelhos energicamente mais eficientes. Também foram criados o repositório de código e o estabelecimento da página web do projeto no sítio Google Code, possibilitando acesso público às suas informações, bem como ao código fonte, através do endereço http://code.google.com/p/energydownnow/. VI. CONCLUSÃO As funcionalidades idealizadas para a aplicação levam a crer que o jogo poderá ser utilizado como uma ferramenta de apoio ao ensino de Física, facilitando o processo de ensinoaprendizagem ao inserir os alunos em cenários lúdicos e desafiadores de obtenção de metas de consumo energético. Ainda que o software proposto não tenha sido implementado em sua plenitude, não atendendo o cronograma previsto para o projeto, a equipe acredita que este objetivo será alcançado em breve, já que os bolsistas, continuam atuando no desenvolvimento do software pretendido. Assim, que estiver pronto, o software será divulgado entre os professores de Física do IFRN. Na perspectiva de desenvolvimento de software, vale salientar a percepção obtida pelos bolsistas dos benefícios advindos da utilização de testes unitários: foco na funcionalidade em questão (abstração), melhoria no tempo de desenvolvimento, feedback imediato ao realizar alterações no código-fonte e segurança ao corrigir bugs e inserir novas funcionalidades. Assim, foi possível verificar na prática como a adoção de testes unitários é benéfica ao desenvolvimento de software.

REFERÊNCIAS

1. ALIPRANDINI, Daiane Maria; SCHUHMACHER, Elcio ; SANTO, Muriel Clasen dos. Processo Ensino e Aprendizagem de Física apoiada em software de modelagem. Ponta Grossa, PR, Anais do I Simpósio Nacional de Ensino de Ciência e Tecnologia, Ponta Grossa, PR, p. 1370-1380, 2009.

2. B SILVA, Alcina M. T. Braz da; METTRAU, Marsyl B.; BARRETO, Márcia S. L. O lúdico no processo de ensinoaprendizagem das ciências. Revista Brasileira de Estudos Pedagógicos, vol. 88, nº 220, p. 445-458, 2007.

3. FIGUEIRA, Jalves S. Easy Java Simulations. Modelagem Figura 2 – Componente para alteração do tempo de uso de um aparelho Fonte: Autoria Própria. Também foi iniciada a implementação do primeiro cenário do jogo que será identificado como Cenário Fácil pois apresentará o nível de dificuldade baixo do jogo, permitindo

computacional para o ensino de Física. Revista Brasileira e Ensino de Física, vol. 27, nº 4, p. 613-618, 2005.

4. FIOLHAIS, Carlos e TRINDADE, Jorge. Física no Computador: o Computador como uma Ferramenta no Ensino e na Aprendizagem das Ciências Físicas. Revista


Brasileira e Ensino de Física, vol. 25, nº 3, p. 259-272, Set., 2003.

5. MATTAR, João. Games em educação: como os nativos digitais aprendem. São Paulo: Pearson Prentice Hall, 2010. 181 p.

6. MORATORI, Patrick Barbosa. Por que utilizar jogos educativos no processo de ensino aprendizagem?2003. 28 f. Trabalho de conclusão da disciplina Introdução à Informática na Educação no mestrado de Informática aplicada à Educação (Mestrado de Informática Aplicada a Educação) - Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2003.

Alexsandra Santana dos Santos mestranda em Educação Profissional pelo Instituto Federal do Rio Grande do Norte (Aluna Especial) em 2014. Aluna do Metrópole Digital da Universidade Federal do Rio Grande do Norte. Tecnóloga em Análise e Desenvolvimento de Sistemas pelo Instituto Federal do Rio Grande do Norte em 2014. Possui graduação em Biblioteconomia / Documentação pela Universidade Federal do Rio Grande do Norte em 2009. MBA em Gestão Estratégica de Pessoas em 2012. Ana Priscila Meireles de Melo Graduanda do Curso de Análise e Desenvolvimento de Sistemas - TADS Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte. Aluna do curso Técnico em TI no Instituto Metrópole Digital da Universidade Federal do Rio Grande do Norte.

Alexandre Gomes de Lima Docente do Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Norte IFRN desde o ano de 2006, possui Mestrado em Engenharia Elétrica e de Computação pela Universidade Federal do Rio Grande do Norte - UFRN (2011). Também é licenciado em Matemática pela UFRN (2000) e Tecnológo em Desenvolvimento de Software pelo IFRN (2005). Possui experiência nas áreas de educação, a qual atua desde 1999.


EM BUSCA DE UMA INFORMÁTICA SAÚDÁVEL, REDUÇÃO DE DOENÇAS OCUPACIONAIS POR EXPOSIÇÃO A RISCOS QUÍMICOS

Adriana Maria dos Santos, Nelly Alexandre Marçal ¹; Susana Cristina Batista Lucena² 1 – Graduandas em Tecnologia em Segurança no Trabalho, IFPB, Campus Patos-PB. 2 – Professora do Curso Superior em Tecnologia em Segurança no Trabalho, IFPB. adriana_aguabranca@hotmail.com, nellymaral@yahoo.com.br susana.lucena@.ifpb.edu.br RESUMO Os frutos decorrentes das atividades realizadas pelos trabalhadores de serviços em informática estão visíveis e táteis em nossas mãos, grandes é sua importância para o desenvolvimento humano. Dessa forma, é notório que este trabalhador esteja exposto a risco, um deles são os elementos químicos presentes nos equipamentos eletrônicos produzidos. O presente estudo tem como objetivo conhecer a atividade e promover informações sobre o desenvolvimento de doenças ocupacionais para profissionais em serviço de informática. A metodologia utilizada como suporte desse estudo baseouse em revisão bibliográfica, análise de tabelas e informações disponíveis no sítio da previdência social, desvendando o quantitativo de trabalhadores afastados do trabalho em 2013 nesta atividade, onde revelaram que seu maior percentual, são por intoxicação, lesões e algumas outras consequências de causas externas com 37% dos casos, entre outros fatores que levam muitos trabalhadores a desenvolvimento de diversas patologias, sabendo também inúmeros elementos químicos estão presentes nos aparelhos que são descartados no meio ambiente. Estudos desta grandeza demostra que a informação é um elo importante para a prevenção de riscos e adoção de programas em gestão de saúde e segurança no trabalho. E que a tecnologia deve está aliada a princípios básicos de prevenção, como o

conhecimento do risco e saber conviver com o mesmo reduzindo a insalubridade.

ABSTRAT The fruits arising from activities carried out by the workers of computer services are visible and tactile in our hands, great is their importance for human development. Thus, it is apparent that this worker is exposed to risk, one of the chemical elements present in electronic equipment produced. The present study aims to meet the activity and promote information about the development of occupational diseases for professionals in computer service. The methodology used in support of this study based on literature review, analysis of tables and information available on the website of the social security administration, cracking the number of workers away from work in 2013 in this activity, where he revealed that his highest percentage, is poisoning, injuries, a few other consequences of external causes with 37% of cases, among other factors that led many workers to development of various pathologies, knowing too many chemical elements are present in appliances that are discarded in the environment. Studies of this magnitude demonstrate that information is an important link to the prevention of risks and adoption programs in management of health and safety at work. And that technology must be combined with the basic principles of prevention, as the knowledge of the risk and knowing how to get along with even reducing the unhealthiness.


2

1- INTRODUÇÃO Na década de 70 surgiram às indústrias do Vale do Silício, eram intituladas de “indústrias limpas”, porém anos mais tarde começam a surgir relatos do perigo a saúde humana, no descarte dos aparelhos eletrônicos e em especial dos trabalhadores no setor produtivo. Um dos problemas que mais tem afetado as empresas são os distúrbios na saúde dos trabalhadores, sendo na maioria das vezes, ocasionados devido a uma organização do trabalho que envolve tarefas repetitivas, pressão constante por produtividade, longas jornada, além de tarefas fragmentadas, monótonas que reprimem o funcionamento mental do trabalhador, e exposição a riscos, esses distúrbios trazem como consequência dor e sofrimento para os trabalhadores e, para os empresários trazem onerosas despesas com assistência médica e pagamento de seguros (NAHAS, 2001). Com base neste informativo, a preocupação com o destino do lixo eletrônico e com os trabalhadores que produzem em massa produtos tecnológicos é agravante quando se trata das substâncias químicas contidas, suas reações ao meio ambiente ao organismo humano, são fatores a serem investigados pela comunidade científica. Com o cenário que se apresenta, o presente estudo objetiva promover informações sobre o desenvolvimento de doenças ocupacionais para os trabalhadores do setor de sistema de informação, na produção de equipamentos eletrônicos – computadores, celulares, pilhas, baterias, entre outros, – por exposição a riscos químicos, alertando quanto o possível desenvolvimento de doenças ocupacionais e a importância de adequação a programas preventivos em saúde e segurança no trabalho.

Se a qualidade de vida está agregada a prevenção à saúde e a segurança no trabalho, buscou-se conhecer atividade e riscos envolvidos a profissionais e usuários que lidam como produtos eletrônicos portáteis agregando conhecimentos adquiridos no Curso de Tecnologia em Segurança no Trabalho do IFPB- Instituto Federal da Paraíba. 2- METODOLOGIA Atendendo os objetivos do projeto foram utilizadas como metodologia etapas distintas para contemplação do estudo: 1- Realizou-se um levantamento bibliográfico descritivo sobre eletrônicos e correlacionando com saúde e segurança no trabalho; 2- Análise de dados fornecidos pelo Sítio Eletrônico da Previdência Social e seu Anuário que estabelece o número de beneficiários por afastamento de trabalho (acidentes e doenças), segundo atividade específica; 3Discursões para o desenvolvimento de possíveis medidas que minimizem a exposição ao risco químico como informação para saúde e segurança a profissionais de sistema de informação. 3- RESULTADO E DISCURSÃO A dificuldade de reciclagem coloca também outros profissionais além de informática, expostos ao risco químico, coletores de lixo. Realimentados diariamente pela sociedade da informação e o consumo de produtos eletrônico que é exorbitante, os grandes lixões é um terreno fértil para o agente químico ameaçar a normalidade do meio ambiente. Segundo a REVISTA ELETRÔNICA REDE BRASIL ATUAL, em matéria publicada em 2011, o monitor antigo (chumbo), monitores de LCD (mercúrio), são exemplos de como facilmente a um contato com este produto químico e que sua exposição prolongada


3

pode desenvolver patologias específicas, além de que a contaminação ultrapassa o local de trabalho já que estes compostos químicos facilmente contaminam o meio ambiente. A maior exposição ocorre na abertura dos aparelhos, seja na fabricação, manutenção, ou quebra. Ao ser descartado nos lixões muitos são quebrados pelos próprios coletores de lixo, sujeitando ao risco. Algumas propriedades químicas encontradas nos aparelhos eletrônicos podem desenvolver no trabalhador doenças, chamada de doenças do trabalho, que segundo o Ministério do Trabalho, é aquela adquirida ou desencadeada em função de condições especiais em que o trabalho é realizado e com ele se relacione diretamente. Acomete os profissionais em informática a diversas doenças ocupacionais, como Hidrargirismo (exposição ao mercúrio, oriundos de pilhas, monitores), Manganismos (exposição ao manganês, contato com pilhas secas) e Saturnismo, (exposição ao chumbo, nas baterias e monitores) entre outras intoxicações, como visto na figura 1.

Figura 1 – Elementos químicos presentes nos componentes eletrônicos e os riscos a saúde.

Fonte: Lixo eletrônico: uma responsabilidade de todos. 2010. Disponível em: http://coral.ufsm.br/nimbus/?p=1175.

Para muitos trabalhadores, a exposição às substâncias químicas contidas em produtos eletroeletrônicos, apresentadas na Figura 1, seja na produção ou descarte causam intoxicações, que segundo a NR, 9PROGRAMA DE PREVENÇÃO A RISCO AMBIENTAL - os agentes químicos as substâncias, penetrar no organismo pela via respiratória, nas formas de poeiras, fumos, névoas, neblinas, gases ou vapores, ou que, pela natureza da atividade de exposição, possam ter contato ou ser absorvidos pelo organismo através da pele ou por ingestão.

Dentre os riscos encontrados destaca-se 3 elementos químicos importantes, mercúrio, chumbo e manganês, a absorção no organismo pode desencadear patologias do trabalho, descrita em literatura como doenças ocupacionais. Por exposição ao chumbo - o Saturnismo, mercúrio, Hidrargirismo e, manganês Manganismo. Segundo dados do Anuário da Previdência Social, 2013, pode-se destacar na Classificação Nacional de Atividade Econômica - CNAE, que a Atividade dos Serviços de Tecnologia da Informação, código 62, apresentou um alto índice de envenenamento, lesões e problemas circulatório e digestivo, como visto na figura 2, ou seja, trabalhadores que tiveram de ser beneficiados por estarem afastados do trabalho por acidentes ou doenças durante o ano. Como principais fatores agravantes a saúde do trabalhador, o Brasil teve como beneficiário um total de 3995 casos para os 5 quantitativos mais elevados, 1 – Lesões por envenenamento e algumas outras consequências de causas externas, 2 – Doenças do sistema musculoesquelético – DORTs, 3- Doenças do sistema


4

digestivo, 4- Doenças do sistema circulatório e , 5- Neoplasias, desenvolvimento de tumores.

7%

Lesão e envenename nto

9%

20%

37%

27%

Dort

Aparelho digestivo

Aparelho circulatório FIGURA 2- Os 5 principais agravos que levaram trabalhadores a se afastarem da atividade de Serviços de Tecnologia da Informação, 2013.

Há uma gravidade conhecida no risco ergonômico, de acordo com a Norma regulamentadora 17Ergonomia, posturas inadequadas e repetitividade nos movimentos, podem causar o desenvolvimento das DORTs em 27% dos beneficiários em profissões do sistema de informação, porém são importantes os dados de envenenamento, em 37% e desenvolvimento de doenças de sistema que podem ser lesionado por estas intoxicações o que nos remete a preocupação com os riscos químicos descritos anteriormente, como digestivo, 20%, e circulatório, 7%. A partir dos dados encontrados, viabilizou a importância de um programa de gestão em saúde e segurança para os profissionais de serviços em informática como: 1Redução da exposição, quando possível substituição dos elementos químicos usados; 2- Informações quanto ao risco; 3- Destinar os aparelhos a profissionais habilitados e seus resíduos aos órgãos responsáveis pelo recolhimento; 4- Usar equipamento de proteção no momento da realização dos trabalhos nos aparelhos, como luvas, mascarás. 5-

Não se alimentar próximo aos aparelhos em manutenção, abertos. 6- Realizar exames periódicos para ter conhecimento se há presença da substância no organismo. O conhecimento do risco que o trabalhador de serviços de informação está exposto faz- se necessário à adoção de procedimentos seguros para redução da insalubridade nesta atividade e principalmente buscar medidas preventivas para que outros trabalhadores não sejam acometidos com as mesmas doenças. 4- CONSIDERAÇÕES FINAIS Além das leis existentes para Gestão do Meio Ambiente, o Brasil conta com a resolução do Conselho Nacional do Meio Ambiente (Conama, 1999), órgão ligado ao Ministério do Meio Ambiente, buscando soluções para o lixo e seu descarte incorreto, porém a NR- 15 – Atividades e operações insalubres, tratam do limite de tolerância para algumas substâncias químicas, entre elas às presentes nos produtos de informática. Sob a ótica dos dados apresentados em agravos a saúde humana, como profissionais da área de saúde e segurança no trabalho alertamos, empregados, empregadores e entidades educacionais quanto à importância transfusão do conhecimento sobre os ricos agregados pela profissão – químicos, ergonômicos, físicos e de acidentes – que estão presentes na atividade. Embasados pelas Normas Regulamentadoras do Ministério do Trabalho e Emprego, é possível traçar programas de gestão em saúde e segurança para estes profissionais, iniciando pela prevenção que poderá está presente na vida profissional, em seu princípio no período de formação destes profissionais. È de interesse comum à


5

adoção de linhas de pesquisas e espaço temáticos em eventos da área tratando de saúde laboral, um meio expansível de difusão informativa sobre prevenção e informação. A conscientização sob os riscos químicos deve ser não só no ambiente profissional, mas também ressaltar a maneira de descarte correto para minimização de doenças e ereções ao meio ambiente. REFERÊNCIAS ANUÁRIO ESTATÍSTICO DA PREVIDÊNCIA SOCIAL (AEPS). Disponível em: < http:// www .previ dencias ocial. gov.br/a eps 2005/14_01.asp>>.Acesso em 25 de jul de 2014. CONAMA – Conselho Nacional do Meio Ambiente. Resolução nº 257. Jun.1999.

Disponível em: < http://www.lei.adv.br/25799.htm>. Acesso em: 24 jul de 2014. NAHAS. M. V. Atividade física, saúde e qualidade de vida. Londrina: Midiograf, 2001. NR, Norma Regulamentadora Ministério do Trabalho e Emprego. NR - 17 - Ergonomia, 2013. NR, Norma Regulamentadora Ministério do Trabalho e Emprego. NR – 15- Atividades e Operações Insalubres, 2013. NR, Norma Regulamentadora Ministério do Trabalho e Emprego. NR-9 - Programa de Prevenção de Riscos Ambientais. 2009. REVISTA REDE BRASIL ATUAL, Descarte correto de lixo eletrônico ainda é problema para o Brasil, Alana Gandra, publicado 29/04/2012.Disponível em:<http://www.redebrasilatual.com.br/ambient e/2012/04/descarte-correto-de-lixo-eletronicoainda-e-problema-para-o-brasil. Acesso em: 25 de jul. 2014.


6


1 de 6

O USO DA COMPUTAÇÃO EM NUVEM EM AMBIENTE ACADÊMICO Daniel dos S. Saraiva1 Wellington S. Aguiar1, 2 Otávio Fernandes Frota1 Antônio Augusto Gonçalves2 danielsaraiva.ti@gmail.com

wellington@tecsist.com

otaviofernandesfrota@gmail.com

antonio.goncalves@estacio.br 1

Centro Universitário Estácio do Ceará, Fortaleza-CE Universidade Estácio de Sá – UNESA, Rio de Janeiro-RJ2 RESUMO - O presente artigo tem como objetivo pesquisar a

a educação, dando ao educador e ao educando a opção de

Computação em Nuvem, como também identificar quais de suas

centralizar e compartilhar todas as informações e notas de

ferramentas são utilizadas em ambiente acadêmico, analisando

aula, permitindo inclusive a edição colaborativa e o controle

as tecnologias atuais e também sua aplicação real e total nas escolas, inseridas na prática docente de seus professores, verificando

se

atingiram

as

especificações

de

uso

e

compartilhamento em cada situação. Com os resultados obtidos

de versões. A motivação para essa tecnologia tem sido o crescente mercado dos portáteis, que possibilitam a mobilidade dos

observou-se que o uso da Computação em Nuvem como uma

usuários e permitem que os mesmos continuem conectados

ferramenta na educação ainda é limitado a poucos professores e

sem interrupções. Quais

alunos. Palavras Chaves: Computação em Nuvem; Educação; Prática docente; Compartilhamento.

seriam

as

possibilidades

geradas

por

essa

tecnologia? Onde ela poderia ser inserida? Este estudo de caso foi realizado na Escola de Ensino

ABSTRACT - This article aims to search the Cloud Computing as well as identify which of its tools are used in an academic environment, analyzing the current technologies and also his real and full implementation in schools, inserted in the teaching practice oftheir teachers, verifying that reached specifications for use and

Estadual e Profissional Alfredo Nunes de Melo no estado do Ceará, com a participação de professores e alunos. Foi utilizado questionário, possibilitando uma visão estatística. Como também foi utilizada pesquisa bibliográfica, por meio

sharing in each situation. With the results it was observed that the

de livros, artigos, publicações do ramo, da análise de sites,

use of cloud computing as a tool in education is still limited to a few

materiais jornalísticos que apresentassem dados e descrições

teachers and students.

do tema.

Keywords: Cloud Computing, Education, Teaching Practice Sharing.

II. REFERENCIAL TEÓRICO Pesquisas sobre os termos Cloud Computing e Computação

I. INTRODUÇÃO

em Nuvem no sistema de busca Google obtiveram mais de 25

A crescente evolução em tecnologias para internet trouxe

milhões de resultados, isso mostra que o termo que surgiu em

várias inovações para o mercado da computação. Uma dessas

1997 em uma palestra ministrada pelo professor Ramnath

novidades é a capacidade do uso da internet como um

Chellappa teve uma expansão significativa. Esse crescimento

repositório público ou privado de arquivos.

trouxe diversas possibilidades para o mundo de TI [1].

A computação em nuvem é uma realidade disponível para

“Não é mais necessário para algumas empresas ter

empresas, público em geral e para educadores. As aplicações

supercomputadores, pois o poder de processamento e os

podem atingir as mais diversas áreas do conhecimento, mas

dados ficam nas nuvens. Só precisamos de dispositivos que

vislumbramos a sua utilização em escolas públicas do ensino

nos deem acesso a esses recursos. Dispositivos estes que

médio no interior do estado do Ceará, como forma de

consequentemente são mais baratos e possuem uma maior

aproximação

a

portabilidade e flexibilidade, como smartphones, tablets e

disseminação de conhecimentos através de arquivos, textos e

netbooks. Só precisamos agora de dispositivos de entrada e

aplicativos.

saída e acesso à internet” [1].

entre

docentes

e

seus

alunos

para

O presente trabalho tem como objetivo explorar e expor

A computação em nuvem é um modelo de computação em

formas de utilização da computação em nuvem voltadas para

larga escala que possibilita que o usuário tenha acesso a


2 de 6

recursos instalados em servidores contratados, que podem

aplicações e sistemas de maneira remota, simulando o

estar geograficamente distantes, desde que haja acesso aos

comportamento destes em nível de execução.

mesmos, bastando para isso ter um terminal conectado à

Tipos de nuvens

“nuvem”.

As nuvens podem ser classificadas em três tipos básicos:

“A computação em nuvem está criando uma mudança

públicas, privadas e híbridas. A escolha entre elas depende

fundamental na arquitetura de computador, software e

das necessidades das aplicações que serão implementadas.

desenvolvimento de ferramentas e, é claro, na maneira como

Abaixo, esses tipos de nuvem são mais bem descritos por [4]:

armazenamos, distribuímos e consumimos informações” [2]. Junto a ideia de computação em nuvem está o conceito de

As Nuvens públicas são aquelas que são executadas por terceiros.

As aplicações de

diversos usuários ficam

Software as a Service (SaaS), que significa Software como

misturadas nos sistemas de armazenamento, o que pode

um serviço. Podemos afirmar que nesta modalidade os

parecer ineficiente a princípio. Porém, se a implementação de

softwares são oferecidos como um serviço, desta maneira o

uma nuvem pública considera questões fundamentais, como

usuário paga apenas um valor por utilização do serviço, sem a

desempenho e segurança, a existência de outras aplicações

necessidade de licenças, ou mesmo a aquisição de novos

sendo executadas na mesma nuvem permanece transparente

computadores.

tanto para os prestadores de serviços como para os usuários.

Existem ainda outras formas de se trabalhar com Cloud Computing, conforme [3]:

Um dos benefícios das nuvens públicas é que elas podem ser muito maiores do que uma nuvem privada, por exemplo,

Platform as a Service (PaaS): Plataforma como Serviço.

já que elas permitem uma maior escalabilidade dos recursos.

Trata-se de um tipo de solução mais ampla para determinadas

Essa característica evita a compra de equipamentos adicionais

aplicações, incluindo todos (ou quase todos) os recursos

para resolver alguma necessidade temporária, deslocando os

necessários à operação, como armazenamento, banco de

riscos de infraestrutura para os prestadores de infraestrutura

dados, escalabilidade (aumento automático da capacidade de

da nuvem. Há ainda a possibilidade de destinar algumas

armazenamento ou processamento), suporte a linguagens de

porções da nuvem pública para o uso exclusivo de um único

programação, segurança e assim por diante;

usuário, criando o chamado Data Center privado virtual, que

Database as a Service (DaaS): Banco de Dados como Serviço. O nome já deixa claro que esta modalidade é direcionada ao fornecimento de serviços para armazenamento

provê a esse usuário uma maior visibilidade de toda a infraestrutura. As

Nuvens

Privadas

são

aquelas

construídas

e acesso de volumes de dados. A vantagem aqui é que o

exclusivamente para um único usuário (uma empresa, por

detentor da aplicação conta com maior flexibilidade para

exemplo). Diferentemente de um Data Center privado

expandir o banco de dados, compartilhar as informações com

virtual, a infraestrutura utilizada pertence ao usuário, e,

outros sistemas, facilitar o acesso remoto por usuários

portanto, ele possui total controle sobre como as aplicações

autorizados, entre outros;

são implementadas na nuvem. Uma nuvem privada é, em

Infrastructure as a Service (IaaS): Infraestrutura como

geral, construída sobre um Data Center privado.

Serviço. Parecido com o conceito de PaaS, mas aqui o foco é

Caso o usuário queria aumentar os recursos utilizados em

a estrutura de hardware ou de máquinas virtuais, com o

sua nuvem privada, ele deve adquirir novos equipamentos,

usuário tendo inclusive acesso a recursos do sistema

como sistemas de armazenamento, por exemplo, já que a sua

operacional;

nuvem está limitada à capacidade de seu sistema físico. Em

Testing as a Service (TaaS): Ensaio como Serviço. Oferece

uma nuvem pública, como já foi falado anteriormente, não há

um ambiente apropriado para que o usuário possa testar as

essa necessidade, uma vez que, como os recursos são facilmente escaláveis, basta o usuário reservar uma


3 de 6

quantidade maior deles. Devido a essas diferenças, diz-se que

discente desta escola, foi elaborada uma pesquisa com oito

as nuvens públicas são mais adequadas para aplicações

questões fechadas para ser respondidas pelos professores e

temporárias, enquanto que as nuvens privadas são um

alunos. Através das repostas coletadas foi possível à obtenção

ambiente mais apropriado a aplicações permanentes que

de índices estatísticos.

demandam níveis específicos de qualidade de serviço e de IV. LEVANTAMENTO DOS DADOS

localização dos dados. As Nuvens Híbridas combinam os modelos das nuvens públicas e privadas. Elas permitem que uma nuvem privada possa ter seus recursos ampliados a partir de uma reserva de recursos em uma nuvem pública. Essa característica possui a vantagem de manter os níveis de serviço mesmo que haja flutuações rápidas na necessidade dos recursos. A conexão entre as nuvens pública e privada pode ser usada até mesmo

A seguir são apresentados os resultados obtidos com a pesquisa que foi realizada entre os entrevistados. Como pode ser observado na Tabela 1, mostra a ferramenta da Google liderando a preferência dos usuários, no que diz respeito a armazenamento de dados. Tabela 1 – Ferramentas

Serviço de dados

Usuários

% Participação

em tarefas periódicas que são mais facilmente implementadas

Google Drive

13

43%

nas nuvens públicas, por exemplo. O termo “computação em

DropBox

9

30%

ondas” (em inglês, surge computing) é, em geral, utilizado

Skydrive

7

23%

Outros

1

4%

quando se refere às nuvens híbridas. É válido destacar que as nuvens híbridas introduzem a complexidade de determinar a maneira como as aplicações são distribuídas entre nuvens públicas e privadas. A relação entre os dados e os recursos de processamento, por exemplo, deve ser considerada. Se uma aplicação possui uma grande quantidade de dados, o seu processamento em uma nuvem pública pode não ser favorável, já que passar esses dados de sua nuvem privada para uma nuvem pública pode ser muito

Fonte: Pesquisa do autor.

Na Tabela 2, podemos ver softwares que fazem uso de SaaS. Os principais softwares citados foram o Prezi, Google Docs, Google Sites. Vemos uma aproximação de uso na opção de software mais utilizado, mas o campeão foi o criador de apresentações on-line Prezi. Tabela 2 – Softwares que trabalham com SaaS.

SaaS

Usuários

% Participação

Prezi

10

34%

Google Docs

9

30%

Google Sites

6

20%

O estudo de caso é uma “investigação empírica que

Nenhuma

4

13%

investiga um fenômeno contemporâneo em profundidade e

Outra

1

3%

em seu contexto de vida real... especificando quando os

Fonte: Pesquisa do autor.

custoso. III. METODOLOGIA

limites entre o fenômeno e o contexto não são claramente

A Tabela 3 contém as principais dificuldades em relação ao uso de ferramentas na nuvem. A maior dificultada

evidentes” [5]. pesquisa

apresentada pelos entrevistados está relacionada ao processo

bibliográfica para criar um referencial teórico consistente. A

de sincronia de dados, os usuários afirmam que alguns

abordagem é quantitativa e o estudo de caso foi realizado na

serviços não informam sequer o percentual do progresso de

Escola de Ensino Estadual Profissional Alfredo Nunes de

sincronização.

Melo, no município de Acopiara no estado do Ceará, através

Tabela 3 – Quais as principais dificuldades em relação ao

da entrevista de 20 professores e 10 alunos, de várias

uso de ferramentas na nuvem?

Este

trabalho

utilizou

como

método

a

disciplinas e cursos. Para mostrar o cenário atual do uso de ferramentas da computação em nuvem na prática docente e


4 de 6

01 Resposta por Participante

Item

% Participação

Lentidão ao sincronizar os dados

15

50%

Acesso à Internet

5

16%

Interface gráfica

5

16%

Segurança

5

16.2%

Fonte: Pesquisa do autor.

Na análise da Tabela 4, observou-se que na maioria dos entrevistados, 66%, o interesse estava voltado em ter todos os arquivos em um só ambiente. Em seguida, com 17%, temos a portabilidade e facilidade de compartilhar recursos, no caso da segunda, foi apontado o uso de ferramentas compatíveis com redes sociais. Tabela 4 – Qual a vantagem no uso de ferramentas de computação em nuvem? 1 Resposta por Participante

Item

Tabela 6 – Estudantes respondem qual a importância do uso da nuvem como ferramenta didática? Respostas por Participantes

Item Os professores colocam as aulas na internet, isso facilita para estudar Não precisam de pendrive para copiar os conteúdos

% Participação

7

70%

3

30%

Fonte: Pesquisa do autor.

A Tabela 7 pergunta aos entrevistados o que limita o uso de computação em nuvem, o que chama a atenção é que 43% reclamam da qualidade de conexão que eles utilizam. 33% dos entrevistados apontam as baixas cotas gratuitas como fator limitante do uso de computação em nuvem. Outro grupo de entrevistados (7%) afirma que o bloqueio de alguns serviços limita o uso na rede da escola.

% Participação

Centralização dos arquivos

20

66%

Portabilidade

5

17%

Facilidade de compartilhar arquivos.

5

17%

Fonte: Pesquisa do autor.

Na Tabela 5, observamos que os fatores mais relevantes para o uso de computação em nuvem por docentes (33%) estão na facilidade de difusão do material de aula, e o mesmo percentual afirma que o uso da nuvem com SaaS possibilita a

Tabela 7 – Qual a limitação do uso de computação em nuvem? 1 Resposta por Participante

Item

% Participação

Qualidade ruim da internet

13

43%

Limites de cota gratuita pelas ferramentas é baixo

10

33%

7

24%

Bloqueio do Google drive na rede da escola.

Fonte: Pesquisa do autor.

V. CONCLUSÕES

confecção de material didático em qualquer tipo de computador e sistema operacional, enquanto 26% dos

Por meio desse estudo é possível verificar a contribuição

professores respondem que o uso da internet aumenta o

que a computação em nuvem vem dando na área acadêmica.

interesse dos estudantes em suas aulas.

Por ser uma forma nova de trabalhar ela ainda não está

Tabela 5 – Professores respondem qual a importância do

completamente madura e seu uso, em alguns casos, se reduz

uso da nuvem como ferramenta didática?

ao armazenamento de arquivos na internet, utilizando para

Item Facilita o trabalho de repassar o material aos estudantes Possibilita a criação e edição de arquivos em vários dispositivos e plataformas

1 Resposta por Participante

isso serviços de grandes empresas. % Participação

Desde o ano de 2007 a ideia de utilizar a internet para

8

40%

8

40%

diversos fins começou a ser cogitada, e essa ideia se

Aumenta o interesse do estudante

3

15%

transformaria em uma forma de geração e compartilhamento

Não souberam responder

1

5%

em tempo real de arquivos com o poder de substituir os

Fonte: Pesquisa do autor.

Na análise da Tabela 6, mostra que 70% dos estudantes usa a nuvem como fonte de pesquisa dos conteúdos disponibilizados pelos professores e num percentual de 30% usa a nuvem como forma de armazenamento.

fornecer serviços aos mais diversos tipos de usuários para os

aplicativos de escritório, dando uma visão inovadora ao uso da internet. Empresas como o Google, Microsoft, Intel e IBM foram às pioneiras neste setor de TI. A computação em nuvem trouxe diversas possibilidades para a informática, desde a disponibilização de serviços de armazenamento

até

a

virtualização

de

sistemas

computacionais inteiros, barateando os custos com TI nas


5 de 6

empresas se comparado ao modelo implantado atualmente. Começou-se então a dar funções mais variadas a sua utilização. O assunto abordado ainda é recente nas escolas do Estado do Ceará. Os docentes e discentes destas instituições estão se adequando às novas tecnologias. É fácil perceber que a comunidade acadêmica tem a computação em nuvem como uma fonte rica de recursos Esta pesquisa se propõe a abrir a discussão sobre uso correto das TICs, em suas mais variadas formas, ambientes e usuários. É necessário que outros estudos sejam realizados, como por exemplo: aplicar esse questionário a outros grupos acadêmicos, por exemplo, ensino superior e pós-graduação. Seria conveniente aumentar o grupo pesquisado. REFERÊNCIAS [1] NUNES, Mayza. História da Computação nas Nuvens.

Disponível em: http://www.dsc.ufcg.edu.br/~pet/jornal/agosto2012/mate rias/historia_da_computacao.html. Acesso em: 11/10/2013. [2] WALKER, Grace. Cloud computing fundamentals, 2011. Disponível em: http://www.ibm.com/developerworks/cloud/library/clcloudintro/index.html. Acesso em: 10/10/2013. [3] ALECRIM, Emerson. O que é cloud computing (computação nas nuvens)? Disponível em: http://www.infowester.com/cloudcomputing.php. Acesso em: 07/10/2013. [4] CHIRIGAT, Fernando Seabra. Computação em Nuvem. Disponível em: http://www.gta.ufrj.br/ensino/eel879/trabalhos_vf_2009_ 2/seabra/arquitetura.html. Acesso em 20/11/2013. [5] YIN, Robert K. Estudo de caso: Planejamento e

métodos. 4ª ed. Porto Alegre: Ed. Bookman, 2010.


6 de 6


Redes sociais digitais na educação a distância João José Saraiva da Fonseca, Anaisa Alves de Moura, Sonia Maria Henrique Pereira da Fonseca Instituto Superior de Teologia Aplicada – INTA Sobral – CE, Brasil joaojosefonseca@inta.edu.br, anaisa@inta.edu.br, soniafonseca@inta.edu.br

RESUMO O advento da internet oportunizou o aparecimento das redes sociais de sites e com elas, novas alternativas surgiram para oportunizar o seu uso na educação. Este artigo, procura além de conceituar, traçar um breve resgate do percurso histórico do surgimento das redes sociais digitais, bem como discutir resgates de sua contribuição na educação em geral e na educação a distância em particular. Utilizaram-se referenciais diversificados entre os quais se destacam (RECUERO, 2012), (EFIMOVA, 2005), (BOYD e HERR, 2006) e (BOYD, 2006) entre outros. Do artigo é possível concluir pela relevância da utilização das redes sociais digitais na promoção da qualidade na educação. Palavras Chave – Tecnologias, Redes Sociais, Ensino e Aprendizagem

ABSTRACT The advent of the internet provided an opportunity the emergence of social networking sites and with them, new alternatives have emerged to provide the opportunity for its use in education. This article seeks to conceptualize addition, trace a brief review of the historical background of the emergence of digital social networks as well as discuss redemptions of his contribution to education in general and distance education in particular. We used references diversified among which stand out (RECUERO, 2009), (RECUERO, 2012), (EFIMOVA, 2005), (BOYD and HERR, 2006) and (BOYD, 2006) among others. Article is possible to conclude the relevance of using online social networks to promote quality in education. Key words - Technology, Social Networks, Teaching and Learning

1.Introdução

O estabelecimento de redes sociais é intrínseco à existência humana. As ferramentas tecnológicas que oportunizaram a criação do ciberespaço oportunizaram as condições para o aparecimento de redes sociais digitais e comunidades virtuais com elevado impacto social e potencialidades exponenciais no âmbito da educação. O presente trabalho procura além de conceituar, traçar brevemente resgatar o percurso histórico do surgimento das redes sociais digitais, bem como resgatar a sua contribuição na educação em geral e na educação a distância em particular. No sentido de reforçar a contribuição das redes sociais para a educação a distância, o artigo especifica no seu final as potencialidades das redes sociais.

2. O conceito de redes sociais O conceito de rede social pode ser associado a um grupo de pessoas, organizações ou outras entidades sociais, conectadas por relações de diversa natureza, tais como: afetividade, colaboração, partilha, na prossecução de objetivos estabelecidos pelos seus membros. As redes sociais surgem vinculadas a estruturas formais ou informais, não lineares, dinâmicas, compostas de um conjunto de nós representados por indivíduos ou grupos de indivíduos, que detêm as informações e estabelecem as conexões entre elas. (DEGENNE, FORSÉ, 1999), (SCOTT, 2000) (WASSERMAN, FAUST, 1994)). As redes sociais no estabelecimento de novos contatos asseguram aos seus participantes oportunidades para encontrar o apoio social, permitindo a troca de informação e conhecimento e criando riqueza.

3. O conceito de redes sociais digitais


As redes sociais sempre existiram na sociedade, motivadas pela necessidade dos sujeitos em partilhar com outros, referências de pertença; informação e conhecimento (RECUERO, 2012). O advento da Internet possibilitou o desenvolvimento das redes sociais digitais e potencializar novas formas de relação, comunicação e organização. Enquanto fenômeno de promoção da participação e da colaboração entre as pessoas, as redes sociais digitais, surgem como uma forma de agrupamento humano, ocasionado pela necessidade de compartilhar informações com interesses comuns. No ciberespaço as redes sociais se transformaram em redes sociais digitais e se complexificaram se apresentando enquanto canais de elevado fluxo de informação e de estabelecimento de vínculos, valores e discursos. (EFIMOVA, 2005) (BOYD e HERR, 2006) (BOYD, 2006). Neste contexto é possível conceber a rede digital como uma forma de comunicação mediada por computador com acesso à internet, “que permite a criação, compartilhamento, comentário, avaliação, classificação, recomendação e disseminação de conteúdos digitais de relevância social de forma descentralizada, colaborativa e autônoma tecnologicamente. Tem como principal característica a participação ativa (síncrona e/ou assíncrona) da comunidade de usuários na integração de informações, visando à formação de uma esfera pública interconectada”. (WASSERMAN e FAUST, 1994). . As redes sociais digitais enquanto ferramentas da web 2.0 comportam um espaço comum de encontro de interesses, necessidades e metas semelhantes, para a colaboração, a partilha de conhecimento, a interação e a comunicação entre os participantes, permitindo a formação de de espaços abertos ou não para discussões, debates e apresentação de temas variados, bem como o compartilhamento de dados e informações em diversos formatos (textos, arquivos, imagens, fotos, vídeos, etc.) . (PETTANATI et al., 2006).

4. O acesso às redes sociais O número de conectados à Internet se expande no mundo e no Brasil e a participação em redes sociais tem se tornado uma rotina na vida dos internautas. Conforme pesquisa do IBOPE os brasileiros passaram em 2010 mais de 60 horas por mês navegando na Internet, especialmente nas redes sociais. O Brasil está entre os países com o maior número de pessoas conectadas às redes sociais (IBOPE apud CIRIBELI e PAIVA, 2011).

5. A estrutura das redes sociais As redes sociais têm elementos em comum, tais como: a interação, o laço social e o capital social. O estudo das redes sociais, envolve, obrigatoriamente, a análise dos laços sociais construídos entre os membros da rede, as interações que constituem esses laços e o capital social resultado do mesmo. A conexão apresentada entre um par de membros em uma rede social é apelidado de laço social, (WASSERMAN e FAUST, 1994). Um laço social é formado por relações sociais, que por sua vez, são compostas por interações sociais. A interação social surge enquanto geradora da estrutura da rede social, pois possibilita que o laço social tenha a oportunidade de surgir. A interação social necessita de um território em que possa acontecer a formação de um grupo envolvendo os membros. O laço social precisa que as interações aconteçam durante um certo tempo, para que possam transparecer a reciprocidade, a intimidade e a confiança. O capital social não se encontra nos indivíduos, mas sim surge embutido nas relações sociais dos membros da rede, agregando potencial à associação dos mesmos. Gyarmati e Kyte (2004) afirmam que ocapital social em uma rede constitui-se no potencial do valor do conteúdo das relações sociais que a integram. Gyarmati e Kyte (2004) explicam que o capital social constitui-se no conteúdo das relações sociais em uma rede. A exemplo das redes sociais, as redes sociais digitais e a comunidades virtuais, tem como elementos em comum interação, o laço e o capital social. Elas constituem-se em um agrupamento de atores, baseado em interação social, que possui uma estrutura de laços sociais com capital social embebido nela. Para Recuero (2012) nas relações sociais face a face, a interação fica restrita aos participantes da conversa. Nas redes sociais digitais o ambiente mediado, diminui a possibilidade de controle (RECUERO, 2012). Para além dos membros que contribuírem com a conversa é possível encontrar um número desconhecido de espectadores. Como a conversa permanece registrada, outros membros podem retomar a conversa, o que dificulta delimitar o que está sendo dito e em que circunstância. (RECUERO, 2012). Os membros das redes sociais digitais/comunidades virtuais evoluem ao longo do tempo. Em consequência, quando analisadas no


tempo, as propriedades e atributos das redes sociais digitais/comunidades virtuais mudam, conduzindo a uma necessária reconfiguração da estrutura da rede. Nesse processo o capital social pode ao longo do tempo ser acumulado e aprofundando. A horizontalidade desfaz a concentração do poder comunicacional, potenciando as relações de todos para todos, reafirmando a importância de cada membro/nó, os reunindo de forma democrática e participativa em torno de interesses comuns.

6. Redes sociais digitais e comunidades virtuais Nas comunidades virtuais a comunicação interpessoal não acontece por intermédio de relações cara a cara, se apresentando mediada por relações no âmbito das comunidades virtuais surgidas nas redes sociais. As redes sociais digitais configuram-se com potencial para possibilitarem a construção de comunidades virtuais de aprendizagem (GUITERREZ, 2013). As comunidades virtuais são agregados sociais que surgem quando um grupo de pessoas que se relaciona no ciberespaço estabelece redes de relações sociais, envolvendo interesses compartilhados, sentimento de comunidade e regularidade nas relações (GUITERREZ, 2013). Uma comunidade virtual envolve o sentimento de pertença de um grupo de indivíduos, que têm a oportunidade de partilhar interesses comuns, num ambiente suportado pela Internet e que oportuniza as condições para potenciar a comunicação e partilha de informação, se podendo constituir como um núcleo de aprendizagem e inovação. As características principais que distinguem uma comunidade virtual envolvem a necessidade de apresentar um foco que reúna os seus membros. Em torno desse foco é gerado o conteúdo partilhado e discutido pelos participantes. A comunidade virtual implica também na existência de oportunidades para os seus membros poderem contactar os outros membros para esclarecimento de dúvidas e ou discussão dos conteúdos gerados pelos membros. Castells afirma que a comunidade virtual é “uma rede eletrônica de comunicação interativa auto definida, organizada em torno de um interesse ou finalidade compartilhados, embora algumas vezes a própria comunicação se transforme no objetivo”. (CASTELLS, 1999, p.385).

As características principais que distinguem uma comunidade virtual envolvem a necessidade de apresentar um foco que reúna os seus membros. Em torno desse foco é gerado o conteúdo partilhado e discutido pelos participantes. A comunidade virtual implica também na existência de oportunidades para os seus membros poderem contactar os outros membros para esclarecimento de dúvidas e ou discussão dos conteúdos gerados pelos membros. A participação passiva poderá causar a degradação na rede social, pois diminuirá o seu valor para os membros. Ligada a este pormenor está associada à legitimidade e credibilidade da informação partilhada.

7. Softwares sociais A rede social se apropria dos softwares sociais. Eles funcionam como mediadores sociais, favorecendo a criação de redes de relacionamentos enquanto espaços onde os seus membros podem juntar outros usuários ao seu círculo de relacionamentos, conhecer outros que partilhem os mesmos interesses e discutir variados assuntos. (RECUERO, 2009). Os softwares sociais não podem ser confundidos com a própria rede ou comunidade virtual.

8. Mídia digital e Rede social Se o software social é utilizado somente para divulgar conteúdo, essa ferramenta tecnológica será uma mídia social. Se a interação ocorre se transforma em uma rede social. As redes sociais permitem que as pessoas se relacionem de diversas maneiras, porém somente por intermédio das mídias sociais elas têm a possibilidade de veicularem informações de rapidamente e diretamente, de todos para todos, através de textos, de imagens, de sons e vídeos.

9. As redes sociais digitais na educação As redes sociais digitais apresentam crescentes potencialidades para que além de um simples canal de comunicação, possam oportunizar as condições para no âmbito da educação se desenvolvam espaços coletivos e individuais de aprendizagem participativa, interativa e flexível (ALLEGRETTI et al, 2012). As redes sociais surgem naturalmente entre os integrantes de uma comunidade acadêmica. Considerando os referenciais de comunidade


acadêmica de Rachels, 2013 as redes sociais digitais apresentam potencial para um trabalho envolvendo as relações: (1) entre os estudantes, (2) com a dinâmica e organização acadêmica e (3) com a realidade alargada considerando o social e o econômico. Considerando as relações no âmbito da dinâmica e organização escolar, se identificam potencialidades da contribuição das redes sociais digitais nas relações entre: aluno e professor; aluno e aluno; professor e professor e instituição de ensino e comunidade exterior à instituição de ensino.

9.1. Quanto à contribuição das redes sociais digitais para as relações entre aluno e professor, a sua utilização pode ser: - integrada ao processo de ensino aprendizagem enquanto espaço para esclarecimento, público ou privado, síncrono ou assíncrono de dúvidas; debates; informação acadêmica, administrativa ou pedagógica; motivação; retorno de pormenores referentes ao processo de ensino e aprendizagem; distribuição de documentação. - complementar ao processo de ensino e aprendizagem para trabalho no âmbito do tempo de estudo previsto no calendário acadêmico ou em tempo extra em relação a esse período de tempo, envolvendo: proposta de atividades, participação em discussões, disponibilização de informação. - suplementar ao processo de ensino e aprendizagem para trabalho no âmbito do tempo de estudo previsto no calendário acadêmico ou em tempo extra em relação a esse período de tempo, envolvendo: disponibilização de informação. - integrada ao processo de mediação pedagógica entre o professor e o aluno no âmbito da sala de aula oportunizando condições para debate ou para esclarecimento de dúvidas horizontalizando o processo de comunicação ou extra o período escolar envolvendo mediação de âmbito pedagógico, acadêmico ou pessoal, quebrando a verticalidade das relações pessoais no âmbito escolar.

9.2. Quanto à contribuição das redes sociais digitais para as relações entre aluno e aluno, a sua utilização pode ser: - integrada ao processo de ensino aprendizagem enquanto forma de partilha de informação e conhecimentos e esclarecimento coletivo de dúvidas. - exterior ao processo de ensino aprendizagem enquanto forma de interação entre os alunos para

troca de informação ou interação a propósito da disciplina ou de âmbito social promovendo o conhecimento reciproco fora do espaço físico e temporal da instituição acadêmica. - facilitador da aproximação do professor ao aluno de modo a que este faça parte do seu cotidiano, para além da sala de aula.

9.3. A contribuição das redes sociais para as relações entre professor e professor, pode envolver: - o processo de ensino e aprendizagem enquanto espaço de socialização, troca de informação, recursos e de experiências - os momentos extra-classe se constituindo momentos de convívio e partilha de recursos e informação.

No âmbito das relações da instituição de ensino com a comunidade extra acadêmica, as redes sociais digitais podem contribuir para: - promover a formação da população em geral, estendendo a preocupação de formação da instituição para a comunidade - partilhar informação acadêmica fomentando a participação da comunidade nas ações desenvolvidas. As interações virtuais, para a sua realização e manutenção com sucesso, levantam desafios aos docentes e estudantes, em resultado da ausência de um contexto físico comum. As relações nas redes sociais estabelecem novos espaços de interação, no qual as relações são muito diversas das que ocorrem em espaços físicos convencionais. Estas possibilidades deverão ser consideradas em paralelo com a carga horária de trabalho do aluno, carga horária de estudo do aluno. A conversação, síncrona ou assíncrona, é a principal atividade nas redes sociais. Esta conversação acontece no âmbito de um espaço que apesar de predominantemente público, apresentam algumas restrições de visualização. (RECUERO, 2012)

10. Redes sociais na educação a distância O processo de ensino e aprendizagem na educação a distância pode ter benefícios com a utilização das redes sociais. Algumas ficam implícitas no que já foi afirmando anteriormente, outras surgem agregadas à especificidade do trabalho


com softwares de mensagens instantâneas. É esse relato que se apresenta.

As mensagens instantâneas possibilitam transcender os desafios geográficos. Extensão temporal

10.1. Mensagens instantâneas em ambientes educacionais a distância A popularidade da utilização das mensagens instantâneas é tão elevada que a sua utilização no ambiente de ensino e aprendizagem deve ser ponderada. O uso de mensagens instantâneas na educação reforça a possibilidade de alcançar um conjunto de mais valias consideradas interessantes atendendo ao objetivo de incrementar a qualidade no processo de ensino e aprendizagem.

A troca de mensagens instantâneas possibilita alargar a disponibilidade temporal do emissor e receptor. Auto-confiança A troca de mensagens instantâneas potencializa a igualdade de participação de todos os intervenientes no processo de comunicação Informação Científica

Algumas das vantagens são descritas a seguir:

A troca de mensagens instantâneas possibilita veicular informação em formato de texto, imagem, áudio e vídeo

Imediaticidade no envio

Gratuidade

O tempo que medeia entre o envio e a recepção da mensagem é praticamente nulo.

Os serviços para mensagens instantâneas estão disponíveis gratuitamente.

Imediaticidade na recepção

Espaço social

Os utilizadores verificam frequentemente a recepção de mensagens instantâneas em seus celulares

A troca de mensagens instantâneas potencializa a familiaridade entre todos os intervenientes do processo de comunicação

Apelatividade

Espaço pessoal

O conteúdo das mensagens instantâneas captura a atenção dos utilizadores.

O registro das mensagens instantâneas trocadas constitui um repositório permanentemente disponível

Ubiquidade Os dispositivos móveis estão quase sempre ligados e quando alguém que não está conectado recebe uma mensagem instantânea, essa pessoa é frequentemente avisada para se conetar e desse modo receber a mensagem. Disponibilidade

Oportunidade de expressão O uso de mensagens instantâneas oportuniza a expressão livre em um ambiente acadêmico não-formal e não restrito. Estímulo à partilha colaborativa

Os dispositivos móveis são na maioria dos casos da propriedade do seu utilizador.

Os sistemas de troca de mensagens instantâneas possibilitam o compartilhamento de arquivos

Informação administrativa ou acadêmica

Estímulo ao debate

As mensagens instantâneas permitem o envio de informação de natureza administrativa ou acadêmica.

Os sistemas de troca de mensagens instantâneas possibilitam um espaço construtivo para o debate de ideias e a troca de opiniões

Estímulo à gestão do tempo com autonomia

Inclusão digital

As mensagens instantâneas lembrando o calendário e os horários estimulam a gestão autônoma do tempo

A troca de mensagens instantâneas é acessível a utilizadores que podem não ter acesso a computadores ou a rede de Internet.

Diluição da abrangênciageográfica


Estímulo à qualidade O fato de saber que as postagens são partilhadas pelos diferentes intervenientes no processo de ensino e aprendizagem estimula o cuidado na elaboração das mesmas. Continuidade entre diversos espaços de interação As interações presenciais, síncronas e assíncronas ganham continuidade natural.

Vantagens

Motivos

Tempo de emissão e recepção

Imediaticidade na veiculação Transversalidade nas discussões

Mensagem difundida

Apelativa Abrangente geograficamente Gratuita Recebida

Dispositivo tecnológico

Próprio do utilizador Favorece a inclusão digital

Informação veiculada

Acadêmica e administrativa Científica Espaço social de aprendizagem Espaço social de interação Espaço social de conhecimento

Competências promovidas

Gestão do tempo Autoconfiança Expressão Partilha Debate Qualificação

Tabela 1: Benefícios da utilização das mensagens instantâneas no processo de ensino e aprendizagem a distância Atendendo aos benefícios apontados, os projetos de educação a distância podem desenvolver estratégias de uso do sistema de troca de mensagens instantâneas Whatsapp para incrementar a qualidade do processo de ensino e aprendizagem.

11. Conclusão

A utilização das redes sociais na educação em geral e na educação a distância, constitui uma estratégia que incrementar a qualidade do processo de ensino e aprendizagem. O conceito de rede social aparece ligado a um grupo de sujeitos, organizações ou outras entidades sociais, interligadas por relações de natureza diversa, na tentativa de atingir os objetivos definidos por seus integrantes. O advento da Internet possibilitou o aparecimento de redes sociais digitais, enquanto instrumento de promoção da participação e da colaboração ocasionado pela


necessidade de compartilhar informações com interesses comuns entre os seus participantes. O estudo das redes sociais envolve, obrigatoriamente, a avaliação dos laços sociais estabelecidos entre os membros da rede, as interações intrínsecas a esses laços e o capital social resultado do mesmo. As redes sociais digitais apresentam potencial para subsidiarem a construção de comunidades virtuais de aprendizagem. A utilização dos softwares sociais favorece o desenvolvimento de espaços onde os seus membros partilham os mesmos interesses e discutem variados assuntos. A utilização das redes sociais na educação envolve potencialidades nas relações entre: aluno e professor; aluno e aluno; professor e professor e instituição de ensino e comunidade exterior à instituição de ensino, bem como o conhecimento da sua estrutura e o domínio de ferramentas e práticas. Na educação a distância o processo de ensino e aprendizagem pode ser beneficiado com o recurso às redes sociais. Nesse âmbito o uso de mensagens instantâneas e especificamente do Whatsapp, pode possibilitar alcançar as mais valias consideradas interessantes atendendo ao objetivo de incrementar a qualidade no processo de ensino e aprendizagem. A utilização das redes sociais na educação em geral e na educação a distância, constitui uma estratégia que possibilita melhorar a qualidade do processo de ensino e aprendizagem. A utilização dos softwares sociais implica no domínio de algumas ferramentas e práticas que procuramos apresentar neste trabalho.

12. Referências ALLEGRETTI, Sonia Maria Macedo; HESSEL, Ana Maria Digrado; HARDAGH, Claúdia Coelho; SILVA, José Erigleidso. Aprendizagem nas Redes Sociais BOYD, D. (2006) Friends, Friendster and Top 8: Writing Community into Being on Social Network Sites. In First Monday, volume 11, number 12 (December, 2006). http://www.firstmonday.org/issues/issue11_12/boyd/ Retrieved on January, 2007. BOYD, D. & HERR, J. (2006) Profiles as Conversation: Network Identity Performance on Friendster. In Proceedings of the Hawai’i International Conference on System Sciences (HICSS-39), Persistent Conversation Track. Kauai, HI: IEEE Computer Society. January 4-7, 2006. CIRIBELLI, J. P.; Paiva, V. H. P. Redes e mídias sociais na internet: realidades e perspectivas de um

mundo conectado. Revista Horizonte, v. 13, jan/jun 2011.

Mediação,

Belo

DEGENNE, A.; e FORSÉ, M. (1999) Introducing social networks. London: Sage, 1999. EFIMOVA, L. (2005) What is "beneath your current Threshold"? Social Visibility in Persistent Conversations”. In Persistent Conversations Workshop, HICSS TUTORIAL DAY, January, 2005. GUITERREZ-COLON Plana, M., GIMENO, A., APPEL, C., HOPKINS, J., Gibert, I., & TRIANA, I. (2013, July). Improvinglearners’ readingskillsthroughinstant short messages: A sample study using WhatsApp. Proceeding softheWorldCALL 2013 Conference, Glasgow, July 10-12, 2013. GYARMATI, D. e KYTE, D. (2004) Social Capital, Network Formation and the Community Employment Innovation Project. In: Policy Research Iniciative, Volume 6, Number 3. Disponível em<http://policyresearch.gc.ca/page.asp?pagenm=v6 n3_art_05>. Acesso em 04/05/2014. PETTENATI, Maria Chiara & RANIERI, Maria; (2006). Informal learningtheoriesand tools tosupportknowledge management in distributedCoPs. IN Innovative Approaches for Learning andKnowledgeSharing, EC-TEL. Workshop Proceeding. RACHELS, James. Vivendo Esse Mundo Digital : Impactos na Saúde, na Educação e nos Comportamentos. Editora Mcgraw Hill. 2013. RECUERO, R. (2009) O Capital Social em Redes Sociais na Internet. Revista FAMECOS, Porto Alegre, v. 28, n. dez 2009, p. 1-15, 2009. RECUERO, Raquel. A Conversação em Rede: Comunicação Mediada pelo Computador e Redes Sociais na Internet. Porto Alegre: Sulina, 2012. SCOTT, John. Social Network Analysis. A Handbook. London UK: Sage Publications, 2000. Second Edition. Virtuais: O Potencial da Conectividade em dois Cenários; REVISTA CET, vol. 01, nº 02, p. 53-60, abril, 2012. WASSERMAN, S. e FAUST, K. Social network analysis. Methods and applications. Cambridge, UK: Cambridge University Press, 1994.


Software Educacional Aplicativo para Composição Real e Virtual de Cores R. I. S. Pereira1, S. C. S. Jucá2, A. C. Queiroz Neto3 Universidade Federal do Ceará (UFC) – Campus do Pici - Departamento de Engenharia Elétrica 2 Instituto Federal do Ceará (IFCE) – Campus Maracanaú, Área de Telemática 3 Instituto de Tecnologia, Inovação e Cultura Digital (ITIC) 1 renata@dee.ufc.br, 2sandrojuca@ifce.edu.br, 3cavalcante.alusio@gmail.com

1

 Resumo — Um software pode ser considerado educacional quando adequadamente contextualizado em uma relação de ensino-aprendizagem. Esse trabalho descreve softwares educacionais desenvolvidos e aplicados em experimentos didáticos para composição real e virtual de cores. O software educacional desenvolvido na plataforma Android permite a interação dos estudantes por comandos de voz, o que torna o processo de assimilação dos conceitos de formação de cores RGB mais didático e lúdico. A aplicação de softwares educacionais em experimentos permite também a verificação, em tempo real, da influência da alteração de programas nos fenômenos físicos o que estimula o desenvolvimento do raciocínio lógico e, consequentemente, da autonomia dos alunos, à medida que podem levantar hipóteses, fazer interferências na programação e tirar conclusões a partir dos resultados obtidos na prática. Palavras-chave — Android, Bluetooth.

Software

educacional,

Cores

RGB,

Abstract — Software can be considered educational when properly contextualized in a relationship of teaching and learning. This paper describes educational software developed and applied in experiments to real and virtual colors composition. Educational software developed on the Android platform allows for student interaction by voice commands, which makes the assimilation process of RGB color formation concepts more didactic and playful. The application of educational software in experiments also allows verify, in real time, the influence of programs change on the physical phenomena and stimulates the logical reasoning development and consequently the autonomy of the students, to the measure that can raise hypotheses, make interferences in the programming and take off conclusions from the gotten practical results. Keywords — Educational software, RGB colors, Android, Bluetooth.

I. INTRODUÇÃO Na interpretação dos fenômenos da interação da luz com a matéria e percepção da cor pelo olho humano, é possível considerar três diferenças. A cor percebida pela refração de luz de um objeto, como uma camisa amarela que refrata um feixe de luz com comprimento específico; a cor percebida como um determinado comprimento de onda eletromagnética emitida, como o feixe amarelo, com comprimento de onda de

aproximadamente 580 nm; e a cor percebida pela interação entre olho-cérebro [1], ou seja, um objeto que emite luz nas faixas em torno de verde (comprimento de onda em torno de 520nm) e em torno de vermelho (comprimento de onda de 700 nm) pode ser interpretado como amarelo pela sensação olhocérebro. É importante salientar que a cor cinza, entre outras, não são cores espectrais, ou seja, não têm comprimentos de onda específicos, pois decorrem de emissões múltiplas de outras cores espectrais como vermelho, verde e azul. O olho humano é capaz de processar todo o espectro de luz contínuo, desde 400 até 700 nm, aproximadamente. Neste sentido, Newton provou que a luz branca ao transpassar um prisma de cristal se divide em vários feixes coloridos e determinou sete destes como espectro luminoso visível, porém somente as cores vermelha, azul e verde são as três cores espectrais primárias que a interação olho-cérebro fisiologicamente capta. Todas as outras cores são formadas pelo cérebro pela média obtida da proporção dessas três cores [2]. Dessa forma, para que o olho humano perceba a luz branca, basta que o olho receba toda a faixa de luz visível, como a luz do sol, ou simplesmente receba as três cores espectrais primárias na mesma proporção. Este é o princípio utilizado pelos monitores de computadores RGB (do inglês red, green e blue). Este princípio é utilizado também em outros dispositivos eletrônicos como monitores de TV, projetores como data shows, scanners e câmeras digitais, assim como na fotografia tradicional. No experimento de formação de cores RGB, cada cor é definida pela proporção de vermelho, verde e azul que a compõe, ilustradas na Fig. 1. Por conveniência, a maioria dos sistemas digitais atuais, como o software educacional proposto, utilizam números inteiros entre 0 e 255 para especificar essas quantidades. O número 0 indica ausência de intensidade e o número 255 indica intensidade máxima de cada cor. A Fig. 1 ilustra as três cores primárias de emissão e as respectivas cores secundárias amarela, magenta e ciano, obtidas pelas combinações por pares e em igual proporção das cores primárias e a cor branca obtida pela associação das três cores primárias.


trabalho podem ser utilizados tanto com finalidade tecnológica quanto como finalidade educativa. Neste contexto, o experimento pode ser um meio eficiente de aplicação de interdisciplinaridade e da teoria piagetiana. O estudante é levado a pensar na essência do problema, assimilando-o para, posteriormente, acomodá-lo em sua perspectiva de conhecimento. O professor também deixa de ser o único e exclusivo provedor de informações para tornar-se parceiro no processo de aprendizagem. III. DESCRIÇÃO DO SOFTWARE EDUCACIONAL LIVRE SANUSB

Fig. 1. Processo de formação das cores primárias por emissão [2].

Por outro lado, atualmente é comum o desenvolvimento de experimentos didáticos em baixo custo e utilizando sistemas embarcados ou microcontrolados no processo de ensinoaprendizagem [3]. Neste sentido, o experimento de física desenvolvido visa comprovar a composição de cores obtidas de forma virtual, pela emissão de cores através da tela de um dispositivo Android, e ao mesmo tempo, a formação de cores de forma real através de modulação de tensão aplicada em um LED RGB, através das proporções de cores fundamentais enviadas do dispositivo Android para o sistema embarcado microcontrolado via Bluetooth, ou seja, o sistema embarcado proposto constrói a mesma cor emitida pela tela do software educacional no dispositivo Android através de um LED RGB.

No intuito de estimular construção de sistemas automáticos reais como os utilizados em experimentos, foi desenvolvido um software educacional livre para programar microcontroladores dos robôs educacionais e estimular a reflexão e o desenvolvimento da autonomia dos alunos na elaboração de projetos reais [7]. Esse software educacional possibilita a gravação via USB e a execução no microcontrolador, de um programa compilado em linguagem C, como também a comunicação serial através da emulação de uma porta serial COM virtual de forma rápida e eficaz a partir do momento em o microcontrolador esteja conectado diretamente a um computador via USB, como ilustra a Fig. 2.

II. SOFTWARE EDUCACIONAL O que confere a um software o caráter educacional é a aplicação no processo ensino-aprendizagem, neste sentido um software pode ser considerado educacional quando adequadamente contextualizado em uma relação de ensinoaprendizagem. Os softwares educacionais são enquadrados em educativos e aplicativos [4]. Um software educativo pode ser conceituado como um programa que possui recursos que foram projetados com a intenção e finalidade de serem usados em contextos de ensinoaprendizagem, sendo projetado para tal [5]. Estes programas se aplicam a diferentes finalidades que vão desde a aquisição de conceitos, passando pelo desenvolvimento de habilidades, até a resolução de problemas. Na categoria de software educacional entram aqueles que não são desenvolvidos com finalidades educativas, mas são utilizados para esse fim. São os programas aplicativos de uso geral utilizados em contexto de ensino e desenvolvimento cognitivo, como por exemplo, Banco de Dados, Compiladores de Programas, Processadores de Texto, Planilhas Eletrônicas e Editores Gráficos. Os softwares educacionais aplicativos podem ser utilizados também com finalidade tecnológica ou com finalidade educativa [6]. Nos softwares aplicativos com finalidade tecnológica a importância é dada aos conceitos relacionados à aplicação prática. Já os softwares aplicativos com finalidade educativa são os mesmos softwares da classificação anterior, porém são utilizados para demonstrações no contexto educacional. Os softwares educacionais propostos neste

Fig. 2. Processo de programação do software educacional SanUSB.

A comunicação dos experimentos com os softwares educacionais livres pode ser realizada também utilizando protocolos de comunicação sem fio, como Bluetooth e WiFi. Neste experimento, a forma de comunicação sem fio é realizada com o protocolo Bluetooth. O nome Bluetooth tem a origem de um conquistador viking, chamado Harald Bluetooth, que unificou a Dinamarca e a Noruega no século X, simbolizando a união de diferentes grupos de pessoas [8]. A proposta do Bluetooth é substituir as várias soluções proprietárias existentes para comunicação com um padrão que possa ser adotado a nível mundial. Na transmissão Bluetooth, a comunicação é efetuada aplicando-se uma técnica de espalhamento espectral com saltos de frequência, denominada de FHSS (Frequency Hopping Spread Spectrum). Desta forma, a frequência nunca é a mesma, minimizando as interferências e possibilitando a existência de outras redes


Bluetooth na mesma área geográfica [8]. Os requisitos principais que nortearam o desenvolvimento do Bluetooth foram o baixo consumo, o baixo custo devido à produção em massa dos chips, o alcance de até 100 metros (no caso do módulo utilizado neste trabalho, pode-se comunicar a 30 m) e transmissão de voz e de dados. A Fig. 3 ilustra a conexão do circuito microcontrolado com o módulo Bluetooth utilizando quatro fios.

de atualização no firmware foi possível também alterar a composição de cores através de comando de voz. O experimento com reconhecimento de voz tornou a contextualização da teoria de formação de cores mais lúdica e mais interativa.

Fig. 5. Ilustração do processo de comunicação Bluetooth do dispositivo Android com o circuito microcontrolado para composição de cores RGB.

IV. SOFTWARE EDUCACIONAL PARA DISPOSITIVOS ANDROID Fig. 3. Ilustração da conexão do circuito microcontrolado ao módulo Bluetooth.

Por outro lado, o módulo RGB construído para este experimento, ilustrado na Fig. 4 juntamente com um LED RGB, apresenta os pinos para conexão descritos no próprio módulo. O LED RGB possui saídas R, G e B que devem ser ligadas nos pinos b0, b1 e b2 do microcontrolador, responsável por modular em alta frequência a largura do pulso (PWM) em cada pino do LED RGB. Dessa forma, o circuito microcontrolado modula a tensão aplicada em cada pino do LED RGB e, consequentemente, a intensidade do brilho para a composição de uma cor real. A Fig. 4 ilustra o módulo para o led RGB desenvolvido no experimento de composição de cor.

Fig. 4. Ilustração do LED RGB e do módulo desenvolvido no experimento para composição de cor.

Neste experimento, foi desenvolvido um programa em linguagem C (firmware), que deve ser gravado no circuito microcontrolado para que possa receber as informações dos dispositivos Android via Bluetooth, e manipular os pinos do módulo RGB, como é ilustrado na Fig. 5. O compilador livre utilizado foi o C18 juntamente com o ambiente multiplataforma MPLABX. Para possibilitar maior difusão do sistema didático proposto, foi desenvolvido também um programa (sketch) para comunicação com a plataforma Arduino que pode ser acessado diretamente na tela do software educacional aplicativo, ilustrado na Fig. 5. Através

O presente capítulo descreve o funcionamento do software educacional livre denominado BT4SanUSB, desenvolvido e disponibilizado de forma gratuita para dispositivos Android no ambiente Google Play [9]. O aplicativo desenvolvido para Android permite comandar a composição de cores RGB via Bluetooth utilizando o disco de cores do aplicativo ou o reconhecimento de voz. As bibliotecas padrões do sistema de reconhecimento de voz utilizado foram desenvolvidas pela própria Google. Estas são baseadas em Redes Neurais Artificiais (RNA), ou seja, é um sistema de aprendizado virtual inspirado no cérebro humano. O aplicativo realiza também, via Bluetooth por controle PWM do LED RGB conectado ao microcontrolador, a mudança real de intensidade de brilho, como também, permite que uma determinada composição de cor de um experimento seja armazenada na memória permanente do aplicativo, pressionando o botão “Salva’. Além disso, este aplicativo possibilita que o usuário modifique o nome do dispositivo Bluetooth diretamente do dispositivo Android, inserindo o nome na caixa de texto e pressionando o botão “Enviar Nome BT” ao lado. Os comandos de voz armazenados na memória permanente do dispositivo Android permitiram corrigir falhas no software de reconhecimento para um determinado comando, pois embora a resposta encontrada pelo software de reconhecimento de voz do Android fosse diferente da pronunciada, esta resposta foi armazenada mesmo assim e quando este comando de voz foi pronunciado novamente, houve comparação com a palavra armazenada e no caso de palavras iguais, houve o reconhecimento a atuação. Este aplicativo é capaz também de acionar, por comando de voz, os LEDS RGB ou outros dispositivos conectados ao microcontrolador. O comando de voz pode ser gravado na memória permanente do aplicativo pressionando o botão correspondente e segurando por dois segundos.


Na Fig. 6 são mostradas telas do software educacional livre aplicado em experimentos para composição real e virtual de cores.

Fig. 6. Telas do software educacional aplicativo BT4SanUSB para controle de emissão de cores via Bluetooth.

As bibliotecas de reconhecimento de voz podem estar no dispositivo Android ou na nuvem. A partir da versão 4.1, é possível comando de voz offline, ou seja, sem necessitar de conexão à Internet. Basicamente, todas as aplicações que fazem o reconhecimento de voz são separadas em duas categorias: vocabulário limitado / muitos usuários ou vocabulário amplo / usuários limitados. Neste último caso, o programa conta com um vocabulário de milhares de palavras e um grau de exatidão maior ou igual a 85% no reconhecimento. Embora o último possua um grau de exatidão maior, este é voltado para um número limitado de pessoas ou até mesmo para apenas um indivíduo. Isso ocorre pelo fato de ser necessário treinar o aplicativo para trabalhar com determinado tom ou tipo de voz. Quando a empresa desenvolveu a versão Android 4.1 do sistema operacional móvel, também implementou uma série de mudanças na forma com que o software reconhece a voz humana, baseando-se principalmente na chamada rede neural, ou seja, um sistema de aprendizado virtual inspirado no cérebro humano. Em relação ao processo de desenvolvimento e funcionamento básico do algoritmo de reconhecimento, à taxa de erros no reconhecimento sofreu uma queda de 25% em relação às versões anteriores do sistema operacional Android [10], o que faz com que as pessoas falem de uma forma mais “natural” com seus aparelhos celulares, em vez de ditar palavras como se estivessem conversando com um robô. Quando uma palavra é falada para o sistema de reconhecimento de voz do Android, o espectrograma desta é cortado em pequenos pedaços e enviado para oito computadores localizados nos servidores da Google. Estes cortes são processados de acordo com os modelos de redes neurais [11]. Após isto, as palavras são adicionadas à inteligência artificial do software como se este houvesse as assimilado.

Para realizar a captação das palavras, são comumente adotados dois tipos de intervalos de frequência: aproximadamente oito mil medidas por segundo (digitalização a 8 kHz) ou 44.100 vezes por segundo (44 kHz). Quanto menor o intervalo, maior é a exatidão do som captado. Então, o Conversor Analógico Digital (A/D) transforma estas ondas de som analógicas em digitais, de forma que possam ser analisadas pelo dispositivo. Em seguida, a máquina inicia o processo de filtragem do som, de forma a separar ruídos de fonemas. Nesta etapa, são realizados vários procedimentos, como separar o áudio captado em frequências diferentes e fazer uma normalização, ou seja, deixar no mesmo nível de volume. Da mesma forma, as pessoas costumam falar em velocidades diferentes, e o computador precisa ajustar o som recebido para que esteja no mesmo tempo de pronúncia dos exemplos presentes no banco de dados. Filtrados os fonemas contidos em um áudio, o próximo passo para o computador é dividir o som em pedaços menores, alguns contendo centésimos ou até mesmo milésimos de segundo. Posteriormente, o programa pesquisa no seu banco de dados bibliotecas com fonemas que sejam compatíveis com o idioma local e com a fala que foi gravada [10]. Porém, essa tarefa é mais complexa do que parece, pois, além de existirem aproximadamente 34 fonemas na língua portuguesa (ou 40 para a inglesa), os fonemas podem variar conforme regionalismos e também pela conjunção de uma palavra. Da mesma forma, letras iguais possuem pronúncias diferentes, conforme o termo no qual se encontram. O programa precisa então realizar uma análise dos fonemas e do contexto com os outros em volta, seguindo um modelo complexo para compará-los com as palavras presentes na biblioteca [12]. Após reconhecer cada palavra no processo explicado anteriormente, o próximo passo é montá-las em sequência, de maneira a produzir frases. O principal problema é que pode haver uma série de sequências que coincidam com o que foi dito pela pessoa. Assim, o trabalho da máquina é analisar essas cadeias e verificar aquelas que possuam um sentido. Para isso, o sistema faz uma análise levando em conta o quão prováveis são as chances de cada uma das palavras compreendidas estarem posicionadas da maneira na qual foram compreendidas. Alguns modelos também verificam a dependência de cada termo da frase para confirmar se a sequência possui um sentido concreto. No caso do software educacional aplicativo desenvolvido, após pressionar o botão “ Reconhecer Voz” e pronunciar uma palavra, a palavra falada é reconhecida e mostrada na caixa de texto abaixo do botão “ Reconhecer Voz”. Este princípio pode ser utilizado para modificar a cor gerada pelo sistema embarcado. A Fig. 7 ilustra a operação do software educacional durante a formação de cores real no LED RGB e virtual no dispositivo Android, nos momentos em que são selecionadas somente a cor vermelha, somente a cor azul, somente a cor verde e a seleção de todas as cores formando e emissão da cor branca no aplicativo e no LED RGB.


REFERÊNCIAS [1]

K. Nassau, The Physics and Chemistry of Color: The Fifteen Causes of Color (Wiley & Sons, New York, 2001).

[2]

A. L. Scarinci1 e F. Marineli, O modelo ondulatório da luz como ferramenta para explicar as causas da cor. Revista Brasileira de Ensino de Física 36, 1309 (2014).

[3]

J. C. Andrades, A. Schiappacassa, P. F. dos Santos, Desenvolvimento de um periodímetro microcontrolado para aplicações em física experimental. Revista Brasileira de Ensino de Física 35, 2503 (2013).

[4]

C.C. Oliveira, E. I. Menezes, M. Moreira. Ambientes Informativos de Aprendizagem: produção e avaliação de software educativo (Papirus, Campinas, 2001).

[5]

J. M. Sancho, Para uma Tecnologia educacional (ArtMed, Porto Alegre, 1998).

[6]

S.F. Tajra. Informática na Educação: novas ferramentas pedagógicas para o professor da atualidade (Érica, São Paulo, 2000).

[7]

Grupo SanUSB. Disponível em https://br.groups.yahoo.com/neo/groups/GrupoS anUSB/. Acesso em 9/6/2014.

[8]

N. J. Muller, Bluetooth Demystified (McGraw Hill, New York, 2001).

[9]

BT4SanUSB. Disponível em https://play.google.com/store/apps/details?id=ap pinventor.ai_sandro_juca.BT4SanUSB_HC05. Acesso em 9/6/2014.

[10]

Portal G1. Brasil lidera o tempo de uso de smartphones e tablets. Disponível em http://g1.globo.com/tecnologia/noticia/2013/04/u so-de-smartphone-e-tablet-e-maior-no-brasil-doque-no-resto-do-mundo.html. Acesso em 9/6/2014.

[11]

V. Vanhoucke. How Google Retooled Android With Help From Your Brain. Disponível em http://www.wired.com/2013/02/android-neural. Acesso em 7/6/2014.

[12]

A. P. Pereira. Como os celulares e computadores fazem para reconhecer a sua voz. Disponível em http://www.tecmundo.com.br/como-funciona/. Acesso em 7/6/2014.

Fig. 7. Operação do software educacional durante a formação de cores real no LED RGB e virtual no dispositivo Android.

O programa do microcontrolador e o sketch para Arduino podem ser obtidos diretamente da tela do aplicativo BT4SanUSB [9]. V. CONSIDERAÇÕES FINAIS Durante os experimentos de formação de cores, o sistema didático mostrou-se estável em relação à recepção dos dados que formaram as cores virtuais e reais. O uso do Bluetooth possibilitou que diferentes perfis de usuários fossem capazes de instalar o aplicativo no dispositivo Android e controlá-lo diretamente através de emparelhamento com o módulo do sistema embarcado. Considerando que o custo de um dispositivo Android é bastante acessível, este projeto pode ser implementado em diversas instituições de ensino. A visualização dos experimentos através da comparação de cores reais e virtuais permitem que os estudantes possam relacionar mais facilmente aquilo que está sendo visualizado e contextualizar com o conteúdo teórico apresentado. A aplicação do comando de voz permitiu também acionar cargas através de comandos pré-definidos e após a fala de palavras como “Liga” e “Desliga” possibilita o acionamento de cargas sem pressionar botões do aplicativo. Os softwares educacionais aplicativos desenvolvidos neste trabalho favoreceram a manipulação de situações reais em que os estudantes puderam tirar conclusões abstratas através da reflexão sobre os resultados obtidos, o que contribuiu para a assimilação dos conhecimentos e desenvolvimento do raciocínio lógico de forma lúdica. Além disso, esses softwares educacionais mostraram-se eficientes em relação à programação e ao controle por comando de voz. Nesse sentido, o reconhecimento de voz do Android também mostrou-se eficaz e o uso do Bluetooth possibilitou que diferentes usuários pudessem instalar o aplicativo nos dispositivos Android e controlar o LED RGB imediatamente após o emparelhamento com o módulo Bluetooth. O uso da tecnologia Bluetooth permitiu a integração do experimento de composição de cores com dispositivos móveis portáteis, facilitando o a interação com os estudantes. Dessa forma, a simplicidade da construção de experimentos com sistemas embarcados e uso de softwares educacionais livres podem contribuir significativamente para a criação de novos experimentos didáticos.


Uso do Ambiente Virtual de Aprendizagem SOCRATES como ferramenta pedagógica no ensino de Física Francisco Halyson Ferreira Gomes Universidade Federal do Ceará, Departamento de Engenharia de Teleinformática, halysongomes@yahoo.com.br Av. Humberto Monte, s/n, Campus do Pici, bloco 725 Fortaleza/CE, Brasil, 60455-970

Resumo – Este trabalho tem como objetivo identificar o potencial

alunos do médio, de uma escola pública, dos interesses em

pedagógico

participar de uma rede social, a utilização do SOCRATES

do

ambiente

virtual

de

aprendizagem

(AVA)

SOCRATES no ensino de Física. Utiliza-se o AVA SOCRATES na realização de atividades em duas turmas do ensino médio de uma escola da rede pública de ensino do Ceará. Os resultados demonstram que o uso de redes sociais entre os jovens é uma realidade e que a utilização do AVA SOCRATES facilita a comunicação entre aluno-aluno e aluno- professor. São apresentadas algumas considerações sobre as dificuldades enfrentadas pelos alunos

como recurso pedagógico e a avaliação de suas funcionalidades. Muitas

tarefas

atualmente

são

mediadas

pelo

computador, dentre essas atividades pode-se citar a edição de textos e a realização de operações matemáticas. Com a

ambiente

popularização do computador foi possível a miniaturização

SOCRATES, que podem servir de obstáculos ao ensino e a

dos componentes e a evolução dos programas de

aprendizagem em Física.

informática. Outro importante passo para o advento do

na realização

das

atividades

e

as

limitações

do

computador pessoal ocorreu com o desenvolvimento da internet. Antes restrita a comunicação entre universidades I. INTRODUÇÃO

e centros militares a internet se tornou uma rede complexa, que conecta milhões de computadores em todo o mundo. A internet tornou a comunicação entre as pessoas mais

Neste trabalho, utiliza-se como metodologia de pesquisa a análise do estudo de caso da realização de atividades num Ambiente Virtual de Aprendizagem (AVA) SOCRATES1 com duas turmas de primeira série do ensino médio de uma escola da rede pública do estado do Ceará, localizada no município de Maracanaú. Participaram do grupo amostral quarenta alunos. O objetivo deste trabalho é identificar o potencial pedagógico do uso do ambiente virtual de aprendizagem (AVA) SOCRATES no ensino de Física com alunos do ensino médio de uma escola da rede pública de ensino. Além disso, pretende-se analisar as funcionalidades das ferramentas disponibilizadas pelo AVA SOCRATES na construção de conhecimentos relacionados a disciplina de Física. Como objetivos específicos tem-se a identificação entre

rápida e segura. A criação de redes sociais virtuais é um dos fenômenos atuais da Web, uma vez que conectam pessoas com interesses comuns. Assim constrói-se a problemática deste trabalho: o SOCRATES pode útil na construção de conhecimentos em Física? Os métodos de ensino precisam estar atentos as mudanças tecnológicas e se adequando para formar pessoas capazes de atuar criticamente na sociedade. Assim, a escola se apropria das inovações ocorridas no campo da informática levando os alunos a desenvolver competências e habilidades que os ajudem no convívio social. A interatividade proporcionada pela internet e o grande volume de informações pode levá-la a um patamar importante na construção do conhecimento dentro dos


processos educacionais.

informações para criar uma importante rede de construção

Tem-se como hipóteses que a busca dos jovens em criar

do conhecimento. O estudante que utilizar a Web como

perfis em redes sociais virtuais está relacionada a

fonte

facilidade de comunicação com diferentes pessoas, que o

conhecimentos de forma ativa e significativa. O hipertexto,

SOCRATES pode possibilitar ao professor a criação e o

como dispositivo didático, provê um ambiente propicio à

aperfeiçoamento de comunidades para a discussão de

exploração, em que o aluno tem a oportunidade de tours

diferentes

guiados, por exemplo, com o grau de conhecimento do

temas,

tornando

assim

o

ensino

mais

significativo.

de

pesquisa

poderá

criar

seus

próprios

estudante e o objetivo de tornar mais compreensível a informação [3].

II. O COMPUTADOR E A INTERNET NO ENSINO DE FÍSICA

Importantes

eventos

na

A popularização da internet revolucionou a forma de comunicação entre as pessoas, possibilitando que em

história

mundial

foram

diferentes lugares se comuniquem e troquem informações

essenciais para o desenvolvimento e aperfeiçoamento do

através das ferramentas disponíveis. A internet, como

computador. No início do século XX a construção de

espaço didático pedagógico, possibilita a inserção do aluno

máquinas capazes de realizar tarefas de cálculo se

em diferentes contextos e em situações reais de interação,

intensificou. Com o início da Segunda Guerra Mundial

que permitem interagir por meio da linguagem [4].

surgem novas necessidades relacionadas a cálculos

Em um ambiente escolar que adote o computador nas

balísticos, operações que as maquinas de calcular da época

práticas pedagógicas o aluno pode ser mais ativo, tendo a

não ofereciam suporte. Dessa forma, surge o primeiro

liberdade para construir seu conhecimento de forma

computador

and

significativa [5]. O professor passa a atuar como um

Computer (ENIAC), desenvolvido por Eckert, John

regente, um tutor, um provocador de ideias´ para que o

Mauchly e Herman H. Goldstine [1].

aluno possa desenvolver competências e habilidades

o Eletronic

Numerical

Integrator

O desenvolvimento de uma cultura eletrônica só foi

necessárias para seu crescimento cognitivo.

possível graças ao aprimoramento de importantes inventos,

Frequentemente a Física é apresentada como uma série

como o rádio e o telefone esses ainda no século XIX. No

de fórmulas prontas, com as quais o aluno opera sem lhes

século XX pode-se citar a invenção da televisão, do

dar sentido ou fazer qualquer relação com o seu cotidiano.

cinema falado, do gravador e dos primeiros computadores

Sem efetuar a relação entre teoria e fenômeno o aluno

[2]. Todas essas inovações tecnológicas criaram na

acaba por considerar o assunto apresentado como algo

sociedade mudanças significativas na forma de se

totalmente novo e sem sentido [6].

organizar socialmente e economicamente.

A aprendizagem significativa possui vantagens muito

Na década de 90, a internet foi uma importante forma de

importantes na construção da rede cognitiva do aluno,

comunicação virtual, deixou de ser um instrumental

entre elas o fato de que conceitos aprendidos de forma

acadêmico, e passou a ser utilizadas por pessoas. Em 1993

significativa ficam guardados na memória por mais tempo.

o número de enciclopédias digitais vendidas nos Estados

Outra vantagem que pode ser citada ao conferir ao

Unidos era superior aos dos de exemplares impressos. Até

educando uma aprendizagem significativa é que ao

mesmo as relações comerciais se modificaram com o

enriquecer o canal de comunicação mental o aluno tem a

crescimento da popularidade da internet quando em 1995

capacidade de aprender mais facilmente qualquer conceito

foram implementadas as primeiras lojas virtuais [3].

de qualquer área do conhecimento [7].

A escola como espaço de discussão e desenvolvimento de

metodologias

de

ensino

usa

a

interatividade

proporcionada pela internet e o grande volume de

O ensino da Física nas escolas e nas universidades não tem sido uma tarefa fácil para muitos professores. Umas


das razões para essa situação é que a Física lida com vários

feminino.

conceitos, alguns dos quais caracterizados por uma alta

Dentre as possibilidades de atuação disponibilizadas

dose de abstração [8]. Em alguns casos, por uma questão

pelo ambiente SOCRATES a opção escolhida foi a criação

de organização curricular os conceitos são desmembrados

e o gerenciamento de um Curso. Esta escolha foi baseada

e acabam se tornando fora de contexto.

na análise das ferramentas oferecidas: fórum chat,

A Física deve estimular competências que façam o aluno entender fenômenos naturais e tecnológicos a partir de princípios, leis e modelos bem definidos e para isso

portfolio, acompanhamento de participação, mensagem e publicação de textos no espaço aulas. Para

o

desenvolvimento

deste

trabalho

foram

devem estar em consonância com fatos da realidade e em

desenvolvidas as seguintes ações: criação do curso no

articulação permanente com competências de outras áreas

ambiente SOCRATES, aplicação das atividades propostas

do conhecimento [9]. Com isso, o ensino de Física ganha

e coleta e análise dos dados.

uma dimensão mais ampla e o professor precisa fazer uso

Os alunos desenvolveram atividades em dois espaços

de múltiplas linguagens para formar pessoas, que mesmo

dentro do AVA SOCRATES, realizando duas atividades

sem ter contato direto com a Física, após a conclusão do

na ferramenta fórum e uma atividade na ferramenta

curso de ensino médio, possam compreender o meio em

portfólio. Nos fóruns os alunos tiveram a oportunidade de

que vivem.

discutir sobre um determinado tema. No primeiro fórum os

Parte dessa vantagem em utilizar o computador no

alunos se apresentaram, e em seguida no segundo fórum

ensino de Física está na incapacidade de alguns alunos

eles discutiram sobre as concepções de movimento para

compreenderem fenômenos, que requer um nível de

Aristóteles e Galileu. Na atividade de portfólio os alunos

abstração mais elaborado. Ferramentas gráficas, planilhas,

produziram e publicaram material a respeito do tema

animações, simulações e o acesso à rede mundial de

abordado durante as aulas do curso.

computadores são exemplos de ferramentas que o

Após o primeiro encontro decidiu-se criar um espaço

computador pode oferecer para que professor possa fazer

dentro da carga horária da disciplina Física para acesso ao

uso para melhorar a aprendizagem.

SOCRATES, com a finalidade de favorecer uma maior

Os recursos disponibilizados pelas comunidades virtuais

interação entre os alunos e o ambiente.

podem ser os mais variados possíveis: fóruns, chats, fotoblog, blogs, espaço para publicação de material, tendo sempre em mente os objetivos que se quer atingir ao criar

IV. ANÁLISE E DISCUSSÃO DOS RESULTADOS

esse espaço de troca de informações. Dessa forma, uma comunidade virtual serve como ambiente na construção de

Um dos questionamentos feitos aos alunos teve como

uma inteligência coletiva, o indivíduo fornece uma

finalidade quantificar o número de alunos inscritos em

informação que se agrega ao material de outros indivíduos

alguma rede social e qual o uso destinado a essas redes.

criando assim uma rede complexa de conhecimentos.

Dentre os participantes da pesquisa realizada neste trabalho a maioria absoluta, cerca de 80% respondeu estar registrados em alguma rede social e participam ativamente

III. DESENVOLVIMENTO DAS ATIVIDADES

das atividades de tais equipamentos de comunicação.

Este estudo de caso foi realizado com 40 alunos

Foi possível verificar que as redes sociais servem ao

matriculados na 1ª série do ensino médio de uma escola da

propósito de aproximar pessoas, pois 27% dos alunos

rede pública de ensino, localizada no município de

respondem que usam essa forma de comunicação para

Maracanaú. O grupo tem faixa etária entre 14 e 18 anos,

interagir com outras pessoas, e 15% fazem uso das

sendo 11 alunos do sexo masculino e 29 alunos do sexo

ferramentas disponibilizadas pelas comunidades virtuais


para encontrar seus amigos, o que dá ao uso da internet um

apropriação dos conhecimentos referentes ao uso do

caráter mais pessoal.

computador. Uma vez que as atividades no SOCRATES

As atividades na disciplina de Física usando as

são feitas por intermédio do computador é importante que

ferramentas do AVA SOCRATES foram desenvolvidas

os alunos possuam habilidades para manuseá-lo e assim

durante um período de três meses ao longo do ano de

aproveitar todas as suas funcionalidades.

2011.

Embora 66% dos alunos que participaram da pesquisa

Quando questionados sobre a relevância do ambiente

classifiquem seus conhecimentos em informática como

como ferramenta para a aprendizagem em Física 85% dos

medianos e 10% como não tendo nenhum conhecimento

alunos consideraram importantes para a aprendizagem em

na utilização do computador, os alunos não tiveram

Física as funcionalidades disponibilizadas pelo ambiente

grandes dificuldades em entender os objetivos do curso e

para discutir temas relacionados a essa Ciência.

em realizar as tarefas propostas e disponibilizadas no

Quando perguntados sobre os aspectos que mais chamaram a atenção na utilização do SOCRATES alguns

ambiente pelo professor. Durante a

realização das

atividades

os

alunos

pontos se destacaram. Dentre esses aspectos positivos

demonstraram algumas dificuldades e parte delas foi dada

levantados pelos alunos na utilização do SOCRATES para

pela falta de uma formação adequada na utilização do

a aprendizagem em Física o quesito que melhor se lançou

computador.

foi o fato do ambiente estimular a aprendizagem. Esse fato

Outro fator apontado para a não efetivação das

reforça um dos objetivos para a criação e desenvolvimento

atividades por parte dos alunos está a linguagem usada

do AVA, a criação de um ambiente que seja usado para a

pelo ambiente, ou seja, o layout usado pela plataforma

construção

para orientar seus usuários.

de

conhecimento de

forma

de

forma

significativa e lúdica.

No SOCRATES o conhecimento é construído a cada

O SOCRATES ter sido reconhecido, pelos alunos, como

comentário, a cada atividade que é publicada dentro do

uma importante ferramenta lúdica no ensino de Física,

ambiente, ou seja, está a ligada a ativa participação do

reforça a importância da constituição de novas formas

aluno.

metodológicas para o melhor desempenho no ensino e na aprendizagem desta Ciência.

apontada como uma das causas para a rejeição do

Outro dado importante é que 25% dos alunos consideraram

o ambiente SOCRATES

A falta de interesse com as atividades propostas é

um

SOCRATES. Também este evento pode estar relacionado

espaço

a falta de conhecimento em informática, afinal uma pessoa

dinâmico, no qual o aluno pode encontrar um campo

que não conhece as finalidades do computador e não sabe

dedicado a interatividade entre seus participantes. É

operá-lo dificilmente sentira interesse em participar das

possível que haja um intercâmbio de informações com

atividades e demonstrar a sua deficiência perante os

qualquer pessoa que faça parte do SOCRATES.

colegas.

A comunicação é um importante fator para o

Não foi aplicado nenhum instrumento de avaliação para

crescimento de uma comunidade integrada no meio na

verificar se o uso do AVA SOCRATES proporcionou uma

qual está inserida. A medida que são criados espaços para

melhora nos conhecimentos em Física. Entretanto, é

o debate temas importantes poderão ser discutidos, e assim

determinante para a conclusão deste trabalho saber se o

as pessoas poderão compartilhar suas opiniões, agregando

uso das ferramentas nas atividades propostas tiveram

um nível superior de entendimento sobre questões

algum

diversas.

relacionados a Física. Foi possível verificar que uma

Outro fator importante a ser levantado diz respeito a

impacto

na

construção

de

conhecimentos

grande parte dos alunos percebeu que o uso do


SOCRATES foi importante durante as aulas da disciplina

sociais é uma realidade entre alunos do ensino médio, seja

de Física.

para fins pessoais ou para auxiliar nas atividades escolares, onde as ferramentas computacionais podem ser utilizadas

A

primeira

atividade

desenvolvida

no

AVA

tornando o ensino de Física mais significativo.

SOCRATES foi um fórum de apresentação do aluno. Esta

Embora, o ambiente SOCRATES apresentou nessa

tarefa tem dois objetivos básicos, organizar os alunos no

análise alguns fatores limitantes, como por exemplo, a

SOCRATES e permitir uma maior interação entre aluno-

falta de ferramentas de formatação textual, a ausência de

aluno e aluno-professor. No fórum de apresentação foi

opções para a publicação de arquivos de multimídia nos

solicitado aos alunos nome, idade e as expectativas em

fóruns e o número limitado de caracteres no campo

relação a utilização do ambiente virtual.

destinado ao início dos fóruns, com isso dificultando a

A participação neste primeiro fórum foi bastante

compreensão das atividades.

expressiva. Os alunos matriculados nas duas turmas

O SOCRATES se mostrou um canal importante para o

participaram ativamente desta atividade. Ao todo foram

debate e o aprendizado de temas relacionados a Física,

cem intervenções no fórum de apresentação. A análise das

oferecendo uma estrutura física adequada para a realização

respostas dos alunos foi dividida em dois grupos, aquelas

das atividades, e ademais favoreceu a interação entre

que respondem a pergunta do fórum e aquelas na qual há a

aluno-alunos aluno-professor de forma eficiente.

interação entre os participantes da turma. Constatou-se que REFERÊNCIAS

houve maior quantidade de publicações na categoria interação, perfazendo um total de setenta e duas mensagens, enquanto o número de respostas diretas a proposta do fórum foram de vinte e oito mensagens.

[1] Filho, C. F. (2007). História da Computação: O caminho do pensamento e da tecnologia. EDIPUCRS, Porto Alegre.

[2] Levy, P. (2000). As tecnologias da inteligência. 34, Rio de

A segunda atividade proposta a elaboração de um trabalho de pesquisa sobre o tema: a Física no seu cotidiano. Nessa atividade os alunos teriam que usar os meios de pesquisa que fosse mais adequado como livros, revistas, internet, dentre outros, para escrever sobre situações na qual eles identificam fenômenos relacionados

Janeiro, 34 edição.

[3] Dias, C. A. (1999). Hipertexto: evolução histórica e efeitos sociais. Ciência da Informação, v.28:269–277. [4] Araújo, J. C. (2007). Internet e Ensino: novos gêneros, outros desafios. Lucena, Rio de Janeiro. [5] Lucena, C. ; Fuks, H. (2000). A educação na era da Internet. Clube do futuro, Rio de Janeiro

à Física. Eles teriam a opção de identificar um fenômeno da natureza a invenção de equipamentos ou um fato histórico

relacionado a

Ciência.

Dos

alunos

que

[6] Krummenauer, W. L., Pasqualetto, T. I., and da Costa, S. S. C. (2009). O uso de instrumentos musicais como ferramenta motivadora para o ensino de acústica no ensino médio. Física na escola, 10:22–24.

participaram do grupo amostral, seis desenvolveram o projeto de pesquisa. Além do baixo número de participação observou-se que todas as pesquisas entregues

[7] Pires, M. A.; Veit, E. A. (2006). Tecnologias da informação e comunicação para ampliar e motivar o aprendizado de física no ensino médio. Revista Brasileira de Ensino de Física, 28:241–2248.

foram plagiadas de trabalhos já divulgados na rede mundial de computadores.

V. CONCLUSÃO Tomando como base nas discussões anteriores algumas considerações podem ser tecidas, que o uso de redes

[8] Medeiros, A.; Medeiros, C. F. (2002). Possibilidades e limitações das simulações computacionais no ensino de física. Revista Brasileira de Ensino de Física, 24(2):77– 85. [9] MEC (2002). PCN + Ensino Médio: Orientações complementares aos Parâmetros Curriculares Nacionais. SEMTEC, Brasília.



DeVoice: Um Tutor Inteligente para Interação Humano-Computador Multimodal Visando a Acessibilidade Computacional ¹Leinylson Fontinele Pereira, ²Athanio Souza Silveira, ¹Jorge Luiz de Castro e Silva Universidade Estadual do Ceará (UECE) - ¹MACC e ²MPCOMP) - Fortaleza, Brasil leinylson@gmail.com, athanio@yahoo.com.br, jlcs53@gmail.com

Abstract. The Intelligent Tutoring Systems (ITS's) provide direct instruction to people, seeking some automation. In this research, we propose an architecture of an ITS without the need for a specialist, focused on accessibility for people with visual and /or physical disabilities, not being limited to, guiding the user, by using a synthesized voice by a Synthetic Tutor Agent (STA) represented by an avatar, applying methods of speech recognition by probabilistic models, combined with Artificial Intelligence (AI) techniques, allowing a Human-Computer Interaction (HCI) more immersive and inclusive with an interactive dialog, returning the meaning or translation of what is asked, using Natural Language Processing (NLP). Keywords — Affective Computing. Automatic Speech Recognition. Computational Accessibility. Natural Language Processing. Resumo. Os Sistemas Tutores Inteligentes (STI's) fornecem instruções diretas às pessoas, visando alguma automação. Nesta pesquisa, é proposta uma arquitetura de um STI sem a necessidade de um especialista, voltado para acessibilidade de pessoas com deficiências visuais e/ou motoras, não ficando limitado a estas, orientando o usuário, utilizando uma voz sintetizada por um Agente Tutor Sintético (ATS) representado por um avatar, aplicando métodos de reconhecimento de voz por modelos probabilísticos, aliado às técnicas de Inteligência Artificial (IA), viabilizando uma Interação Humano-Computador (IHC) mais imersiva e inclusiva, com um diálogo interativo, retornando o significado ou tradução daquilo que for perguntado, utilizando Processamento de Linguagem Natural (PLN). Palavras chave – Acessibilidade Computacional. Computação Afetiva. Processamento de Linguagem Natural. Reconhecimento Automático de Voz.

por outra pessoa, fazendo com que o desenvolvimento nesta área não seja mais uma mera curiosidade, mas um progresso quase fundamental à humanidade. Devido aos avanços tecnológicos e a necessidade de novos recursos, surge o conceito de inovação tecnológica ligada ao campo da educação inclusiva e acessível a todos, de forma unânime e imparcial: a Computação Afetiva. Neste contexto, a informática leva em consideração as emoções e os “estados de espírito” [1], alcançando outras áreas do conhecimento, como a Educação, Psicologia, Sociologia, Tecnologias Assistivas (TA), Processamento Digital de Sinais (PDS), Ciência da Computação, Reconhecimento de Padrões, IA, Neurofisiologia, Linguística, Teoria das Comunicações, Fonética Articulatória e Acústica. O artigo descreve como um STI pode auxiliar o usuário na compreensão de novas palavras e conceitos, por meio de uma assimilação do conhecimento de forma simples, intuitiva e menos frustrante, motivando o usuário no processo de ensino-aprendizado. O reconhecimento de voz refere-se à habilidade que uma máquina ou programa possui, para adquirir e interpretar o ditado, ou ainda, compreender e executar comandos falados. Este projeto implementa um sistema Automático de Reconhecimento de Voz (Automatic Recognition Speech ARS), no âmbito educacional com suporte às TA’s. Os STI’s derivam dos programas de Instrução Auxiliada por Computador (Computer Assisted Instruction - CAI) e ICAI (Intelligent Computer Assisted Instruction) [2]. Na figura 1, verificam-se as áreas e os domínios abrangidos.

I. INTRODUÇÃO Desde os princípios da ciência o homem esteve em busca de meios de facilitar sua vida, procurando substituir de uma forma mais fácil o que ele mesmo poderia realizar. Com o tempo, o homem percebeu que as máquinas que criara ansiavam exclusivamente a substituição do trabalho de outra máquina mais perfeita e complexa: ele mesmo. Partindo disto, floresceu uma enorme curiosidade em desvendar o funcionamento do homem e como imitá-lo o mais impecavelmente possível. Hoje em dia, estamos cada vez mais envolvidos por grandes quantidades de informações que serão melhor absorvidas e compreendidas se nos forem advindas do modo mais conveniente possível, isto é, como se pronunciadas

Fig. 1. Domínio de uma Aplicação de Tutores Inteligentes [3]


Dentre as características desejáveis em um STI [4], valem destacar: meta-conhecimento para deliberar estados não previsíveis nas regras que delineiam o conhecimento do tutor; atuação segundo o modelo de ensino assistido; estruturas inteligentes para a depuração e direcionamento na detecção de falhas; mecanismos que admitam a simulação automatizada e a resolução conduzida dos problemas, além da aptidão de reconstituição de estados passados [2]. A. A arquitetura clássica e o modelo proposto Um STI possui uma composição modular (figura 2) onde cada módulo cumpre um papel específico na arquitetura e está inter-relacionado com os demais. Na arquitetura clássica, podem-se apontar quatro entidades principais [5]: um Modelo Pedagógico (regras de ensino) que analisa a informação do aprendiz, decidindo quais estratégias serão empregadas, determinando o modo que a informação será exibida. Um Modelo do Especialista (rede de conhecimento) expõe o conhecimento de um especialista na área de domínio do sistema, servindo como base de construção do Modelo do Estudante, que é a representação do conhecimento do aprendiz. Tudo isto mediado pelo Módulo de Interface, que realiza a interação de informações entre o sistema, o instrutor e o aprendiz, traduzindo toda a representação interna do sistema de modo amigável e de simples compreensão para o usuário, proporcionando o efeito almejado na utilização do sistema.

Fig. 2. Modelo Clássico (à esquerda) e Modelo Proposto (à direita)

III. JUSTIFICATIVA O Português é um idioma falado na Angola, Brasil, Cabo Verde, Galiza, Guiné-Bissau, Macau, Moçambique, Portugal, São Tomé e Príncipe, Timor Leste e por diversas comunidades em todo o mundo, contudo, existem aqueles que não falam ou não compreendem tal idioma em sua totalidade, ficando em parte, impedidas de usufruir de sua língua nativa. Com o intuito de criar uma interface multimodal homemmáquina mais amigável e simples de usar para a obtenção de conhecimento via recuperação de informações a partir da comunicação oral ou escrita, permitindo assim, o uso de computadores por mais pessoas, especialmente idosos e indivíduos portadores de deficiências, grandes esforços têm sido realizados para a obtenção de sistemas capazes de entender e se comunicar pela fala. Porém, apesar desses esforços, algumas dificuldades devem ser superadas para tornar o sistema apto à compreensão de um discurso sobre qualquer contexto em sua totalidade, falado de maneira natural, por qualquer indivíduo, em qualquer ambiente e em qualquer dialeto, que possibilite uma

plena acessibilidade computacional1. Além disto, em tais sistemas deve ser possível em geral, o funcionamento em condições de ruído de fundo, adaptação a vários tipos de locutores, visando robustez do sistema. Existem numerosos tipos de deficiência que comprometem a utilização do computador, com gravidade variável e adquiridas a partir de doença, trauma ou de forma congênita ou degenerativa na natureza. Segundo o CENSO Brasil do ano de 2010, a população total era de 190.755.799 (100%). Destes, o total de indivíduos que possuem pelo menos uma das deficiências investigadas corresponde a 45.623.910 (23,9%) e aqueles que não possuem nenhuma dessas deficiências equivale a 145.084.578 (76,1%). A seguir estão relacionadas algumas deficiências que enfatizam a importância de se alcançar a acessibilidade computacional, são elas: Deficiência Visual: Para indivíduos com problemas de visão de leve a médio, é útil usar grandes fontes, monitores de alta resolução, temas com alto contraste e ícones suplementados com feedback auditivo e software de ampliação de tela. No caso de deficiência visual grave, como cegueira, um software de leitura de tela que fornece feedback via texto para fala ou um monitor Braille atualizável é uma acomodação necessária para a interação com o computador. Os indivíduos com deficiência visual perfazem um total de 35.791.488 pessoas [6]. Deficiência Motora e Destreza: Limitações motoras com perda de destreza, como paralisia, ou a síndrome do túnel do carpo2, Lesão por Esforço Repetitivo (LER), incluindo dificuldades ou mesmo a incapacidade de usar as mãos, em razão de tremores, lentidão muscular, perda do controle muscular, dentre outros, ocasionadas devido a doenças como o Parkinson, distrofia muscular, paralisia cerebral, Acidente Vascular Cerebral (AVC), incapacitando algumas pessoas da utilização de dispositivos de entrada convencionais, como o mouse ou o teclado. Por isso, é importante uma tecnologia de reconhecimento de voz como uma alternativa atraente e adequada, uma vez que exige apenas microfone, alto-falantes ou fones de ouvido, facilmente disponíveis. Os indivíduos com deficiência motora perfazem um total de 13.273.969 pessoas [6]. Deficiência cognitiva: Outro desafio na acessibilidade computacional é satisfazer as necessidades de pessoas com deficiências cognitivas, como a dislexia3 e o autismo4,

1

A acessibilidade computacional, conhecida como computação acessível, refere-se à acessibilidade de um sistema de computador para todas as pessoas, independentemente da deficiência ou a gravidade da deficiência. 2 Síndrome que pode levar a dormência, formigamento, fraqueza ou danos musculares na mão e nos dedos. 3 Dificuldade na área da leitura, escrita e soletração, distinção entre esquerda e direita, percepção de dimensões, realização de operações aritméticas e no funcionamento da memória de curta duração, costuma ser identificada nas salas de aula durante a alfabetização, sendo comum provocar uma defasagem inicial de aprendizado.


particularmente aqueles indivíduos com baixa capacidade de comunicação e sem habilidades de leitura, o que acaba por dificultar a aprendizagem. A interface projetada foi batizada de “DeVoice”, sendo assim, com base nas deficiências acima relacionadas, as necessidades atendidas pelo sistema DeVoice incluem as deficiências visuais e motoras.

IV. METODOLOGIA A. Características do sistema DeVoice Os ARS’s podem ser classificados em classes distintas, dependendo da sua habilidade e funcionalidade no reconhecimento da palavra, podendo ser: Reconhecimento de Locutor, Identificação da Linguagem e Reconhecimento de Palavras. O DeVoice trata-se de um sistema baseado no tipo de entrada (figura 3), atuando como um sistema de palavras isoladas, o qual possui palavras separadas como a sua entrada. Esta separação é realizada por meio de pausas entre as palavras proferidas e o processamento ocorre a cada palavra pronunciada.

Fig. 3. Fluxograma do Tutor Inteligente

O DeVoice atua também como um sistema de palavras conectadas, distinguindo-se na quantidade reduzida de pausas nas entradas. A entrada é uma combinação de palavras, simulando uma conversa natural. Trata-se de um sistema independente de locutor, podendo reconhecer palavras a partir de qualquer usuário, não possuindo modo de treinamento como os sistemas dependentes de locutores, mas o processamento principal é o mesmo, porém com uma precisão menor. O sistema é baseado em regras, no armazenamento e manipulação do conhecimento para interpretação das informações, baseia-se também no conhecimento, utilizando sua base na resolução de problemas complexos, possuindo dois tipos de subsistemas: a base de conhecimento, que representa fatos sobre o mundo e um motor de inferência, que representa afirmações lógicas e condições sobre o mundo, representado por regras if-then [7]. A comunicação entre os agentes que constituem o sistema é apresentada na figura 4. 4

Algumas crianças, apesar de autistas, apresentam inteligência e fala intactas, outras apresentam sérios problemas no desenvolvimento da linguagem.

Fig. 4. Diagrama de Caso de Uso Geral do DeVoice

B. Processo de pesquisa pela palavra pronunciada A pesquisa pela palavra pronunciada começa com o processo de aquisição do sinal digital a partir do sinal analógico. Uma vez adquirido o sinal, realiza-se a Detecção de Atividade de Voz (Voice Activity Detection (VAD)), no qual o sinal de voz de entrada é identificado com base em um threshold (limiar) armazenado, não só indicando a presença ou ausência da fala, mas também, permitindo separar regiões sonoras e mudas do discurso para um emprego eficiente da memória disponível. A partir de então, gera-se um modelo com base nas características extraídas, que será comparado com outros já armazenados. Para o caso em que as características extraídas sejam consideradas insuficientes/excessivas para a geração de um perfil, o sinal será classificado como silêncio/barulho, respectivamente, e será descartado. O processo de aquisição do sinal é então reiniciado. Uma vez que o modelo da palavra tenha sido gerado, a palavra é processada no Ciclo de Erudição, ou seja, mecanismo no qual vocábulos são incorporados a uma sentença, a qual é analisada pelo Avaliador de Sentenças Lógicas (Aval), responsável por testar o modelo recebido com todos os modelos armazenados, como resultado, obtém-se uma lista em que cada posição contém o erro (pontuação) de cada palavra. A saída do sistema será uma pontuação para cada palavra, a palavra será aceita caso a pontuação seja alta, caso contrário, a palavra será recusada. Quanto maior a similaridade, maior será a pontuação. O resultado da pesquisa é retornado de forma audível e/ou visual, permitindo assim o acesso à informação sobre o significado do termo por qualquer pessoa 5, como exposto na figura 5:

5

Para o caso em que o usuário seja portador de deficiência da voz e o mesmo não conseguir proferir palavra alguma ou com bastante dificuldade, a pesquisa pode ser realizada via teclado.


Fig. 5. Visão Geral do Processo de Reconhecimento de Sentenças

O motor de pesquisa (search engine) foi projetado para procurar palavras-chave na base de dados localizada na Web e retornar uma lista de referĂŞncias que combinam com o termo informado. O motor de busca do sistema DeVoice ĂŠ utilizado como uma “interfaceâ€? (front end) para o motor de busca da base de dados na Web. C.

A Transformada RĂĄpida de Fourier

O processo de modelagem de uma palavra corresponde Ă extração das caracterĂ­sticas do sinal que o representam, ou seja, tais caracterĂ­sticas identificam uma determinada palavra. É o ponto chave do problema de reconhecimento de padrĂľes. Deve-se portanto, gerar um modelo com base nas caracterĂ­sticas extraĂ­das. A Transformada RĂĄpida de Fourier (Fast Fourier Transform (FFT)) ĂŠ uma composição matemĂĄtica que decompĂľe a matriz de um sinal qualquer em amplas frequĂŞncias, complexas e especĂ­ficas o bastante para obedecerem a um padrĂŁo de leitura e codificação. Em aplicaçþes tais como processamento de sinal, o domĂ­nio da função original ĂŠ tipicamente o tempo e ĂŠ consequentemente chamado de domĂ­nio do tempo. A FFT ĂŠ obtida conforme a equação 1, em que đ?‘Šđ?‘ đ?‘˘đ?‘Ľ = đ?‘’ −đ?‘—2đ?œ‹â „đ?‘ .

Fig. 6. Måquina de estados do reconhecimento de sentença por HMM

A Cadeia de Markov ĂŠ usada para identificar probabilisticamente o prĂłximo estado, dado o estado atual e um estĂ­mulo externo. A partir desse estĂ­mulo, o processo inicia e as transiçþes entre os estados da Cadeia de Markov sĂŁo baseadas unicamente nas probabilidades [8]. E. Desenvolvimento do ator sintĂŠtico: dando “VIDAâ€? ao sistema! Um dos campos mais promissores na pesquisa de IA, atualmente, ĂŠ a modelagem de agentes inteligentes credĂ­veis, aumentando o realismo atravĂŠs do comportamento, cognição (raciocĂ­nio), interação, percepção e ação. Esses agentes, chamados de Atores SintĂŠticos (AS) (figura 7), afetam emocionalmente o usuĂĄrio, aumentando sua motivação e engajamento, por meio de respostas rĂĄpidas e consistentes.

đ?‘ −1

1 đ??š(đ?‘˘) = ∑ đ?‘“(đ?‘Ľ). đ?‘Šđ?‘ đ?‘˘đ?‘Ľ đ?‘

(1)

đ?‘Ľ=0

A FFT permite a partir de um sinal no domínio do tempo, obter o sinal correspondente no domínio da frequência, usando as funçþes de seno e cosseno que são periódicas e infinitas. A fala Ê um sinal real, em outras palavras, ela pode ser mesurada, mas sua FFT tem componentes reais e imaginårios. D.

Aproximaçþes por Hidden Markov Model - HMM

Uma Cadeia de Markov Ê um processo que consiste num número de estados de probabilidades associadas às transiçþes entre os estados. Dado um conjunto de palavras, uma cadeia de Markov pode ser criada para identificar as probabilidades de uma determinada palavra ser pronunciada após a outra, aprimorando o reconhecimento de quais palavras foram ditas [8], com base em seu contexto ou categoria lexical. Como pode ser observado na figura 6, cada estado envolve a produção de uma palavra (observação). No final da cadeia, uma sentença concluída Ê disponível.

Fig. 7. Agente Tutor SintĂŠtico Ă lex (avatar) [9]

Para gerar ilusão de vida Ê preciso expressar e controlar a personalidade, emoçþes e atitudes, influenciando a percepção e a cognição. AtravÊs do mecanismo de percepção do mundo, o AS capta e reage às alteraçþes no ambiente em que estå inserido, fornecendo respostas próximas do real. F.

Processamento de Linguagem Natural

O Agente de Conversação (ACon), apresentado na figura 8, Ê uma parte do sistema destinado a conversar com o usuårio de forma coerente, empregando texto, discurso, gråficos, gestos e outros meios de comunicação sobre a entrada e canal de saída [10]. A iniciativa do diålogo pode ser tomada tanto pelo usuårio como pelo agente.


B.

Teste com palavras concatenadas

Na tabela II, têm-se o resultado de testes realizados com grupos de duas e três palavras concatenadas em dez execuções. TABELA II PERCENTUAL DE RECONHECIMENTO DE PALAVRAS CONCATENADAS

Grupo de Palavras

Fig. 8. Representação do Comportamento do ACon

O Acon é responsável por gerenciar o estado da caixa de diálogo, e estratégia de diálogo, na qual o usuário fala, e a entrada é convertida para texto simples pelo ASR, em seguida, o texto é analisado por uma Unidade de Compreensão de Linguagem Natural (UCLN), que realiza o parser sintático/semântico para a manutenção do histórico e do estado do diálogo, gerenciando assim, o fluxo geral da conversa por meio de um gerador de linguagem natural para a síntese da voz do avatar e um mecanismo de layout.

Reconhecimento (%)

Pesquise + imagens + livros

89 %

Procure +imagens + livros

89 %

Mostre + imagens + livros

83 %

Defina + computador

85 %

Traduza + book

74 %

Resultado do processamento da sentença “Defina livro”: ♫ Livro é um volume transportável, composto por páginas encadernadas, contendo texto manuscrito ou impresso e/ou imagens e que forma uma publicação unitária (ou foi concebido como tal) ou a parte principal de um trabalho literário, científico ou outro ♫7.

V. TESTES & RESULTADOS Os testes6 a seguir demonstram a eficácia no reconhecimento de algumas palavras pertencentes ao corpus da base de conhecimento do DeVoice. A execução correta da tarefa correspondente à sentença é apresentada na figura 9. A.

Fig. 9. Resultado do Processamento da Sentença: “Mostre imagens de livros”

VI. CONCLUSÕES

Teste com grupo de palavras isoladas

Na tabela I, têm-se o resultado de testes realizados com cinco palavras isoladas em dez execuções. TABELA I PERCENTUAL DE RECONHECIMENTO DE PALAVRAS ISOLADAS

Palavras

Reconhecimento (%)

Amor

90 %

Computador

92 %

Avatar

95 %

Árvore

91 %

Cachorro

92 %

As observações e resultados encontrados durante a fase de testes mostram que, de um modo geral, o DeVoice encontra-se apto ao reconhecimento de uma grande gama do corpus da gramática do idioma Português, com definições e descrições de cada termo reconhecido, intermediados por um ATS de forma dinâmica e acessível por meio da síntese da voz, garantindo uma participação plena e igualdade de oportunidades de expansão do conhecimento, tornando o sistema DeVoice uma ferramenta didática e inclusiva. De um modo específico, esta pesquisa contribui com uma ferramenta afetivamente computacional, visando à construção de uma aplicação capaz de “dialogar” com o usuário e seu estado emocional, criando situações computacionais que acompanham tais “estados”. Propiciou também, uma pesquisa descritiva e aplicação dos conceitos e da teoria envolvida no processo de reconhecimento da voz, desde a aquisição até o reconhecimento do sinal da fala por meio do PLN e das

6

Durante o reconhecimento das palavras, a pronúncia das preposições de e do, são consideradas irrelevantes para a compreensão das sentenças pelo sistema DeVoice.

O símbolo ♫ foi utilizado para indicar a presença de uma voz sintética do avatar Álex no sistema DeVoice. 7


técnicas de PDS e para fins científicos, o sistema possibilita ainda a produção de gráficos para uma análise mais profunda dos espectros dos sinais processados. O DeVoice está em fase de testes para uma possível extensão da aplicação para outros domínios do conhecimento, conforme as figuras a seguir, abrangendo assim, as demais áreas relacionadas à automação de atividades, por meio do reconhecimento automático de voz, como por exemplo, aplicações em Domótica Inteligente (figura 10), controle de um protótipo de veículo sobre a plataforma Arduíno (figura 11), uma sub-interface de Identificação de Usuário, tanto pelo processamento da face quanto pela voz (figura 12) e um módulo Assistente Virtual (figura 13), para a realização das mais variadas tarefas.

Fig. 13. Interface Assistente Virtual

REFERÊNCIAS [1] R.W. Picard, “What Does it Mean for a Computer to “Have” Emotions?” Chapter in “Emotions in Humans and Artifacts”, Ed. by R. Trappl, P. Petta e S. Payr, 2001. [2] H. F. Eberspächer e C. A. Kaestner, A Arquitetura de um Sistema de Autoria para Construção de Tutores Inteligentes Hipermídia e Seu Posicionamento na Informática Educativa - IV Congresso RIBIE, Brasilia, 1998. Fig. 10. Interface Domótica Inteligente

[3] G. Kearsley, “Artificial Intelligence and Instruction Applications and Methods”. Addison Wesley, 1987. [4] R. M. Viccari, N. Moussalle, Tutores Inteligentes para o Ensino da Linguagem Prolog. Anais do 1º Simpósio Brasileiro de Informática na Educação, RJ, nov., 1990. [5] R. Kaplan, D. Rock, New Directions for Intelligent Tutoring Systems. AI Expert – Fev., 1995. [6] J. B. F. de Oliveira, “Acessibilidade na WEB: Implementando Serviços Públicos Municipais Acessíveis a Todos”. Encontro Nacional com Prefeitos e Prefeitas. Secretaria de Logística e Tecnologia da Informação. Ministério do Planejamento. Departamento de Governo Eletrônico - SLTI/MP. Brasília, DF, 2013.

Fig. 11. Interface Controle Arduíno

[7] P. Norvig, S. Russel, Artificial Intelligence: a modern approach, Prentice-Hall, New Jersey, USA, 1997. [8] J. Russell, HMM Approximations. Disponível em: <http://flylib.com/books/en/1.409.1.112/1/ >. Acesso em 26/03/2013. [9] PeartVision, Modelo 3d Allison (American Woman). Disponível em: http://www.turbosquid.com/3dmodels/3d-american-woman-character-allison/675709. Acesso em 14/05/2014.

Fig. 12. Interface Cadastro e Identificação de Usuário

[10] J. Lester, K. Branting, B. Mott, “Conversational Agents”, The Practical Handbook of Internet Computing, Chapman & Hall, 2004.


INCLUSÃO DIGITAL: CONCEITOS, POSSIBILIDADES E DESAFIOS NO ENSINO SUPERIOR PARA O PORTADOR DE NECESSIDADE ESPECIAL AUDITIVA Franz Michel de M. Aguiar phranzmichel@hotmail.com

Jader Lins Junior jaderlinsjunior@hotmail.com

Josyane Lannes Florenzano de Souza Robson de Moraes Alves josyane.souza@estacio.br robsondemoraesalves@gmail.com

Centro Universitário Estácio do Ceará, Fortaleza-CE Resumo: Tecnologia Assistiva (TA) é um termo utilizado para identificar todo o arsenal de recursos e serviços que contribuem para proporcionar ou ampliar habilidades funcionais de pessoas com deficiência e conseqüentemente promover vida independente e inclusão. Este artigo pretende abordar conceitos, análises, discussões, possibilidades e desafios existentes no Ensino Superior quanto aos princípios norteadores da inclusão digital, experiências significativas e metodológicas como componente curricular para alunos portadores de necessidade educacional (PNE) especial auditiva. Foi elaborada uma pesquisa quantitativa na instituição de ensino superior (IES) Centro Universitário Estácio do Ceará, nas unidades Moreira Campos e Via Corpvs, ambas localizadas na cidade de Fortaleza-Ce, com pretensão de contribuir para o debate educacional e levantar a realidade desta IES para futuramente sugerir novas práticas a partir das TAs. Para este artigo pretende-se localizar os alunos surdos desta IES e ainda identificar alguns softwares existentes que auxiliam as metodologias de ensino, pois se acredita que estes facilitarão assim sua inclusão social e digital. Abstract: Assistive Technology is a term used to identify the entire arsenal of resources and services that contribute to provide or enhance functional abilities of people with disabilities and consequently promote independent living and inclusion. This article aims to address concepts, analyzes, discussions, possibilities and challenges in higher education as the guiding principles of digital inclusion and significant methodological experiences as a curriculum component for students with educational need special hearing. A quantitative survey was conducted in the higher education institution Centro Universitário Estácio do Ceará, in units Moreira Campos and Via Corpvs, both located in the city of Fortaleza-Ce, with intention to contribute to the debate and raise the educational reality of this education institution to eventually suggest new practices from the Assistive Technology. For this article we intend to locate deaf students in this education institution and identify some existing software that helps teaching methodologies, it is believed that these so facilitate their social and digital inclusion. Palavras-Chave: Inclusão Digital, Tecnologia Assistiva, surdez, educação inclusiva, cultura surda, softwares de informática para portadores de necessidades educacionais especiais, pesquisa. Keywords: Digital Inclusion Assistive Technology, deafness, inclusive education, deaf culture, computer software for people with special educational needs, research. 1. Introdução Este artigo surgiu a partir das necessidades e dificuldades encontradas diante de vários aplicativos de informática existentes para auxiliar os portadores de necessidade educacional especial auditiva a serem incluídos socialmente. Para a inclusão digital desses deficientes auditivos, foi verificada a utilização de ambientes de suporte à aprendizagem cooperativa e de Educação a Distância (EaD). Parti da hipótese de que esses aplicativos os ajudem a incluílos na sociedade, permitindo assim seu aprendizado em informática, oferecendo elementos para compreender como se dá a formação do conhecimento.

Vivemos um momento privilegiado do debate sobre a inclusão social. É na interação com outras pessoas que as necessidades do ser humano tendem a ser satisfeitas. Estas necessidades implicam sua própria sobrevivência física e psicológica. É por intermédio do contato humano que se adquire linguagem e se passa por meio dela, a se comunicar com outros seres humanos e a organizar seu pensamento. Cook e Hussey definem a TA citando o conceito do ADA American with Disabilities Act, como “uma ampla gama de equipamentos, serviços, estratégias e práticas concebidas e aplicadas para minorar os problemas funcionais encontrados pelos indivíduos com deficiências”. (COOK & HUSSEY, 1995). A TA deve ser entendida como um auxílio que promoverá a ampliação de uma habilidade funcional deficitária ou possibilitará a realização da função desejada e que se encontra impedida por circunstância de deficiência ou pelo envelhecimento. Podemos então dizer que o objetivo maior da TA é proporcionar à pessoa com deficiência maior independência, qualidade de vida e inclusão social, através da ampliação de sua comunicação, mobilidade, controle de seu ambiente, habilidades de seu aprendizado e trabalho. Segundo Pierre Levy (LEVY, 1993) o principal agente de transformação das sociedades atuais é a Técnica. Ele diz que por trás do óbvio, estas técnicas trazem alterações em nosso meio de conhecer o mundo, nas formas de representar este conhecimento, e na transmissão destas representações através da linguagem. O jogo da comunicação consiste em, através de mensagens, precisar, ajustar, transformar o contexto compartilhado pelos parceiros. Ao dizer que o sentido de uma mensagem é uma “função” do contexto, não se define nada, já que o contexto, longe de ser um dado estável, é algo que está em jogo, um objeto perpetuamente reconstruído e negociado. Palavras, frases, letras, sinais ou caretas interpretam, cada um à sua maneira, a rede das mensagens anteriores e tentam influir sobre o significado das mensagens futuras. Com a Lei de Diretrizes e Bases da Educação nº 9394/96 (BRASIL-MEC, 1996) surgiu à chamada “inclusão”, com a perspectiva de que os indivíduos portadores de necessidade educacional especial, ao serem inseridos em classes regulares, estariam se desenvolvendo a partir do contato com outras, ditas “normais”. As transformações necessárias para que a inclusão de fato ocorra são muitas e profundas, envolvendo questões pedagógicas, gestão e organização escolar, sem citar as repercussões éticas e culturais que devem suportá-las. Segundo (DAVIS e OLIVEIRA, 1994), é também no convívio social, através das atividades práticas realizadas, que se criam condições para o aparecimento da consciência, que é a capacidade de distinguir entre as propriedades objetivas e estáveis da realidade e aquilo que é vivido subjetivamente. Através do trabalho, os homens se organizam para alcançar determinados fins, respondendo aos impasses que a natureza coloca à sobrevivência. Para tanto, usam do conhecimento acumulado por gerações e criam, a partir do trabalho, outros conhecimentos. O paradigma da inclusão, segundo a Professora Leny Mrech (MRECH, 2005), é uma temática que não pertence apenas à Educação Especial, envolve reforma do ensino, teoria do


currículo, multiculturalismo, acesso e permanência do aluno deficiente no ensino regular, interação social facilitada, presença constante dos suportes técnicos e envolve também a Declaração sobre Educação para todos e Declaração de Salamanca1 (proposta da UNESCO – United Nations Educational, Scientific and Cultural Organization – Organização das Nações unidas para a Educação, a Ciência e a Cultura, criada em 16 de novembro de 1945). No auge do debate se sobressai à inclusão digital do portador de necessidades educacionais especiais, o surdo. Promover a inclusão digital como alavanca para o desenvolvimento social auto-sustentável é promoção de cidadania. Permitir que a comunidade de portador de necessidades educacionais auditiva às margens da tecnologia possa se comunicar, trocar idéias, gerar conhecimento coletivo e até fazer negócios, criando uma nova cultura de compartilhamento e socialização da informação, é uma das questões que norteiam esse artigo. A produção cooperativa de projetos via Internet é um fator de motivação para o aprendizado e, conseqüentemente, para a construção da inteligência coletiva. Cada pessoa é única, com características físicas, mentais, sensoriais, afetivas e cognitivas diferenciadas. Portanto, há necessidade de se respeitar e de se valorizar a diversidade e a singularidade de cada ser humano. Lembrando que o princípio da inclusão requer uma mudança de postura do professor diante de seus alunos, não cabe mais tratar uma turma de alunos diferentes com seus contextos próprios de vida, seus tempos de aprendizagem singulares como um grupo homogêneo, pois todos os estudos sobre Interculturalidade (inter-relação e interação entre diversas culturas, por meio de trocas e negociações), apontam para o entendimento de que todos os grupos humanos são essencialmente heterogêneos. Cai o “mito!” Da constituição de uma turma homogênea, surge o desafio de uma “práxis” pedagógica que respeite e considere as diferenças. A Educação Inclusiva é uma conquista indiscutível. No contexto da inclusão digital de portador de necessidades educacionais especiais auditivas, o ensino da informática e a utilização de ferramentas assistivas apresentam possibilidades importantes na busca de caminhos efetivos para que todos os alunos possam vivenciar expressões, contribuindo para a construção do conhecimento e o exercício pleno da cidadania, sem discriminações. A utilização de ferramentas de informática, aplicativos para este portador de necessidades educacionais auditiva representa um importante papel no sentido de facilitar e socializar a produção dos conhecimentos culturalmente construídos e que se encontravam fora do alcance dessas pessoas. Embora, ao mesmo tempo em que o computador pode servir como um recurso facilitador na execução de uma série de atividades (leitura, escrita, armazenamento de dados, acesso e disponibilização de informações) pode, também, assumir um caráter complicador porque, potencialmente, desencadeia “situações inusitadas que requerem engajamento, flexibilização de objetivos e avaliação contínua, visando à criação de ambientes de aprendizagem que favoreçam a construção de conhecimentos cognitivos”, o desenvolvimento social e afetivo do sujeito (FREIRE e PRADO, 1998). Para o autor Manuel Castells (CASTELLS, 2003), que é o principal analista da Era da Informação e da Sociedade de rede, importante filósofo do ciberespaço, a internet é a 1

Declaração de Salamanca - (1994) trata dos Princípios, Política e Prática em Educação Especial. Trata-se de uma resolução das Nações Unidas adotada em Assembléia Geral, a qual apresenta os Procedimentos-Padrões das Nações Unidas para a Equalização de Oportunidades para Pessoas Portadoras de Deficiências. Mais informações nas urls http://www.cedipod.org.br/salamanc.htm ou http://www.dhnet.org.br/direitos/sip/onu/deficiente/lex63.htm

espinha dorsal das sociedades contemporâneas e da nova economia mundial. Ele comenta que a internet afetou a ordem social, cultural, a participação política, a comunicação e a vida urbana. E diz que ela tornou-se a alavanca na transição para uma nova forma de sociedade. O portador de necessidades educacionais especiais auditiva tem necessidade de acessar, interpretar, criticar e participar das novas formas emergentes no contexto cultural e social, interagir, processar e desenvolver multiplicidade de competências na leitura das mais variadas mídias. Ou seja, ele é capaz de construir sentidos a partir de textos que mesclam palavras que se conectam a outros textos, por meio de hipertextos, links e hiperlinks. Ele precisa também ter capacidade para localizar, filtrar e avaliar criticamente a informação e ter familiaridade com a comunicação online. Dentre as várias categorias de Tecnologia Assistivas, segundo Rita Bersch temos: Auxílio para a vida diária e prática (como na alimentação o fixador de talher a mão), Comunicação Alternativa e Aumentativa (como Prancha de comunicação impressa, vocalizadores de mensagens gravadas e pranchas dinâmicas de comunicação no tablet.), Recursos de Acessibilidade ao Computador (como Teclado expandido e programável IntelliKeys, diferentes modelos de mouse e sistema EyeMax para controle do computador com movimento ocular), Sistemas de Controle de Ambiente (como Representação esquemática de controle de ambiente a partir do controle remoto), Projeto Arquitetônico para acessibilidade (como Projeto de acessibilidade no banheiro, cozinha, elevador e rampa externa), Órteses e próteses (como Próteses de membros superiores e órtese de membro inferior), Adequação Postural (como Desenho representativo da adequação postural, poltrona postural e estabilizador ortostático), Auxílios de mobilidade (como Cadeiras de rodas motorizadas; equipamento para cadeiras de rodas subirem e desceram escadas), Auxílios para qualificação da habilidade visual e recursos que ampliam a informação a pessoas com baixa visão ou cegas (como Lupas manuais, lupa eletrônica, aplicativos para celulares com retorno de voz, leitor autônomo), Auxílios para pessoas com surdez ou com déficit auditivo (como Aparelho auditivo; celular com mensagens escritas e chamadas por vibração, aplicativo que traduz em língua de sinais mensagens de texto, voz e texto fotografado, que é o objeto de pesquisa deste artigo), Mobilidade em Veículos (como Adequações no automóvel para dirigir somente com as mãos e elevador para cadeiras de rodas), e Esporte e Lazer (como Cadeira de rodas/basquete, bola sonora, auxílio para segurar cartas e prótese para escalada no gelo). (BERSCH, 2013) 2. O portador de necessidades especiais auditivas: o surdo Conceituar surdez num determinado contexto histórico, social ou educacional não é uma tarefa simples, pois requer conhecimentos dos diferentes graus de perdas auditivas do sujeito, seus relacionamentos com os pares, a forma como ele vê e como ouve o mundo que o cerca são tão importantes, para que se possa inicia-los no mundo das letras. Segundo Skliar (1998, p.11) a surdez constitui uma diferença a ser politicamente reconhecida; a surdez é uma experiência visual; a surdez é uma identidade múltipla ou multifacetada e, finalmente, a surdez está localizada dentro do discurso sobre a deficiência. Para Skliar, existe a possibilidade de estar sempre buscando e propondo, conhecer a apropriação das potencialidades do sujeito surdo, voltados para a análise dos discursos acerca da surdez seja no contexto político, social e escolar inclusivistas, sem entretanto esquivar da importância desse sujeito como agente de transformação, como um todo no meio social. Analisar esses sujeitos pela ótica de sua realidade, mencionadas acima são de suma importância para que se possa compreender a realidade deste e como ocorre a


aquisição, ao uso da linguagem, e de como ela se perpetua no contexto histórico-social-escolar da identidade do sujeito surdo. Conforme o filósofo Gilberto Dupas (DUPAS, 2001), o capitalismo global apossou-se por completo dos destinos da tecnologia, libertando-a de amarras metafísicas e orientandoa única e exclusivamente para a criação de valor econômico. As legislações de marcas e patentes transformaram-se em instrumentos eficazes de apropriação privada das conquistas da ciência, reforçando os traços concentradores e hegemônicos do atual desenvolvimento. As conseqüências dessa autonomização das técnicas com relação a valores éticos e normas morais foram dentre outras, o aumento da concentração de renda e da exclusão social, o perigo de destruição do hábitat humano por contaminação e de manipulação genética ameaçando o patrimônio comum da humanidade. Não resta dúvida que estes avanços tecnológicos são de fundamental importância para estas pessoas, não somente no âmbito educacional como também no uso doméstico e profissional. A língua dos surdos, a que eles percebem e produzem de maneira natural, é a língua de sinais (L1). A Língua Portuguesa, no caso do Brasil, é considerada como uma segunda língua (L2), como tal, necessita de metodologias e recursos adequados para sua transmissão e aquisição que considerem a língua L1 como língua de referência. No Brasil a L1 chama-se LIBRAS/LBS (Língua Brasileira de Sinais), que é uma língua visual-espacial articulada através das mãos, expressões faciais e do corpo, conforme (QUADROS, 2004). Ainda conforme QUADROS, na educação de surdos, uma das maiores dificuldades, é a que se refere à aprendizagem da leitura e da escrita da língua falada na sociedade em que vivem. Isso ocorre porque para um domínio da escrita é preciso um conhecimento da língua falada, o que para os surdos não pode ocorrer de maneira natural. Os erros cometidos pelos surdos ao escreverem a L2 devem ser encarados como decorrentes da aprendizagem dessa língua, ou seja, o resultado da interferência da L1 e a sobreposição das regras da língua que está sendo aprendida. O autor ainda afirma que o fracasso dos surdos está em aprender conteúdos em uma língua que, na maioria dos casos, não dominam. Além disso, como as L1 eram consideradas ágrafas, comenta (CAMPOS, GIRAFFA e SANTAROSA, 2001), sempre que os surdos necessitavam comunicar-se através da escrita, tinham que recorrer à escrita na língua da sociedade falante em que viviam. Por isso, ainda hoje é muito difícil encontrar literatura, materiais didáticos baseados em L1 e alguns alunos desenham o sinal junto à determinada palavra para que possam lembrar de seu significado. A sociedade ouvinte tem realizado diversos trabalhos para permitir ao surdo o acesso à sua cultura e à cultura ouvinte, contribuindo para a inclusão do surdo na sociedade. Em termos educacionais, há uma série de iniciativas que emergem e se expandem a cada dia mais e com efeitos mais previsíveis e satisfatórios, alimentados pela crescente pesquisa na área, dentro de diversas instituições, como o Projeto Avaliação da Coleção Clássicos da Literatura em Libras/Português da Editora Arara Azul2, no Rio de Janeiro, e Projeto Rybená, com a concepção e o desenvolvimento de um sistema que permita a inserção digital dessa comunidade a serviços bancários acessíveis a partir de sistemas de comunicação móveis (celular para surdos), no Distrito Federal, ambas no Brasil. Um outro facilitador para minimizar os preconceitos é a inclusão da LBS no currículo escolar, auxiliando o aluno surdo a aprender a L2 e o aluno ouvinte a aprender a L1, afirma a assessora da Secretaria de Educação Especial do

Ministério da Educação, segundo (GOTTI, 2004). Conhecer a realidade da surdez combate à discriminação e o integra a sociedade.

2

3

Mais informações em http://www.editora-arara-azul.com.br

3. Aplicativos de informática para o portador de necessidade especial auditiva (categoria de Tecnologia Assistiva) Atualmente, existe uma infinidade de programas computacionais que são utilizados para portadores de necessidades educacionais especiais com diferentes objetivos pedagógicos como aplicativos (editores de desenho, de texto, de apresentações), jogos educativos, simulações, hipertextos, linguagens de programação, correio eletrônico, chats, programas multimídia, entre outros. Também se encontram dispositivos que facilitam o acesso de sujeitos com diferentes tipos de problemas (deficientes físicos, auditivos, cegos) ao computador, como telas sensíveis a toque, sintetizadores de voz, mouses e teclados especiais, capacetes com ponteiros, telefones públicos para surdos etc. Em princípio, vem-se, há anos, no Brasil, alfabetizando surdos em língua portuguesa e reforçando a Escrita Surda numa interlíngua que apresenta, geralmente, a estrutura da língua de sinais com vocabulário de língua portuguesa. Reflexões sobre a alfabetização de surdos sugerem, entretanto, que a alfabetização destes deva se realizar, inicialmente, em língua de sinais. É uma proposta de ensino ainda incipiente no Brasil, mas, sem dúvida, um caminho que emerge aos poucos e timidamente, por meio da tecnologia oferecida pelo signwriting ou língua escrita de sinais. 3.1 Ferramentas/Aplicativos/Programas de informática voltados para o portador de necessidade educacional auditiva 3.1.1 Signwriting 3 O signwriting é uma forma de agregar as tecnologias educacionais empregadas no ensino de surdos, além de tornarem perenes e sólidas suas idéias, confirmando, reforçando e ampliando a “marca surda” de pertinência no mundo e, quem sabe, por meio dela, a História Surda se construa e se sustente sobre a “voz” da maioria surda, definindo-se e estabelecendo, enfim, a Cultura Surda pelo próprio surdo, por opção, por convicção, por SER SURDO. No ano de 1996, a PUCRS (Pontifícia Universidade Católica do Rio Grande do Sul) em Porto Alegre no Brasil, através do Dr. Antonio Carlos da Rocha Costa descobriu o SignWriting enquanto sistema escrito de sinais usado através do computador. A partir disso, SignWriting começou a tomar forma no Brasil. O Dr. Rocha formou um grupo de trabalho envolvendo especialmente a Prof. Marianne Stumpf e a Prof. Marcia Borba. Marianne é surda, professora na área de computação na Escola Especial Concórdia. Atualmente, ela está trabalhando com o SignWriting em algumas turmas. A Escola Especial Concórdia tem apoiado o desenvolvimento do SignWriting, pois tem considerado ser uma forma de escrever a língua de sinais. Marcia tem se envolvido com a parte de pesquisa relacionada à computação. Tive oportunidade de contatar Leonardo Mahler, um de seus alunos, que está desenvolvendo um software juntamente com um grupo para acessar o dicionário do SignWriting. 3.1.2 Programa Governo Eletrônico – Serviço de Atendimento ao Cidadão (GESAC) Programa de inclusão digital destinado às camadas C, D e E da sociedade. Disponibiliza um conjunto de serviços avançados de inclusão digital, com acesso à Internet em banda larga, a amplos setores da sociedade, excluídos do

Mais informações em http://www.signwriting.org/


acesso e dos serviços vinculados à rede mundial de computadores4. 3.1.3 Aplicativo SIGNSIM5 Professoras da PUCRS (CAMPOS, GIRAFFA e SANTAROSA, 2001), desenvolveram um sistema de tradução da Língua Portuguesa para LBS e vive-versa, objetivando, através de uma abordagem bilíngüe, oferecer um ambiente para construção de materiais baseados na escrita da LBS e um sistema interativo para auxílio à aprendizagem desta por ouvintes e da Língua Portuguesa para surdos, chamado SIGNSIM. Esta ferramenta auxilia à aprendizagem da Língua Brasileira de Sinais - no que tange a sua produção, leitura e escrita - tanto para surdos quanto para ouvintes, apresenta-se como um sistema para tradução entre a escrita da Língua Portuguesa e a escrita da Língua Brasileira de Sinais. Ainda, o sistema de escrita de língua de sinais utilizado é o Sign Writing. 3.1.4 Aplicativo SELOS Sistema para ensino da língua oral e de sinais para crianças surdas que se encontram no primeiro nível escolar. Dentre seus objetivos, (PALMA, 1996) destaca motivar as crianças surdas para a independência em seus estudos e aprendizagem, incrementar o vocabulário e formar pessoas com capacidade de análise com pensamentos analíticos. Ainda, conforme descrição, é apresentado um vocabulário básico que o usuário necessita conhecer para poder dialogar onde os componentes sociais que tem como opções são os alfabetos, os alimentos, as frutas, o tempo, os animais e os números. Pela descrição do trabalho, este pode ser classificado como pertencente à abordagem oralista, uma vez, parece tratar o surdo como alguém que deve ser “recuperado”. Aqui, vale ressaltar que a utilização das Línguas de Sinais não garante uma conformidade e respeito com cultura surda. 3.1.5 Aplicativo – LIBRAS VIA CD-ROM Tem ainda outro projeto de estudos de imagens falantes, que estimula o ensino e treinamento de leitura labial e língua de sinais – LIBRAS VIA CD-ROM em crianças surdas. Este projeto teve por objetivo desenvolver um CD-ROM para estimular a aprendizagem e o treinamento da leitura labial e a LBS em crianças surdas através de imagens computadorizadas. 3.2 Ambientes de Suporte à Aprendizagem Cooperativa 3.2.1 WebCT6 É um sistema para a criação de ambientes educacionais baseados na Web, fornecendo uma variedade de ferramentas, como chat, trilha do progresso do aluno, organização de projeto em grupo, auto-avaliação, controle de acesso, ferramentas de navegação, investigações auto-marcadas, correio eletrônico, geração de índice automático, calendário de curso, homepages dos alunos e pesquisas do conteúdo do curso. Um curso em WebCT está organizado em torno de uma homepage principal, com ligações para componentes de conteúdo do curso, como páginas de conteúdo, ou para outras páginas, além de ferramentas do curso, como correio eletrônico, auto-avaliação e glossário. O sistema proporciona diferentes visões do curso, dependendo da classe do usuário. Há quatro classes de usuários:

Administrador: há um único administrador, que não pode configurar ou adicionar conteúdo ao curso, mas apenas iniciar um curso e abrir um curso vazio para um projetista. O administrador pode cancelar cursos e mudar a senha dos projetistas;  Projetista: para cada curso, um único projetista é considerado pelo sistema e, normalmente, esse projetista é o professor do curso. O projetista pode manipular o curso de diversos modos: criando perguntas, checando o progresso dos alunos, definindo grupos de trabalho dos alunos, etc.  Instrutor: cada curso pode ter um número qualquer de instrutores. O instrutor tem os mesmos privilégios de um estudante, mas também pode corrigir provas.  Alunos: cada curso pode ter qualquer número de alunos. Os estudantes não podem manipular o conteúdo do curso. O projetista do curso cria as contas dos alunos. 3.2.2 Moodle7 Acrônimo de Modular Object-Oriented Dynamic Learning é um software livre de apoio de apoio à aprendizagem executado num ambiente virtual. Podemos dizer também que o Moodle é um Sistema de Gestão de Aprendizagem em trabalho colaborativo. Foi criado em 2001 pelo educador e cientista computacional Martin Dougiamas. Ele é gratuito e pode ser instalado em diversos ambientes, como Unix, Linux e Windows desde que os mesmos consigam executar a linguagem PHP (Hypertext Preprocessor), que é uma Linguagem de programação de computadores interpretada, livre e muito utilizada para gerar conteúdo dinâmico na Web. 3.2.3 Haiku Learning8 Haiku Learning é um ambiente virtual de aprendizagem (LMS – Learning Management System) baseado na tecnologia de computação em nuvem que propicia ao educadores introduzirem às suas salas de aula virtuais uma rica experiência com conteúdo online, bem como gerenciar atividades cotidianas da prática pedagógica, como correção de atividades, aplicação de questionários, trabalhos em equipe e avaliações. Além de contar com assinaturas para escolas e contas gratuitas para professores (com funcionalidades e capacidade de armazenamento limitados), a plataforma conta com um sistema de importação para instituições que desejem migrar de ambientes Moodle (citado item anterior 3.2.2). A plataforma Haiku Learning conta com uma extensa lista de funcionalidades, incluindo quadros de avisos, tarefas, trabalhos, registro de frequência, calendário, fóruns para discussão, caderno de notas dos alunos, upload de arquivos e projetos colaborativos por meio do WikiProjects; além de integração com a conta Google. Outro grande aditivo são as possibilidades de se optar por deixar as aulas ativas ou inativas, de modo que o professor poderá planejar as suas aulas de antemão e disponibilizá-las no momento que considerar oportuno; e a customização de temas, que irá se refletir nas múltiplas telas do sistema. Inicialmente, as muitas funções do sistema poderão intimidar aqueles professores não muito afeitos à tecnologia; mas, de forma geral, a interface com o usuário do Haiku Learning é amigável, e apresenta uma suave curva de aprendizado.

4

Mais informações no Portal de Inclusão Digital do Governo Federal Brasileiro na url http://www.idbrasil.gov.br 5

Mais informações em http://lsm.dei.uc.pt/ribie/docfiles/txt200372912341SIGNSIM.pdf 6 Mais informações na url http://homebrew1.cs.ubc.ca/webct/

7 8

Mais informações na url http://www.moodle.org. Mais informações na url https://www.haikulearning.com/


4. Em direção ao levantamento de requisitos necessários para a pesquisa e Resultados Quanto à metodologia da pesquisa optou-se pelo método indutivo, com abordagem qualitativa. Foi realizada pesquisa bibliográfica e criação de questionário que será aplicado ao alunos surdos mediante o intérprete da equipe Robson de Moraes Alves. O intérprete juntamente com a equipe do Núcleo de Atividade Pedagógica da IES, informou a lista dos alunos que recebem acompanhamento presencial ao longo dos semestre de 2014.1. São eles: 1

2

3

4

5

6 7 8

9

10 11 12 13

14

15

Alunos Sheila Maria Menezes Farias Jose Jonas de Sousa Americo Marcio Bruno Sampaio Morais Joao Pereira de Santiago Neto

Curso_Graduacao RH

Andre Luiz Albuquerque Franca Marcelo Bruno Gama Mayra As de Almeida Jose Renato Oliveira de Sousa Tamires Vieira da Silva Caio Marques Oliveira Layra Lopes Acioly Wesley Brandao Silva Francisco Regis Vasconcelos Pires Alcides Moreira de Freitas Neto Francisco Italo Oliveira de Sousa

ADS

Observação

ADM

ADS

ADS

Participa de projeto sensores digitais

ADS

questionários, trabalhos em equipe e avaliações, como mensionado anteriormente. 4.1 Criando o ambiente Haiku Learning Foi criado o ambiente de acessibilidade no Haiku Learning e aos poucos o layout vem se desenvolvendo. As discussões em grupo acontecem semanalmente e os requisitos vão se visualizando. 4.2 Gravando as aulas da disciplina online Planejamento de Carreira e Sucesso A disciplina Planejamento de Carreira e Sucesso já acontece nesta IES desde 2013. A mesma se dá de modo online no ambiente Sistema de Informação Acadêmica (SIA), onde cada aluno, através de login e senha, consegue acessar seu ambiente virtual e navegar entre os slides, fóruns de discussões, chats, material disponível, biblioteca, postar trabalhos, e visualizar vídeos. Lembrando que sempre em português, o que dificulta o entendimento do nosso objeto principal de pesquisa, o aluno surdo. Pensando nesta fragilidade e na intenção de manter este aluno ativo, participativo e principalmente focado, com vontade de ir até o final do curso, foi escolhida esta disciplina básica, que acontece no primeiro semestre de todos os cursos. A partir de cada slide, o intérprete grava a aula, analisando diversas variáveis que são relevantes para o aluno surdo, como cor de fundo, cor da camisa do intérprete, tranqüilidade, sem textos, como pode ser visto na imagem abaixo.

DESIGN DE INTERIORES ADM

DESIGN GRAFICO DESIGN GRAFICO MODA ADS PROCESSOS GERENCIAIS

SI

ADM

Tabela 01– Lista dos alunos PNE Auditiva da IES O instrumento questionário do tipo fechado e com múltiplas escolhas será aplicado, abordando a origem da surdez do aluno, o nível de audição, as ferramentas utilizadas por ele para interagir, se o aluno conhece libras e signwriting, se lê e escreve em português, se utiliza computador em seu dia-adia, se realiza alguma disciplina online nesta IES, se consegue acompanhar esta disciplina online, como também se utiliza algum aplicativo para ajudar em sua rotina como disccente. O questionário possui 12 questões e será aplicado ao longo do semestre corente (2014.2) Paralelo a elaboração do questionário, iniciou-se as discussões e construção do ambiente online no Haiku Learning das aulas da Disciplina Planejamento de Carreira e Sucesso, que é uma disciplina online desta IES e por fazer parte dos curriculuns de todos os cursos. Este ambiente foi escolhido por gerenciar atividades cotidianas da prática pedagógica, como correção de atividades, aplicação de

Figura 01 – Haiku Learning 5. Considerações Finais Assim como os autores (FREIRE e PRADO, 1998) também me interesso por uma opção educacional que respalde e oriente o desenvolvimento de uma proposta pedagógica que contemple as particularidades de cada sujeito e, simultaneamente, as expectativas e necessidades do grupo social do qual faz parte. Muito ainda pode e deve ser realizado em prol da educação de surdos. A oficialização da LIBRAS no Brasil, já foi um grande passo para a Comunidade Surda Brasileira. Ela prevê intérpretes em escolas, hospitais, repartições pública, estabelecimentos comerciais etc. e abre um leque de opções que deve ser aproveitado para se dar ao surdo o acesso à cultura, à sua história e à história da humanidade, assim como aplicativos de informática para surdos como auxílio em sua alfabetização. Educadores e formuladores das políticas de educação devem descobrir o seu papel nesse cenário, conscientizando-se de que cabe ao surdo o papel principal, um papel que, quer no camarim, quer nas arquibancadas, pode influir significativamente no protagonismo surdo, na sua identificação consigo mesmo e com o mundo de uma maneira rica e multicultural. Devem, portanto, promover uma educação sustentada numa experiência global a ser organizada dentro dos quatro pilares do conhecimento propostos pela UNESCO: aprender a conhecer, a fazer, a viver juntos e a ser. A inclusão ainda não é uma realidade; como outras inovações educacionais, levará tempo até que as mudanças necessárias


se instalem e orientem novas ações educacionais. No entanto, já se pode vislumbrar uma importante mudança no que diz respeito à concepção da condição do portador de necessidades educacionais especiais. Durante muitos anos a Educação Especial adotou como referência um modelo idealizado de sujeito que é capaz, perfeito, completo, considerado o “padrão de normalidade” e que, todos sabemos, não existe. A questão cultural do surdo na construção de sua cidadania envolve questões como as diferenças humanas, o multiculturalismo, a construção de identidades, a educação, o desenvolvimento de tecnologias, que resultam num panorama no qual fica evidente que, apesar de haver um lugar para a Cultura Surda e um lugar para a Cultura Ouvinte, não há fronteira entre ambas, tendo em vista o fato de serem complementares e convergirem para a formação de cidadãos. A interface e convívio das duas culturas constituem cenário multicultural, no qual não há melhores nem piores, há diferentes. O uso do computador se expressa em um contexto de contínua interação e, sendo assim, não pode ser visto somente como um instrumento que prolonga os poderes da comunicação ou que processa e armazena informações, uma vez que possibilita uma qualidade de interação que tem valor de desenvolvimento. Ao realizar um estudo a cerca do portador de necessidades educacionais especiais auditiva no mercado de trabalho foi verificado que os surdos necessitam ser mais bem formados e preparados para que a inclusão no mercado de trabalho possa ocorrer com maior êxito, pois seu preparo profissional tem se apresentado insuficiente quanto à duração, qualidade e abrangência. Para Leny Mrech há um novo aluno hoje em dia, o aluno das mídias eletrônicas e televisivas. Assim como, um novo professor, aquele que sofre os efeitos dessas mídias. E por conseqüência, surge um novo modelo de ensino/aprendizagem, uma aula pautada nessas mídias. (MRECH, 2005). Estes alunos têm dificuldade de lidar com a linguagem. Em vez do desenvolvimento da fala os alunos cada vez mais utilizam a imagem para se comunicar, que fala por si mesmo, sem necessidade de conversar a seu respeito. De um mundo pautado na imagem, a palavra ocupa um lugar secundário. A linguagem torna-se cifrada e encolhida. As formas de transmissão do ensino precisam se transformar. Elas não podem mais seguir os modelos sólidos de transmissão de saberes. Os modelos de ensino tradicionais não são mais adequados para a transmissão dos novos processos de aprendizagem dos alunos. Portanto, o ambiente haiku learning para acessibilidade ao surdo encontra-se em desenvolvimento e após a aplicação do teste (Anexo) do teste e do assessoramento dos próprios alunos, o primeiro modelo ficará pronto para em seguida poder ser validado por eles mesmos. E somente assim, as hipóteses de que este ambiente auxiliará o surdo, e minimizará sua evasão no ensino superior poderá ser afirmada. Referências Bibliográficas e Consultadas [1] AZEVEDO, Wilson. Curso “Conduzindo um Curso Online”. Disponível na url: http://www.aquifolium.com.br/educacional/workshop, acessado em 28/08/2005. [2] BRASIL, MEC. Lei de Diretrizes e Bases da Educação. Lei nº 9394/96, 1996. [3] BERSCH, R.; TONOLLI, J. C. O que é Tecnologia Assistiva? Disponível em: http://www.assistiva.com.br/Introducao_Tecnologia_Assistiv

a.pdf. Acessado em janeiro de 2014. Sociedade da informação no Brasil: livro verde. Brasília: Ministério da Ciência e Tecnologia, 2000. [4] CAMPOS, Márcia de Borba; GIRAFFA, Lúcia Maria Martins e SANTAROSA, Lucila Maria Costi. SIGNSIM: uma ferramenta para auxílio à aprendizagem da língua brasileira de sinais. Pontifícia Universidade Católica do Rio Grande do Sul, 2001. [5] CAMPOS, Márcia de Borba; GIRAFFA, Lúcia Maria Martins e SANTAROSA, Lucila Maria Costi. SIGNSIM: uma ferramenta para auxílio à aprendizagem da língua brasileira de sinais. Pontifícia Universidade Católica do Rio Grande do Sul, 2001. [6] CASTELLS, Manuel. A Galáxia da Internet: reflexões sobre a internet, os negócios e a sociedade. Tradução de Maria Luiza X de A. Borges. Rio de Janeiro: Jorge Zahar, 2003. 243 p. [7] COOK, A.M. & HUSSEY, S. M. (1995) Assistive Technologies: Principles and Practices. St. Louis, Missouri. Mosby - Year Book, Inc. [8] DAVIS, Cláudia; OLIVEIRA, Zilma. Psicologia na Educação. São Paulo : Cortez, 1994. [9] DUPAS, Gilberto. Ética e Poder na Sociedade da Informação. São Paulo: Editora UNESP, 2001. 134 p. [10] FREIRE, F.M.F.; PRADO, M.E.B.B. Revisitando o Processo de Formação de Professores na Área de Informática na Educação Especial. Anais do II Encuentro Mundial de Educación Especial y Preescolar, II Conferencia Latinoamericana de Educación Inicial y Preescolar: "Infancia y Educación". Havana, Cuba (p. 121), 1998. [11] GOTTI, M. Língua Brasileira de Sinais auxilia pessoas surdas. Revista nº 118 – PUCRS, 2004. [12] KARNOPP, Lodenir Becker. Aquisição do parâmetro Configuração de Mão na língua Brasileira dos Sinais (LIBRAS): Estudo sobre quatro crianças surdas, filhas de pais surdos. Dissertação de Mestrado. Porto Alegre: Instituto de Letras e Artes. PUCRS. 1994. [13] LÉVY, Pierre. As Tecnologias da Inteligência: O futuro d pensamento na era da informática. Tradução de Carlos Irineu da Costa. Rio de Janeiro: Ed 34, 1993. 208 p. [14] MEERSSCHAERT, Kate. EdLab Review: Haiku Learning. Columbia University, 2011. Disponível no endereço: <http://edlab.tc.columbia.edu/index.php?q=node/6673>. Data do último acesso: 03 de agosto de 2014. [15] MRECH, Leny Magalhães (org). O Impacto da Psicanálise na Educação. São Paulo: Avercamp, 2005. [16] MORAN, José Manuel. O que é um bom curso a distância? Disponível na url: http://www.eca.usp.br/prof/moran, acessado em 10/09/2005. [17] PALMA, E. J.; HERNÁNDEZ, A. G. C. Sistema de enseñanza asistido por el computador para niños con perdidas auditivas "SELOS". In: Congreso Iberoamericano de Informatica Educativa, 3., 1996, Barranquilla. Memorias... Barranquilla, Colombia: RIBIE, 1996. [18] PETERS, Otto. Didática do Ensino a Distância: experiência e estágio da discussão numa visão internacional. S. Leopoldo, RS: Editora UNISINOS. 2001. [19] QUADROS, Ronice Müller de. O Tradutor e Intérprete de Língua Brasileira de Sinais e LínguaPortuguesa. Secretaria de Educação Especial; Programa Nacional de Apoio à Educação de Surdos. Brasília : MEC; SEESP, 2004. [20] SALLES, Heloisa Maria Moreira Lima et al. Ensino da Língua Portuguesa para surdos : caminhos para a prática pedagógica. Programa Nacional de Apoio á Educação dos Surdos. Volume I. Brasília : MEC, SEESP, 2004. 2v.: il.


O software “Jogo das Letras”: exercícios de memorização para auxiliar a alfabetização de crianças com deficiência motora Gabriela Nunes Ferreira da Luz, Hilton Prado de Castro Junior Instituto Federal de Educação, Ciência e Tecnologia do Amapá – IFAP 68909-398– Macapá – AP– Brasil gabiluz@gmail.com, hilton.castro@ifap.edu.br

Abstract. The software "Game of Letters" is a program designed especially for children with motor disabilities and can also be used by anyone and age. It is based on the Método Fônico, whose literacy process is based on memorization of phonemes through successive repetitions with images and associations contributing to the perception of learning. The software initially covers the phonemes individually, in a second step the difficulty increases as the initial target is reached, the third stage, there is already a combination of phonemes into words and in the final phase, selecting among various letters, which is being crafted and associate the image with the spelling of the phoneme. Resumo. O software “Jogo das Letras” é um programa voltado, em especial para crianças portadoras de deficiência motora, podendo ser utilizado também por qualquer pessoa e faixa etária. É baseado no Método Fônico, cujo processo de alfabetização é baseado na memorização dos fonemas através de repetições sucessivas e associações com imagens contribuindo para a percepção de aprendizagem. O software, inicialmente abrange os fonemas de forma individual, numa segunda etapa a dificuldade vai aumentando a medida que seja atingida a meta inicial, na terceira fase, já há a combinação de fonemas, formando palavras e na fase final, selecionar em meio a varias letras, a que esta sendo trabalhada e associar a imagem com a grafia do fonema. demanda no Brasil. Principalmente no que tange a programas de código aberto e de O governo federal tem investido livre distribuição. cada vez mais na inclusão de pessoas com deficiência, e em especial em crianças, Atualmente é possível a criação de através de projetos de inclusão e de softwares e equipamentos de computador atendimento educacional especializado. O que auxiliem o processo de inclusão, e o mercado de equipamentos de hardware e processo de ensino e aprendizagem de softwares adaptados que visem o processo crianças com deficiência, em decorrência de inclusão social, em especial na educação, ainda é inexpressivo para a

1. Introdução


da grande discussão em torno da capacidade de analisar os fonemas que importância da inclusão digital no Brasil. compõe uma palavra, na qual também se No Brasil há um acervo em tem a consciência de que a frase pode ser crescimento, de recursos tecnológicos que dividida em palavras, estas em sílabas e as permitem aperfeiçoar a qualidade das sílabas, em fonemas [Capovilla 2007]. interações entre pesquisadores, clínicos, professores, alunos e pais na área da Educação Especial, bem como de aumentar o rendimento do trabalho de cada um deles[Capovilla, 1997].

Este método baseia-se principalmente na memorização do fonema através de repetições sucessivas, associada com a fonte de origem dos mesmos em forma de imagens aumentando a percepção de aprendizagem. Segundo [Capovilla 2007] o método Fônico defende que o texto deve ser inserido de forma gradual no processo de aprendizagem da criança, com complexidade crescente, e à medida em que a criança vá adquirindo a habilidade de realizar decodificação grafonêmica fluentemente. Ou seja, depois que a criança tiver recebido instruções específicas e sistemáticas de consciência fonológica e de correspondências entre grafemas e fonemas.

Segundo [Aguiar 2005] a declaração de Salamanca, assinada em 1994, foi um dos marcos mais significativos na inclusão no mundo, pois esta possui como principio fundamental o dever das escolas em acomodar todas as crianças, a fim de possibilitar o aprendizado em conjunto, independente de diferenças ou dificuldades que possam apresentar que sejam de origem física, intelectual, social, emocional, linguística ou outras, combatendo com isso o preconceito e contribuindo para a Quando se discute o uso de construção de uma sociedade inclusiva e softwares para facilitar e favorecer o proporcionando uma educação para todos. processo de inclusão escolar, digital e de Desta forma, torna-se essencial o aprendizagem de leitura e escrita de estudo de tecnologias, em especial o uso crianças com deficiência, principalmente do computador, para favorecer a inclusão no que se refere a déficits motores, tornaescolar de crianças com deficiência, se condição necessária abordar a temática Tecnologia Assistiva. Segundo auxiliando em seu processo de ensino e da aprendizagem. Este artigo tem como [Damasceno 2002] Tecnologia Assistiva é objetivo apresentar como o software “Jogo toda e qualquer ferramenta ou recurso das Letras” poderá contribuir para o utilizado com o objetivo de proporcionar processo de inclusão escolar e de independência e autonomia à pessoas com aprendizagem de leitura e escrita de deficiência, oportunizando qualidade de crianças com deficiência, em especial, vida e inclusão social. motora.

2. Aspectos Teóricos O “Jogo das Letras” tem como base o Método Fônico ou Sintético, o qual é considerado um processo de alfabetização mais rápido, utilizando a consciência fonológica com base para aprendizagem. Esta consciência Fonológica é a

É grande a importância que vem assumindo essas tecnologias no âmbito da Educação Especial a qual vem ganhando destaque como a parte da educação que mais está e estará sendo afetada pelos avanços e aplicações que vêm ocorrendo nessa área para atender necessidades específicas, diante às limitações de pessoas no âmbito mental, físico-sensorial e


motoras com repercussão nas dimensões essenciais ao seu processo de sócio-afetivas [Santarosa, 1997]. aprendizagem e de sua inserção na escola, Desta forma, escolheu-se trabalhar são eles:

com as Tecnologias de Informação e • duo A análise das habilidades indivie sua interação com o do meio; Comunicação, as TIC’s, que são sistemas • A identificação dos problemas; computadorizados que auxiliam na • compensatórios O reconhecimento de processos independência e autonomia, proporcionando qualidade de vida e • venção, A construção propostas de intercomo de “solução”; inclusão social de pessoas com deficiência, • para A busca dee recursos suporte apoio; alternativos principalmente no desenvolvimento de softwares adaptados. De acordo com • A verificação periódica; [Damasceno 2002] a utilização das TIC’s • funcional O treinamento visando o aspecto do individuo. como um instrumento de aprendizagem, é primordial no processo de construção do 3. Metodologia conhecimento, assim como no processo de A proposta do software “Jogo das desenvolvimento e aprendizagem de Letras” é favorecer o processo de ensino e alunos com deficiência. aprendizagem de leitura e de escrita de Na atualidade o desenvolvimento crianças com deficiência, mais de softwares é um dos pontos mais precisamente, com déficits neuromotores importantes para o avanço da inclusão na faixa etária de 04 a 12 anos. Entretanto social e digital de pessoas com deficiência. o seu desenvolvimento não impede que o Através de adaptações de hardware e software possa ser adaptado para outras software, a independência dessas pessoas faixas etárias ou pessoas que não sejam pode alcançar taxas bastante elevadas. Por portadoras de alguma deficiência. Utilizará exemplo um indivíduo pode controlar como recurso a tecnologia de Informação e qualquer dispositivo eletrônico através do Comunicação (TIC), onde software será computador, ou de dispositivos de aplicado para estimular e desenvolver os hardware e software adaptados para que requisitos necessários para o aprendizado sua função seja exercida com o mínimo de da leitura e da escrita. esforço possível. O “Jogo das Letras” possui um sisNo âmbito educacional, um tema de escaneamento que é um recurso software deve ter um caráter lúdico, a fim muito utilizado em equipamentos de auxíde favorecer a interação e a adaptação da lio para a comunicação oral ou escrita, de criança com o mesmo e com seu processo pessoas com dificuldades motoras. O indide aprendizagem de leitura e escrita. víduo tem apenas que acionar uma das teSegundo [Teixeira et al 2003] o sucesso clas do computador, como a tecla “space”, das respostas adaptativas está ligado para acionar a opção desejada, enquanto a proporcionalmente a satisfação, opção desejada estiver destacada. Pode desempenho ocupacional e negociações também ser utilizado com o auxilio de acipositivas e negativas entre a pessoa e o onadores, mouses e teclados adaptados, ambiente. possibilitando o nivelamento do uso do O software “Jogo das Letras” programa por qualquer pessoa e favorecenpossibilita desenvolver os sete aspectos do do a inclusão digital e social da criança processo de adaptação, descritos por com deficiência [Pelosi 2000]. Os aciona[Teixeira et al 2003], o quais são dores funcionam como uma chave ligadesliga para acionar qualquer dispositivo


elétrico ou a pilha. No caso do software, o mesmo poderá ser adaptado para responder aos acionamentos deste dispositivo. Ao se adaptar um acionador à um mouse, a pessoa começa a interagir com o computador, imitando o click do mouse, podendo comunicar-se de uma forma mais intensa. Os comandos, imagens, letras, sílabas e palavras são narrados ao usuário. O software é produzido para a plataforma desktop (Windows e Linux), porém ele pode ser adaptado para outras tecnologias, como dispositivos móveis e internet. Será utilizado imagens do cotidiano da criança, favorecendo a memorização e associação, tornando também o processo de ensino e aprendizagem mais prazeroso para a criança e facilitando a sua atenção e concentração durante o processo. Através da associação figura – grafema - palavra e som, será possível avaliar e desenvolver suas habilidades cognitivas, possibilitando também uma maior interação da criança com o software.

especiais de mobilidade consigam utilizar o jogo normalmente. Para permitir essa característica, o jogo fica alternando o item selecionado após um determinado tempo (que pode ser configurado pelo usuário). Quando o item que estiver selecionado for o que o usuário deseja, basta que o mesmo acione uma tecla (por padrão, é a barra de espaço) para realizar a escolha. Caso o usuário não possua limitações de mobilidade, o mouse pode ser utilizado normalmente para a seleção dos itens. A tela inicial do sistema, representada na Figura 1, já mostra as configurações atuais de visualização e tempo de espera para troca de seleção. Para questão de melhor acessibilidade, a cor de fundo, cor da fonte, cor da seleção dos itens e tempo de espera para a troca de seleção podem ser modificadas de acordo com a preferência do usuário.

4. Descrição do Software O Software “Jogo das Letras” foi desenvolvido em tecnologia e linguagem Java, utilizando a API (Interface de Programação de Aplicativos) Swing. O desenvolvimento em Java permite a utilização de programação orientada a objetos, além da utilização do aplicativo em diversas plataformas e sistemas operacionais (como Windows e Linux). As telas desenvolvidas seguem o mesmo padrão de interface, facilitando a familiaridade do usuário e evitando que o mesmo se disperse com trocas de identidades visuais durante a execução de suas tarefas durante a utilização do software. A seleção dos itens na tela pode ser realizada utilizando somente uma tecla, o que permite que pessoas com necessidades

Figura1. Tela que mostraa configuraçãodo software

Caso o usuário prefira utilizar o jogo com alguma configuração diferente, basta selecionar a opção “Alterar configuração”, através de um clique do mouse ou aguardando que a seleção troque para a opção desejada (demonstrado na Figura 2).


Figura2. Opçãode alteraçãoselecionadana tela de apresentaçãoda configuração

Após a escolha das cores e do tempo de seleção, o jogo mostrará novamente a tela inicial, agora com as cores escolhidas pelo usuário. O usuário, estando satisfeito com as configurações visuais atuais, pode prosseguir selecionando a opção “Manter configuração”.

Para alteração das configurações de cor de fundo, será mostrada uma nova tela, com opções de cores para o fundo do jogo (Figura 3). O princípio de seleção é o mesmo das demais telas, onde o usuário pode utilizar o mouse ou aguardar até que a seleção, mostrada com contorno O usuário deverá escolher a lição vermelho, esteja na opção desejada. Para de sua preferência, estando entre elas as escolha da cor da letra e cor da borda de opções: alfabeto e sílabas. contorno de itens selecionados, a tela é Escolhendo a opção de alfabeto, o semelhante à da Figura 3. usuário poderá escolher um dos grupos de letras, estando presentes os grupos: de vogais e consoantes, conforme é utilizado no processo de alfabetização tradicional.

A apresentação de cada uma das letras do alfabeto é feita demonstrando um exemplo da letra em sua forma maiúscula e minúscula, além de uma imagem ilustrativa de algum objeto que se inicie com a letra em questão. A Figura 5 mostra a tela referente à letra “C”, onde se utiliza como exemplo a imagem de uma casa. Este objeto é selecionável, onde a sua Figura3. Tela de escolhada novacor de fundo seleção resulta na narração do nome do Além das cores, o usuário deverá objeto. escolher o tempo em que o item Após a visualização da tela, o permanecerá selecionado até que a seleção usuário pode escolher retornar à letra passe para o próximo item. A Figura 4 anterior ou então prosseguir para a letra demonstra a tela em que essa escolha pode subsequente. ser feita.

Figura4. Tela de escolhado tempode seleção


Figura5. Apresentaçãoda letra “C”, como exemplo da palavra“Casa”

Damasceno, Luciana Lopes. As novas tecnologias como tecnologia assistiva: utilizando os recursos de acessibilidade na educação especial, In: III Congresso Ibero-Americano de Informática na Educação Especial , Fortaleza: CIEE , 2002.

Além da apresentação da letras, ainda há a exercitação do conteúdo aprendido pelo usuário. Para isso, os exercícios relacionados ao alfabeto, pedem para o usuário escolher qual dos objetos presentes na tela se inicia com a letra Pelosi, Miryam Bonadiu. A comunicação informada. A cada passagem da seleção alternativa e ampliada nas escolas do por algum dos objetos, o software narra o Rio de Janeiro: Formação de nome do item em questão, possibilitando a professores e caracterização dos alunos associação por meio visual e auditivo. com necessidades especiais. Rio de Janeiro: Dissertação de Mestrado em Educação defendida na Universidade do 5. Conclusão Rio de Janeiro. 2000. Atualmente o governo Federal e empresas privadas vem reconhecendo a Santarosa, Lucila M.C. Escola Virtual para a Educação Especial: Ambientes de importância de incentivos no Aprendizagem Telemáticos desenvolvimento de tecnologias para Cooperativos como Alternativa de auxiliar pessoas com deficiência. Desta Desenvolvimento. Revista de forma o software “Jogo das Letras” visa a Informática Educativa, utilização da metodologia de tecnologia Bogotá/Colômbia, UNIANDES, 10(1): assistiva favorecendo o processo de 115-138 1997. aprendizagem de leitura e escrita de crianças com deficiência, proporcionando melhorias na qualidade de vida, inclusão Sassaki, Romeu Kazumi. Terminologia sobre deficiência na era da inclusão. In: social e digital destas pessoas. O software VIVARTA, Veet (coord.). Mídia e está em fase de desenvolvimento, sendo deficiência. Brasília: Andi/Fundação passível de modificações e melhorias. Banco do Brasil, 2003.

Referências

Sassaki, Romeu Kazumi. Vida Aguiar, João Serapião de. Educação Independente: história, movimento, Inclusiva: jogos para o ensino de liderança, conceito, filosofia e conceitos.Campinas, São Paulo: fundamentos. São Paulo: RNR, 2003 Papirus, 2005. Teixeira, Érika; et al. Terapia Ocupacional Capovilla, Alessandra G. S.; Capovilla, na reabilitação física. São Paulo: Fernando C. Alfabetização: método ROCA, 2003. fônico. São Paulo:Memnon Edições Ciêntificas, 4.ed, 2007. Capovilla, Fernando C. Pesquisa e Desenvolvimento de Novos Recursos Tecnológicos para Educação Especial: Boas Novas para Pesquisadores, Clínicos, Professores, Pais e Alunos. Boletim Educação/ UNESP, n. 1, 1997.


Protótipo de Sistema de Acessibilidade e Síntese de Voz Livre e Multiplataforma Eng. Nícolas de Araújo Moreira

Prof. Dr. Eng. Paulo Cesar Cortez

Departamento de Engenharia de Teleinformática Universidade Federal do Ceará - UFC Fortaleza, Brasil nicolas@lesc.ufc.br

Departamento de Engenharia de Teleinformática Universidade Federal do Ceará - UFC Fortaleza, Brasil cortez@lesc.ufc.br

Resumo — O presente artigo visa apresentar a implementação de um sistema de acessibilidade e síntese de voz baseado na tecnologia Java Speech API voltada para portadores de deficiência visual, livre, gratuito e multiplataforma. Inicialmente são mostrados dados estatísticos sobre o número de portadores de deficiência visual no Brasil, justificando a existência do trabalho. Em seguida, são descritas brevemente as soluções já existentes no mercado. Por fim, é detalhada a solução proposta por este trabalho e então comparada com as soluções mostradas anteriormente. Palavras-Chave — Processamento de Voz. Inclusão Digital e Acessibilidade. Deficiência Visual.

Abstract— The present paper aims to present the implementation of an free, no cost and multiplatform accessibility and voice synthesis system based on Java Speech API technology for blind users. Initially are shown statistic data about blindness in Brazil, justifying the existence of this project. After that, is given a short description of existing solutions. Finally, is detailed the purposed solution and then compared with the solutions described previously. Index Terms — Voice Processing. Digital Inclusion and Accessibility. Blindness.

I. INTRODUÇÃO A Organização Mundial da Saúde (OMS) alertou em 2013 que existem 39 milhões de portadores de deficiência visual no mundo. Outros 246 milhões sofrem de perda moderada ou severa da visão [1]. Segundo a Secretaria de Direitos Humanos da Presidência da República, conforme consta na Cartilha do Censo 2010 sobre pessoas com deficiência, 18,6% da população brasileira apresenta deficiência visual em algum grau, sendo 3,46% severa e 1,6% totalmente cegas [2]. No que se refere à interface dos softwares destinados aos deficientes visuais, podemos considerar o processo de síntese de voz como sendo um dos mais relevantes. Um sintetizador – também chamado de sistema Text-to-Speech (TTS), é um sistema capaz de ler textos, no idioma para o qual foi desenvolvido, e produzir os respectivos fonemas (sons). Ainda nesse contexto o reconhecimento de voz permite que computadores reconheçam a linguagem falada e determine o que foi dito, exercendo também um papel importante na interface homem-máquina.

Apesar do investimento substancial em pesquisa de tecnologias de voz nos últimos 40 anos, as tecnologias de síntese de voz ainda apresentam limitações significativas, quase sempre não atingindo a expectativa dos usuários, apresentando pronúncias inadequadas, voz pouco natural, entonação incorreta e dificuldade de reconhecer contextos (como, por exemplo, o número 110 ser sintetizado como "um um zero" ao invés de "cento e dez" ou 1kg ser sintetizado como "um k g", ao invés de "um quilo", etc.). Softwares de acessibilidade inadequados para deficientes visuais não apenas tornam espaços de trabalho ineficientes e frustrantes como também perdem muita produtividade por subestimarem as capacidades dos funcionários. E os resultados podem ser ainda piores, como dificuldade para se inserir no mercado de trabalho e dificuldade de aprendizagem. Um deficiente visual que use hardware e software apropriados consegue trabalhar pelo menos tão rápido quanto alguém sem deficiência visual. Em um ambiente escolar, por exemplo, quando são detectados alunos que apresentem algum grau de redução visual, a conduta mais indicada deve ser, sempre, no sentido de buscar e garantir os recursos didáticos e pedagógicos que melhor atendam às necessidades destes indivíduos. Considere alguém que sofreu uma perda da visão. Tarefas simples como ler um jornal ou correspondências são tarefas impossíveis. Ajustar um alarme de um relógio digital, fazer uma ligação telefônica ou ler e-mails sem auxílio também podem se tornar tarefas praticamente impossíveis, mas nesse caso isso ocorre porque simplesmente o projeto desses sistemas assume que todos os consumidores possuem as mesmas habilidades. As barreiras encontradas pelos usuários portadores de deficiência visual afetam áreas como emprego, educação e a possibilidade de uma vida independente. Se uma pessoa não consegue usar um telefone, atividades são severamente restritas porque até mesmo comunicações básicas se tornam difíceis. Se uma pessoa não consegue operar um computador, conseguir uma vaga de emprego ou frequentar uma universidade se tornam atividades desafiadores, ou até talvez impossíveis. Se as pessoas desejam ter acesso à internet mas não conseguem ler o conteúdo das páginas, elas não têm acesso ao comércio eletrônico, informações básicas e até mesmo interações sociais. Até mesmo a privacidade fica afetada, uma vez que ela deverá delegar a outras pessoas tarefas de natureza pessoal, como ler


e-mails. Em resumo, a falta de acessibilidade tira do portador de deficiência visual independência e liberdade [3]. Diante deste cenário, o projeto propõe uma solução multiplataforma e de baixo custo, de tal forma que garanta aos deficientes visuais acesso aos recursos oferecidos pela informática, gerando alto impacto na integração social desse grupo. II. MOTIVAÇÃO E OBJETIVOS DO TRABALHO A principal motivação do projeto é a inclusão digital dos portadores de deficiência visual (em seus diversos níveis). Apesar da existência de vários sistemas de acessibilidade e síntese de voz, a maioria deles apresenta uma série de desvantagens, conforme citado no início deste capítulo. O projeto visa a implementação de um sistema de acessibilidade e síntese de voz baseado na tecnologia Java Speech API, voltados para portadores de deficiência visual, sendo composto por sintetizador de voz, editor de texto, cliente de e-mails, cliente de chat, navegador web em modo texto e lente de aumento. Por ser desenvolvido em Java, o sistema é multiplataforma, ou seja, é capaz de ser executado em ambiente GNU/Linux, Mac OS e Microsoft Windows, por exemplo. O projeto deve seguir o modelo de software livre e gratuito (em oposição à maioria das interfaces atuais que são fechados e apresentam alto custo financeiro), sendo portanto de código aberto e de livre distribuição para que os interessados possam fazer modificações e uso de acordo com suas necessidades, facilitando e acelerando ainda mais o processo de inclusão digital de deficientes visuais. III. SOLUÇÕES DE SOFTWARE EXISTENTES ATUALMENTE Infelizmente, desde o início da computação orientada ao mouse, o desktop gráfico foi projetado para usuários que trabalham dentro de um contexto visual. Entretanto, atualmente têm surgido soluções que visam mudar essa situação na tentativa de garantir aos portadores de deficiência visual o acesso aos recursos da informática. A. DOSVOX E LINVOX De acordo com o Manual do Usuário do Sistema DOSVOX: “O DOSVOX é um sistema para microcomputadores da linha PC que se comunica com o usuário mediante síntese de voz, viabilizando o uso de computadores por deficientes visuais. [...] O programa é composto de: • Sistema operacional que contém os elementos de interface com o usuário; • Sistema de síntese de fala para língua portuguesa; • Editor, leitor e impressor/formatador de textos; • Impressor/formatador para braille; • Programas de uso geral adaptados a cegos: caderno de telefones, agenda, calculadora, preenchedor de cheques, etc; • Jogos diversos; • Ampliador de telas para pessoas com visão reduzida;

• Programas para ajuda à educação de crianças com deficiência visual; • Clientes para acesso à Internet, como Correio Eletrônico, Telnet, FTP e acesso a WWW; • Aplicativos multimídia, como tocador de CDs e arquivos de som, gravador de áudio, conversores de formatos e interfaces com programas populares para Windows; • Leitor de telas para Windows. Desenvolvido pelo Núcleo de Computação Eletrônica da Universidade Federal do Rio de Janeiro, sob a supervisão do prof. Antonio Borges, da Divisão de Assistência ao Usuário. Da equipe de desenvolvimento participam também programadores deficientes visuais. [...] O sistema DOSVOX tem um grande impacto social pelo benefício que ele traz aos deficientes visuais, abrindo novas perspectivas de trabalho e de comunicação e hoje conta com mais de 10000 usuários em todo o Brasil.” Fonte: [4] Entretanto, ao contrário do que consta no manual, o DOSVOX não é um sistema operacional, uma vez que necessita de uma plataforma operacional para ser executada e não é responsável por tarefas de gerenciamento de hardware (memória e E/S), processos ou sistemas de arquivos. O sistema em sua maior parte é baseado em vozes pré-gravadas - o que limita as possibilidades de interação com o sistema, portanto não é síntese em si. Por ter sido desenvolvido em Pascal, não faz proveito da portabilidade oferecida pelo Java. O sistema foi desenvolvido nativamente para Windows, e embora possa ser usado por meio do Wine no GNU/Linux, tal solução pode tornar o sistema instável. O projeto gratuito LINVOX é a implementação do DOSVOX em Linux, ao executar o mesmo no referido ambiente usando o Wine e contém um pacote de aplicativos nativos de código aberto que possibilitam acessibilidade ao Linux baseado no DOSVOX com um sintetizador de voz em português e um leitor de tela também de código aberto (devido à grande tendência na época de sua criação na utilização do Linux) que possui acesso completo ao ambiente gráfico do Linux, funciona em modo texto e gráfico e compatível com várias distribuições. B. ADRIANE Apesar da comunidade Linux oferecer diversos ótimos auxílios e ferramentas para suporte a usuários com deficiências, simplesmente fazer todos esses programas funcionarem exige muito trabalho, ao menos que venham pré-instalados e préconfigurados. O nome ADRIANE (Audio Desktop Reference Implementation And Networking Environment – Ambiente de Rede e Referência para Implementação de Desktop Auditivo) descreve uma interface de usuário passo-a-passo linear e fácil de usar, organizada em menus de acordo com as preferências do usuário. Foi integrado neste projeto leitores de tela, sintetizadores de voz, drivers Braille, navegação pelo teclado e


programas que podem ser inteiramente controlados em modo não gráfico. A equipe do ADRIANE chegou à conclusão de que as interfaces dos softwares deveriam adaptar-se às capacidades dos usuários, em vez de força-lo a se adaptar a uma interface que jamais teve como objetivo oferecer suporte a cegos. O menu do ADRIANE ordena as tarefas mais comuns numa estrutura plana, sem comandos a serem lembrados ou digitados. A primeira linha diz “Enter para ajuda, seta para baixo o próximo menu”, que é um bom ponto de partida quando se interage com uma interface não visual pela primeira vez. A pedido especial de usuários e programadores cegos mais experientes, depois foi acrescentado um item Shell ao primeiro menu. Em geral, o menu é fácil de estender e funciona em modo texto assim como em modo gráfico, graças ao dialog e Xdialog. Os utilitários que acompanham o ADRIANE, incluindo ferramentas como Elinks, Mutt, Irssi, MPlayer e Sane/OCRPlus, cobrem as atividades mais populares de usuários finais e rodam com facilidade em consoles de texto juntamente com o leitor de tela. Uma especialidade que ainda não apareceu em sistemas proprietários sem barreiras é a opção de ler e enviar mensagens de texto SMS com um celular, sem qualquer software no próprio telefone. Com o GSM, o usuário do ADRIANE consegue baixar mensagens SMS para o computador e responde-las com uso de um editor e um teclado normal, em vez das pequenas telas do telefone. O sistema ADRIANE está disponível no Live CD ou DVD do Knoppix desde a versão 5.3 por meio da opção de inicialização Adriane. Também é possível remasterizar o CD ou DVD para usar o Adriane como opção padrão [5]. C. Projeto NatalNet O Projeto NatalNet (www.natalnet.br) prevê a implementação de um sistema leitor de páginas HTML, cujo objetivo é sintetizar áudio a partir do processamento de páginas HTML. Uma vez pronto, o sistema permitirá que deficientes visuais naveguem através da internet escutando o conteúdo das páginas. VoiceProxy é um sistema em desenvolvimento no contexto deste projeto [6]. D. O XLupa O XLupa é uma lente de aumento (ampliador de tela) digital inteligente para pessoas portadoras de deficiência, particularmente, pessoas com baixa visão. Trata-se de um projeto em conformidade com a filosofia de software livre. O Grupo de pesquisa em Inteligência Aplicada (GIA) da Universidade Estadual do Oeste do Paraná (UNIOESTE) tem procurado dar à área. O X-Lupa é um software desenvolvido em Java que se encontra em desenvolvimento desde o final de 2004, por pesquisadores do Núcleo de Inovações Tecnológicas (NIT) e do Programa Institucional de Ações Relativas às Pessoas com Necessidades Especiais (PEE), ambos vinculados à UNIOESTE, em parceria com a Secretaria Estadual de Educação do Paraná – CETE / SEED / PR, a Associação de Deficientes Visuais – ACADEVI, o Centro de Atendimento

Especializado à Criança – CEACRI e o Centro de Apoio Pedagógico à Pessoa com Deficiência Visual – CAP. Objetivo é desenvolver, pela aplicação de um método computacional, pedagógico e oftalmológico integrado, a especificação e implementação de um software educacional para pessoas com baixa visão. Os resultados indicam que para atingir a meta previamente estipulada, tanto a linguagem de programação quanto o próprio ambiente operacional precisam dispor de recursos que permitissem ao sistema não apenas a portabilidade, mas também outras facilidades, que incluem a programação gráfica e a inteligência do produto. Em consequência, para a implementação do software, foi adotada, de um lado, a linguagem Java e, de outro, o Linux. Java, porque, além de ser uma linguagem que viabiliza a construção de programas portáveis, dispõe de recursos para a programação de agentes computacionais. Quanto ao Linux, torna-se atrativo principalmente por se tratar de uma plataforma livre, o que nos assegura a construção de um software de código aberto, um dos objetivos centrais do projeto [7]. IV. O JAVA SPEECH API A maioria das tecnologias de voz estão implementadas em C e ++ e são voltadas para plataformas específicas, como a Apple Speech Manager e Microsoft's Speech API (SAPI) ou outras APIs proprietárias. Sintetizadores e reconhecedores de voz escritos em Java podem beneficiar da portabilidade da plataforma Java e das suas melhorias contínuas principalmente com relação à velocidade de execução da Java Virtual Machine (JVM). A JavaTM Speech API (JSAPI), desenvolvida pela então Sun Microsystems (empresa que posteriormente foi adquirida pela Oracle) em cooperação com empresas de tecnologias de voz, define uma interface de software que permite desenvolvedores tirarem vantagem das tecnologias de voz para computação empresarial e pessoal. A Java Speech API permite desenvolvedores criarem aplicações com capacidade de síntese e reconhecimento de voz, incorporando interfaces mais sofisticadas e naturais para o usuário a aplicações Java e applets que podem ser utilizadas em um amplo número de plataformas. A Java Speech API define um padrão de interface de software multi-plataforma, fácil de usar e que é o estado da arte na tecnologia de voz. Duas tecnologias principais são suportadas pela JSAPI: reconhecimento e síntese de voz. A Java Speech API foi desenvolvida por meio de um processo de desenvolvimento aberto. Com o envolvimento ativo de companhias líderes em tecnologias de voz, desenvolvedores de software, sob meses revisão pública e atendendo a diversas sugestões, a especificação atingiu um alto grau de excelência técnica. A Java Speech API é uma extensão da plataforma Java. Extensões são pacotes de classes escritas em Java que desenvolvedores podem utilizar para estender as funcionalidades do núcleo da plataforma Java. Os principais objetivos da Java Speech API incluem:


Prover suporte a sintetizadores de voz e reconhecedores de voz para comando e controle;  Prover uma interface multi-plataforma robusta para síntese e reconhecimento de voz;  Permitir acesso ao estado da arte em tecnologia de voz;  Fornecer suporte à integração com outras funcionalidades da plataforma Java, incluindo Java Media API;  Ser simples, compacto e fácil de aprender. A Java Speech API oferece:  Portabilidade: a linguagem de programação Java, as APIs e a máquina virtual Java estão disponíveis para uma ampla variedade de plataformas de hardware e sistemas operacionais além de ser suportado pelo pela grande maioria dos navegadores Web;  Ambiente compacto e poderoso: a plataforma Java provê aos desenvolvedores uma linguagem poderosa, orientada a objeto, com garbage collector (coletor de lixo), que permite um rápido desenvolvimento e maior confiabilidade (alto nível de tolerância a falhas);  Suporte a rede e segurança: desde sua concepção. A plataforma Java tem sido voltada para aplicações em rede, com robustez e segurança. A Java Speech API é uma das APIs Java Media, um conjunto de interfaces de software que fornecem acesso multiplataforma a recursos de áudio, vídeo, gráficos 2D e 3D, animação, telefonia, etc. A Java Speech API, em combinação com outras APIs do Java Media, permite desenvolvedores enriquecer aplicações Java e applets com recursos de mídia e comunicações que atendam às expectativas dos usuários de hoje em dia e que podem aprimorar a comunicação entre as pessoas. Além disso, os recursos de internacionalização oferecidos pela linguagem de programação Java aliado aos caracteres Unicode simplificam o desenvolvimento de aplicações de voz em diversas línguas. Em conjunto com PersonalJava e EmbeddedJava, ela permite que dispositivos portáveis se comuniquem com usuários sem a necessidade de teclado ou grandes periféricos. A JSAPI não exige necessidade de hardware específico, apenas dispositivos de entrada e saída de áudio comuns. Fones de ouvido são particularmente recomendados em ambientes onde há presença de ruído. O Java Speech API em conjunto com o Java Speech Markup Language (JSML) fornecem diversas formas para o desenvolvedor de aplicações melhorarem a qualidade do sinal gerado por um sintetizador de voz [3]. O Java Synthesis Markup Language (descrito detalhadamente em uma especificação própria) define marcadores com informações que permitem ao sintetizador melhorar a qualidade da saída resultante, que incluem:  Marcar o início e o fim de parágrafos e sentenças;  Especificar pronúncias de qualquer palavra, acrônimo, abreviação ou representações textuais especiais;  Explicitar controle de pausas, ênfases, entonações, velocidade, volume a fim de melhorar a métrica [8].

V. DESENVOLVIMENTO DO PROJETO PROPOSTO O sistema é baseado na API Java Speech, de forma a garantir a portabilidade. Desta forma, o sistema foi projetado visando sua execução em todas as plataformas operacionais que ofereçam suporte à Java Virtual Machine, como GNU/Linux, Mac OS e Microsoft Windows. Quanto à síntese, observou-se que apesar de mais natural, utilizar vozes pré-gravadas ocupa um considerável espaço em disco, o que pode tornar esta solução inviável para sistemas embarcados por exemplo. Além disso, vozes pré-gravadas são adequadas apenas quando se já conhece previamente o texto a ser falado, o que limita as possibilidades de interação com o usuário. O Projeto é composto por sintetizador de voz (concluído e cuja interface de teste é mostrado na Figura 1), editor de texto, leitor de e-mails, chat (concluído, mostrado na Figura 2), navegador web em modo texto (a melhorar, ver Figura 3), lente de aumento (concluído, mostrado na Figura 4), agenda e cliente VoIP.

Figura 1. Interface de Teste do Sintetizador de Voz.


Figura4. Lente de Aumento Virtual mostrando parte da interface no Netbeans com ampliação de 3X. Figura 2. Interface da Aplicação de Chat.

O sistema é totalmente baseado na filosofia de software livre, com código fonte aberto e de livre distribuição, para que a comunidade possa colaborar abertamente no desenvolvimento do projeto além de abrir possibilidade de personalização e modificação para aplicações específicas para eventuais interessados. Além disso o mesmo será gratuito, de forma a garantir aos deficientes visuais dos mais diferentes níveis sociais amplo acesso aos recursos oferecidos pela informática, gerando alto impacto na integração social desse grupo. VI. RESULTADOS OBTIDOS E CONCLUSÃO A portabilidade do sistema foi testada em ambientes GNU/Linux e Microsoft Windows, apresentando resultados satisfatórios. A Tabela I mostra um comparativo do projeto proposto com algumas das soluções de acessibilidade disponíveis atualmente. TABELA I. COMPARATIVO ENTRE SOLUÇÕES.

Figura 3.Interface do Navegador Web.

Projeto Proposto DOSVOX

LINVOX

ADRIANE JAWS Virtual Vision

Tipo Síntese

Licença Livre

Custo Gratuito

Vozes PréGravadas Vozes PréGravadas Síntese -

Livre

Gratuito

SO Linux, Windows e MacOS Windows

Livre

Gratuito

Linux

Livre Proprietário

Linux Windows

-

Proprietário

Gratuito R$ 1.800,00 R$ 3.800,00

Windows


A arquitetura proposta é nativamente multiplataforma - ao contrário do DOSVOX que foi desenvolvido nativamente para Windows e que é executado no Linux apenas se houver o Wine instalado, ou do ADRIANE, que é um ambiente puramente Linux. Embora soluções livres sejam as ideais, tanto por ter uma filosofia de desenvolvimento colaborativo (e consequentemente mais rápido) como pelo baixo custo, não se pode forçar os usuários a adotarem um sistema operacional com o qual os usuários possivelmente não estejam habituados a usar. Diante do exposto, pode-se afirmar que o projeto proposto nesta artigo se apresenta como uma solução bastante viável como forma de integrar socialmente deficientes visuais e evitando que este grupo seja vítima de exclusão digital, assegurando assim, um direito que é garantido pela constituição que é o acesso livre a informação para todos os brasileiros de forma igualitária. VII. TRABALHOS FUTUROS Dentre os trabalhos futuros, estão previstos:  Melhorias na qualidade da síntese de voz (adaptando para a fonética da língua portuguesa, melhorando a prosódia e fazendo um melhor reconhecimento de contexto a fim de sintetizar de forma adequada valores numéricos) e no navegador web, além de desenvolver o editor de texto, leitor de e-mails, a agenda e o cliente VoIP;  Realizar estudo de Diálogo Natural, Mágico de Oz e Estudo de Usablidade em Campo, no Instituto dos Cegos a fim de validar a versão final do projeto;  Estudar a possibilidade de portar o sistema para plataformas móveis baseadas em Android. AGRADECIMENTOS Os autores gostariam de agradecer ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) pelo apoio financeiro dado à pesquisa.

REFERÊNCIAS [1] NAÇÕES UNIDAS NO BRASIL, "http://www.onu.org.br/oms-afirma-que-existem-39milhoes-de-cegos-no-mundo/". Junho 2014. [2] SECRATARIA DE DIREITOS HUMANOS DA PRESIDÊNCIA DA REPÚBLICA. Cartilha do Censo 2010 Pessoas com Deficiência. 32p. Brasília, 2012. [3] SUN MICROSYSTEMS. GNOME 2.0 Desktop: Developing With the Accessibility Framework. Sun Microsystems. 2003. [4] BORGES, José Antônio. Manual do Sistema Operacional Dosvox. Versão 3.2. Núcleo de Computação Eletrônica Universidade Federal do Rio de Janeiro. Rio de Janeiro, 2005. [5] KNOPPER, Klaus. Desktop Auditivo. Revista do Linux. 51a Edição. Fevereiro de 2009. [6] SANTOS, Andréa dos; FRANÇA, Halisson Fabrício de Carvalho; GOMES, Ítalo Herbert Santos e; TEIXEIRA, Wander Glayson Fernandes; FILHO, Guido Lemos de Souza. Desenvolvimento de aplicações para Deficientes Visuais: Uma discussão sobre Ferramentas para Incorporação da Tecnologia de Voz ao VoiceProxy. Universidade Federal do Rio Grande do Norte. [7] BIDARRA, Jorge; DIÓGENES, Carlos Eduardo Rodrigues. XLUPA - Uma lente de aumento digital inteligente para pessoas com baixa visão. In: III Seminário e II Oficina "Acessibilidade, TI e Inclusão Digital". São Paulo, 20005. [8] SUN MICROSYSTEMS. Java Speech Markup Language Specification. Versão 0.5. Sun Microsystems. Mountain View, Agosto de 1997. [9] MARANGONI, Josemar Barone; PRECIPITO, Waldemar Barilli. Reconhecimento e Sintetização de Voz Usando Java Speech. In: Revista Científica Eletrônica de Sistemas de Informação (ISSN 1807 - 1872). 2006. [10] SÁNCHEZ, Jaime; AGUAYO, Fernando. APL: Audio Programming Language for Blind Users. In: VII Congresso Iberoamericano de Informática Educativa.


SIACA – Sistema Inteligente para Acessibilidade de Cegos em Arduino Monck C. N. de Albuquerque

Rubens A. Monteiro

Samuel J. Lima

Instituto Centro de Ensino Tecnológico

EEEP Maria Dolores Alcântara e Silva

EEEP Maria Dolores Alcântara e Silva

- CENTEC

Av. Juvenal de Castro, 609 - Centro,

Av. Juvenal de Castro, 609 - Centro,

Rua Silva Jardim, 515 - José Bonifácio,

Horizonte – CE, 62880-000

Horizonte – CE, 62880-000

Fortaleza – CE, 60040-260

rubensarrudamonteiro@gmail.com

samueljadisonlima@gmail.com

monckcna@gmail.com

Resumo – A necessidade de comunicação em uma era globaliza-

chão é quase impossível, devido a uma falta de incentivo a

da é de suma importância, entretanto presenciamos uma cres-

acessibilidade em ambientes públicos.

cente exclusão de várias parcelas da sociedade. Nesta perspectiva este trabalho objetiva contribuir para inclusão de um grupo

Para desenvolver o equipamento proposto, foi feito um

especial: os deficientes visuais. Desempenhando isto através de

levantamento bibliográfico, o qual subsidiou na escolha do

uma ferramenta eletrônica capaz de se comunicar e interagir

microcontrolador para suprir as necessidades do projeto. Essa

com todos os ambientes de um deficiente visual, minimizando

escolha deu-se a partir das proposições de [1] e [2] que con-

suas dificuldades diárias.

tribuíram para melhor exposição, definição das ferramentas

Palavras-chave – Deficiente visual, Arduino, Acessibilidade. Abstract – The need for communication in an era of globalization is of paramount importance, however witnessed an increasing exclusion of various segments of society. From this perspec-

adotadas. Ademais, outras referências imprescindíveis para o desenvolvimento deste trabalho foram: [3] e [4], pois viabilizaram uma abordagem concisa e aplicada das funções que regem a programação do microcontrolador escolhido.

tive this paper aims to contribute to the inclusion of a special group: the visually impaired. Playing it through an electronic

Deste modo, este trabalho propõe de forma simples possi-

tool to communicate and interact with all environments of a

bilitar mais autonomia ao deficiente visual, quebrando várias

visually impaired, minimizing their daily difficulties.

barreiras da incapacidade de enxergar. O Sistema Inteligente

Index Terms – Visually impaired, Arduino, Accessibility.

Para Acessibilidade De Cegos em Arduino (SIACA) pode interagir com lojas, hospitais, bancos, delegacias, identificar a

I. INTRODUÇÃO

proximidade com veículos ou objetos, sugerir desvios e in-

De acordo com Manso (2003), a deficiência é caracterizada

formar tudo isto ao seu usuário, procurando sempre utilizar

pela perda ou falha de uma estrutura e/ou função, seja ela

componentes portáteis e de baixo custo. Tendo como finali-

psicológica ou fisiológica ou anatômica que por si mesma irá

dade a integração do deficiente com o meio.

gerar a incapacidade para realizar determinadas atividades

II. O HARDWARE

dentro do padrão normal do ser humano. Na dinâmica social pós-moderna é clara a exclusão de um

De acordo com BOGDAN & BIRKLEN (1994, p.11), a

grupo como os cegos, estes rechaçados já somam 35 milhões

investigação qualitativa é uma metodologia “que enfatiza a

segundo o censo realizado em 2010 pelo Instituto Brasileiro

descrição, a indução, a teoria fundamentada e estudo das

de Geografia e Estatística (IBGE). Para eles tarefas como ir

percepções pessoais”. Segundo eles, os dados coletados,

ao supermercado, identificar carros ou irregularidades no

nessa forma de investigação são riscos menos descritivos. Por


isto se fez necessário o estudo do cotidiano desses deficientes, buscando observar seus maiores problemas.

O Arduino IDE é uma aplicação multiplataforma escrita em Java [6], utilizada para compilar o algoritmo em linguagem de programação C para o mircrocontrolador.

Após observar as necessidades no dia-a-dia de um cego total, o deslocamento na rua e a falta de orientação foram os seus maiores impasses. Para suprir estas necessidades a plataforma de prototipagem Arduino mostrou melhor custo-

Além de dar suporte a placas genéricas, a aplicação é compatível com as plataformas Linux, Mac OS e Windows. Por esses recursos o Arduino foi o microcontrolador escolhido para o projeto.

benefício podendo controlar sensores, motores, sonorizadores, dentre outros.

IV. O ALGORITMO O sketch, bloco de código inicial apresentou erros de detecção de objetos, informando distâncias inconsistentes e imprecisas, esse problema foi solucionado por meio do controle da velocidade do disparo da onda ultrassônica, impondo um limite mínimo de 2s. O limite mínimo estipulado da velocidade foram frutos de diversos testes, os quais tinham o objetivo de procurar valores que se adequassem ao uso do

Figura 1. Placa Arduino Uno [3]

deficiente visual. Na Figura 2, é exposto um fluxograma que descreve a forma de entrada dos dados.

O sistema escolhido para comunicação do SIAC com os estabelecimentos foi o RFID (Radio Frequency Identification), pois este realiza comunicação via rádio com etiquetas carregadas de informações (TAGs). Estas possuem fácil fixação nos estabelecimentos, e possibilitam a troca de informações ao se aproximar um sensor. Os sensores telêmetros ultrassônicos permitem verificar a distancia do equipamento até o objeto sem tocá-lo, por isso foi o artifício escolhido para detectar objetos próximos ao

Figura 2. Fluxograma do algoritmo

aparelho. Para o acoplamento dos componentes do SIACA, uma bengala tradicional foi considerada a melhor opção para atender as necessidades do protótipo. Buscando sempre utilizar componentes discretos, eficientes e leves para facilitar a

O código para o projeto necessitou de contínuas revisões até o seu aperfeiçoamento, buscando trazer o máximo de eficácia para quem utiliza o sistema, pois esta é a principal preocupação do projeto.

sua utilização pelo deficiente visual. Após isto, o próximo V. TELÊMETRO ULTRASSÔNICO

passo foi o desenvolvimento do código para o micro controlador, elaborado no Arduino IDE. III. ARDUINO IDE

O telêmetro ultrassônico e projetado para detectar a distancia de um objeto, refletindo nele um pulso sonoro ultrassônico e verificando o tempo que demora até que o pulso retorne [7].


O sensor de distância ultrassônico detectou objetos até sete

O dispositivo apresentou características extremamente

metros de distância do equipamento, apresentando-se também

entusiastas para seu custo, instituições públicas locais (Postos

útil em ambientes fechados, com detecções a partir de cinco

de Saúde, Escolas e Prefeitura) e instituições privadas (Su-

centímetros, enviando estas informações através de sinais

permercado e Lojas), exprimiram disposição em adquirir

sonoros e vibrações para o usuário de acordo com a distância

TAGs para seus estabelecimentos, por ser uma tecnologia

do objeto. Sendo um sistema dinâmico, este detectou objetos

barata e de extrema relevância para garantir a acessibilidade

em movimento, e recomendou um sentido alternativo.

dessas pessoas ou para atingir consumidores em potencial. Durante os testes observamos a importância do sistema de

VI. RFID

verificação de distância que preveniu um acidente ao detectar

Leitores RFID (Radio Frequency Identification, identifica-

um carro enquanto o seu utilizador atravessava uma via, bem

ção por radiofrequência) se caracterizam pelo seu baixo custo

como quando um cego que utilizava o equipamento se im-

de aquisição, atualmente é um recurso muito utilizado por

pressionou quando conseguiu se comunicar com seu espaço

empresas para o registro do seu estoque, integrando-se a

através do componente RFID. Os benefícios assistidos pelos

vários outros sistemas [7]. Dessa forma, suprindo as necessi-

usuários do SIAC foram além de suas expectativas, este se

dades do projeto.

adaptou a vários tipos de ambientes, promovendo ao deficien-

De acordo com medições realizadas em experimentos, o alcance máximo do sensor do sistema RFID utilizado no

te visual muito mais do que um equipamento, uma nova forma de interação com seu meio social.

projeto, foi de doze centímetros da TAG que possuía informações previamente cadastradas no sistema. Esta detinha códigos para o nome e a localização do estabelecimento, comunicando-se com o dispositivo e enviando estas informações via áudio para o indivíduo. VII. UTILIZAÇÃO

Após o aperfeiçoamento do projeto se verificou através de Figura 3. Foto do protótipo

uma pesquisa com seis deficientes visuais matriculados no Centro de Atendimento Clínico Educacional (CACE) de Horizonte - CE que utilizaram o equipamento, 83,3% consideraram o trabalho inovador e útil para o cotidiano, 16,7%

REFERÊNCIAS

acharam que a ferramenta necessitava de melhorias, e 100% dos entrevistados acreditaram que iniciativas como este projeto são essenciais para a formação de uma sociedade mais

[1] THOMPSOM, Clive. Build it. Share it. Profit. “Can Open Source Hardware Work?”. Wired Magazine, 2008.

igualitária. Estes fatos demonstram que o desenvolvimento da tecnologia em favor da acessibilidade traz benefícios que ultrapassam dados estatísticos, eles mudam a visão e trazem esperança para um grupo que necessita de mais atenção.

[2] PAPERT, Seymour. Mindstorms: Children, Computers and Powerful Ideas. Basic Books. New York, 1980. [3] ARDUINO, site Arduino. http://www.arduino.cc. Último acesso: Maio/2014.

VIII. CONCLUSÃO [4] MARGOLIS, M. Arduino Cookbook. Sebastopol, CA, USA: O' RilleyMedia, 2011, p1.


[5] MCROBERTS, Michael. Arduino Básico. Tradução de Rafael Zanolli. Traducao: Rafael Zanolli. Novatec 2010. [6] Diego Kasuo, Felipe Amarante, Rodrigo Medeiros e Silvia Lins. Sob supervisão do Professor Marcelo Barretto (24 de maio de 2010). Projetos com Arduino (em português). UFPA. Página visitada em 12 de agosto de 2010. [7] BHATT, H.; GLOVER, B. Fundamentos de RFID: Rio de Janeiro:Altas Books, 2007.


SIMULAÇÃO DA LOCOMOÇÃO E CONTROLE AUTOMÁTICO DE UMA CADEIRA DE RODAS MOTORIZADA COM USO DE COMANDOS DE VOZ ALEXANDRE L. C. BISSOLI, BRUNO L. S. DA SILVA, LUIS E. M. DE LIMA, RODRIGO V. ANDREÃO. Coordenadoria de Engenharia Elétrica, Campus Vitória, Ifes Av. Vitória, 1729, 29040-780 Vitória, ES, BRASIL E-mails: luisedu@ifes.edu.br, rodrigova@ifes.edu.br Abstract  This article is devoted to the simulation of a robotic wheelchair navigation in a residential environment structured through a map and the first tests of the automatic control using a wheelchair. It is described the trajectory generation algorithm which takes into consideration jerk at the start and at the end position, making the trajectory smooth to the user. The wheelchair is controlled by voice command, which employs a post processing step to improve noise robustness and to reduce command error rate. Keywords  Speech Recognition, Wheelchair, Intelligent Automation Resumo Este artigo trata da simulação da navegação de uma cadeira de rodas em um ambiente residencial estruturado com mapa e os primeiros testes do controle automático de uma cadeira de rodas. É apresentada a geração de trajetórias com análise do jerk na partida e na chegada, tornando a trajetória suave para o usuário. A cadeira é acionada por um sistema de reconhecimento de voz que utiliza técnicas para aumento da robustez a ruídos. Palavras-chave Reconhecimento de Voz, Cadeira de Rodas e Automação Inteligente.

1

Introdução

De acordo com o IBGE (Instituto Brasileiro de Geografia e Estatística) a população brasileira atual é de aproximadamente 190 milhões de pessoas (censo 2010), desse total 23,9% possui algum tipo de deficiência e 6,96% (aproximadamente 13,3 milhões de pessoas) possui deficiência motora para locomoção. Essa realidade justifica os esforços em pesquisa objetivando contribuir para a melhoria da qualidade de vida destas pessoas. Neste enfoque de pesquisas enquadram-se os projetos que visam melhorias para a mobilidade dos cadeirantes. Este artigo é a descrição das contribuições e resultados obtidos em uma pesquisa na qual realizou-se a simulação da navegação de uma cadeira de rodas em um ambiente residencial fictício, com a geração de trajetórias definida a partir de comandos de voz. As cadeiras de rodas automatizadas podem ser consideradas robôs móveis a rodas com uso de um sistema de locomoção do tipo tração-diferencial. Com o enfoque da robótica móvel, um dos desafios a ser vencido é dotar estas cadeiras de autonomia suficiente para o planejamento e execução de trajetórias minimizando a necessidade de intervenção do usuário, que se limita a definir origem e destino (posição e orientação, inicial e final) da trajetória desejada. O Planejamento de Caminhos e a Geração de Trajetórias são duas funções essenciais de um planejador de movimentos para robôs móveis autônomos, sendo que, a função Planejamento do Caminho realiza o planejamento geométrico do melhor caminho que leva a cadeira da origem ao destino desejado, podendo ser considerado o mapeamento do ambiente (ambiente estruturado) ou a execução de comportamentos reflexivos para detecção de obstáculos e fuga de colisões. Complementando o planejamento, a

função de Geração da Trajetória define a cinemática para a execução de um determinado caminho, ou seja, as relações entre posição, velocidade e aceleração sob as quais a cadeira estará submetida em cada instante de tempo para que a execução do caminho seja realizada respeitando a restrição tempo de execução (Cruz, 2011). Para as trajetórias tratadas neste trabalho são considerados dois tipos de perfis de velocidade, o trapezoidal e o perfil em S, sendo que, os perfis de velocidade em S estabelecem variações de aceleração denominadas “jerk”, que exercem influência sobre o conforto do usuário a ser também analisada neste artigo (Rew, 2010). Como a interface homem-máquina utilizada neste projeto foi projetada para contemplar o uso de comandos de voz, processo este definido como a conversão eletrônica de um sinal de áudio em palavras (Anusuya, 2009), vale ressaltar outro desafio, que é a obtenção de uma relação sinal-ruído para a captura dos comandos de voz, que permita o correto desempenho do sistema. Conforme apontado por Park et al. (2007), apesar da diversidade de sistemas propondo a interface por comando de voz, poucos são aqueles cujo desempenho é satisfatório em ambientes ruidosos. O desafio na implementação desses sistemas é oferecer uma baixa taxa de erro, uma vez que comandos errados irão impactar na mobilidade, podendo levar o usuário a situações de risco. A integração do comando de voz com a geração de trajetórias suavizadas são tratadas em uma simulação no ambiente para programação computacional LabWindows. A partir da simulação realizada tornou-se possível validar o protocolo de testes, validar a interface homem máquina via comandos de voz e validar o algoritmo de definição das trajetórias.


2 Materiais e Métodos 2.1 Reconhecimento de Voz O processo denominado reconhecimento de voz, realizado por dispositivos eletrônicos, possui diversas aplicações: acionamento de uma cadeira de rodas (Pacnik, 2005); automação residencial e o acionamento de dispositivos em geral (Yuksekkaya, 2006); conversor fala-texto. Algumas vantagens obtidas com o uso deste tipo de tecnologia são: a economia de tempo na realização de tarefas cotidianas, a possibilidade de uma maior autonomia para indivíduos que necessitam de equipamentos para auxílio em sua locomoção, e um ganho de conforto para o usuário. 2.1.1 Funcionamento de um SRV O funcionamento de um SRV é ilustrado na Figura 1.

modelos de linguagem é importante para a redução de custo computacional, pois, tais modelos levam em conta o vocabulário da aplicação, fazendo assim com que o sistema direcione suas buscas apenas aos comandos previstos. 2.1.2 Sistema de Reconhecimento de Voz Julius Para o reconhecimento de voz foi utilizado o Julius, que é um software de reconhecimento de voz contínua, de código aberto. Este sistema é desenvolvido no Japão e possui suporte a diversas entradas de áudio, bem como diversas configurações para a etapa de decodificação. O Julius é desenvolvido, principalmente, utilizando a linguagem de programação C, o que o torna portável para diferentes sistemas operacionais, como Linux e Windows (Lee, 2010), e por ser um software livre, sua customização é facilitada. Neste trabalho o Julius foi configurado no modo de captação em tempo real, com uma taxa de amostragem de 16 kHz, sendo cada amostra quantizada em 8 bits. 2.1.3 Interferência de ruídos

Figura 1. Diagrama de blocos de um SRV

O sinal de áudio do comando pronunciado pelo usuário é captado e passa por uma etapa de extração de características, onde são retirados os parâmetros necessários para as etapas seguintes. Isto é feito principalmente para reduzir a quantidade de dados que deverão ser processados, e, consequentemente, reduzir o custo computacional do sistema. Tais parâmetros são calculados a partir do processamento do sinal de voz por um conjunto de filtros na escala mel, e são denominados coeficientes mel-cepstrais. Na etapa de decodificação, é necessária a utilização de modelos acústicos. Tais modelos representam os fonemas do português brasileiro através de Modelos Ocultos de Markov (HMM). Os modelos acústicos são gerados a partir de uma base de dados de voz contendo a transcrição fonética das palavras pronunciadas. Neste trabalho, foram utilizados os modelos acústicos gerados pelo grupo FalaBrasil, da Universidade Federal do Pará (Neto, 2011). Tais modelos são treinados de modo que não dependam do locutor que o está utilizando, o que evita a necessidade de uma etapa de adaptação dos modelos ao usuário. Assim, os modelos levam em consideração diferentes pronúncias de palavras, reconhecendo, assim, as variações da voz de diferentes locutores. A decodificação consiste então na comparação do vetor de parâmetros extraídos com os modelos acústicos treinados. Neste ponto, a utilização de

O grande problema dos sistemas de reconhecimento de voz é a sua robustez a incidência ruídos sonoros, que pode ser definido como qualquer sinal captado porem não destinado ao acionamento do sistema. Como exemplo, temos a respiração do usuário, ou até mesmo o barulho causado pelo acionamento dos motores da cadeira de rodas. A Tabela 1 mostra como a eficiência do sistema implementado por Yuksekkaya (2006), reduz, ao diminuirmos a relação entre as energias do sinal de voz e a energia do ruído. Tabela 1. Eficiência de um SRV com ruído

Eficiência do Sistema de Reconhecimento de Voz Relação Sinal-Ruído (dB)

Eficiência do Sistema (%)

5 15 25 35 Acima de 45

44,3 72,8 82,3 92,1 98,7

Uma estratégia que influencia no ganho de robustez ao ruído, mas que também aumenta a rejeição de comandos é a estratégia baseada na utilização de dois modelos de linguagem, chamada de estratégia de fusão de vocabulários (Silva, 2013). Esta estratégia faz o sistema levar em consideração a pronúncia correta de cada palavra, para validar o resultado. A estratégia utilizada é a criação de um segundo vocabulário, no qual estão contidas todas as palavras do vocabulário original, adicionadas de palavras com composição fonética parecida com as anteriores. Desta forma o sistema processará o sinal de áudio duas vezes, a cada vez com um vocabulário diferen-


te, retornando dois resultados. Quando estes resultados forem semelhantes, o sistema o considera como válido, caso contrário, o sistema rejeita o comando. A Tabela 2 contém os dados sobre o desempenho dessa estratégia, quando comparada com a utilização de apenas um vocabulário, onde a coluna denominada Erro considera os casos em que foi reconhecido um comando diferente do falado, e a coluna FN (Falso Negativo) considera os casos para os quais o sistema rejeitou o locutor. Tabela 2. Comparação da taxa de erros de um SRV para utilização de 1 e 2 vocabulários distintos

Nº de Vocab. 1 2

SNR 20 dB Erro FN (%) (%) 1,5 0 0 15,2

SNR 15dB Erro FN (%) (%) 4,1 0 1,5 32,6

SNR 10dB Erro FN (%) (%) 9,3 0,74 1,1 51,9

2.2.1 Perfis de Velocidade Os dois perfis de velocidade normalmente utilizados para a caracterização da locomoção ponto-aponto são:  

Perfil de Velocidade em S; Perfil de Velocidade Trapezoidal.

Na Figura 2 está ilustrado o perfil de velocidade trapezoidal e o perfil de aceleração correspondente, ambos divididos em três etapas. Na primeira etapa o sistema é acelerado, na segunda etapa a velocidade é mantida constante (aceleração nula), e por fim na terceira etapa o sistema é desacelerado.

Os dados apresentados na Tabela 2 comprovam que a estratégia de uso de dois vocabulários consegue reduzir a taxa de erros de reconhecimento do sistema. Entretanto, o mesmo passa a rejeitar mais comandos, devido à necessidade de coincidência dos resultados dos vocabulários. 2.2 Geração de Trajetória Existem muitas técnicas para a geração de caminhos geométricos a serem percorridos por robôs móveis à rodas, e nessas técnicas parte-se de um ponto inicial, ou origem, (xi, yi, θi) e chega-se a um ponto final, ou destino, (xf, yf, θf) (Latombe, 1991). Entretanto, quando o sistema de locomoção destes robôs impõe restrições não-holonômicas (traçãodiferencial) aos movimentos a serem executados, muitas destas técnicas não se aplicam, sendo necessárias adequações que viabilizem a geração de caminhos factíveis. Como este trabalho aborda a locomoção com uso de tração-diferencial, em um ambiente residencial, que normalmente apresenta espaço restrito para manobras, é importante evitar o uso de trajetórias complexas. As trajetórias utilizadas foram compostas por segmentos de reta e rotações que se tornaram viáveis por se tratar de um ambiente estático, além do fato de que, as trajetórias retilíneas apresentam implementação de baixo custo computacional, e consequentemente reduzem o tempo de resposta do sistema, características desejáveis para sistemas de controle embarcados. Embora haja distintos padrões de movimentação, o padrão utilizado neste trabalho é o movimento ponto-a-ponto, e neste padrão a trajetória é geometricamente definida pelas coordenadas do ponto de origem e do ponto de destino, e as respectivas orientações da cadeira de rodas nestes pontos. Cinematicamente esta trajetória é definida em três fases, que estabelecem um período de aceleração retirando a cadeira do repouso, um período de velocidade constante para translação e um período final de desaceleração com a chegada ao ponto de destino.

Figura 2. Perfil de velocidade trapezoidal e perfil de aceleração.

Já na Figura 3 é ilustrado o perfil de velocidade em S e o perfil de aceleração correspondente, sendo que neste caso são divididos em sete etapas. Na primeira etapa o sistema é acelerado com aceleração crescente (diferente do caso trapezoidal em que o sistema é acelerado com aceleração constante), na segunda a aceleração é constante e na terceira etapa o sistema ainda está sendo acelerado, porém a variação da aceleração (jerk) é decrescente. Essas três primeiras etapas do perfil em S correspondem somente à primeira etapa do caso trapezoidal, com a diferença de que nesse caso foram acrescentadas as etapas 1 e 3, onde ocorre uma variação contínua da aceleração, isto é, eliminam-se as descontinuidades do jerk, que estão presentes no caso trapezoidal, tornando o movimento da cadeira mais suave. A quarta etapa do perfil em S corresponde à segunda etapa do perfil em trapézio, na qual a aceleração é nula e a velocidade é mantida constante. As três últimas etapas equivalem ao comportamento contrário às três primeiras, na quinta etapa inicia-se a desaceleração da cadeira e com variação negativa crescente (jerk negativo), na sexta etapa a


desaceleração continua, porém, constante (com jerk nulo), e por fim na sétima e última etapa a cadeira é desacelerada com aceleração negativa decrescente, (com jerk positivo). Nas etapas 5 e 7, onde ocorre uma variação contínua da desaceleração eliminam-se as descontinuidades do jerk, que estão presentes no caso trapezoidal, suavizando os movimentos da cadeira também na frenagem.

Figura 3. Perfil de Velocidade em S e perfil de aceleração.

A utilização do perfil de velocidade em S para caminhos retilíneos contribui para uma suavização dos movimentos da cadeira proporcionando um maior conforto ao usuário da cadeira de rodas, mesmo que para isso seja necessário um tempo de percurso maior. Como foi observado na Figura 3, o perfil de velocidade em S é simétrico, porém, atualmente, tem-se observado muitos trabalhos com perfis de velocidade em S assimétricos, com o objetivo de redução do tempo de trajetória e eliminação de vibrações residuais ao final do movimento, sendo assim o jerk é tratado apenas na desaceleração. Vale ressaltar que neste trabalho há interesse em conjugar minimização do tempo de trajetória e conforto para o usuário, o que definiu a escolha pelo perfil em S simétrico. 2.3 Software de Simulação A simulação foi desenvolvida com o auxílio do software LabWindows CVI, no qual são apresentadas as trajetórias executadas pela cadeira em uma interface gráfica representando uma residência. O reconhecimento de voz é integrado, sendo realizada a comunicação entre o LabWindows e o Julius, que está sendo processado paralelamente. Os comandos de voz são recebidos pelo Julius que, após detectar a validação do comando dado pelo usuário os envia ao software principal de simulação, onde são executados.

Para a execução da simulação, foi definida uma planta baixa de uma residência fictícia na qual a cadeira irá se locomover entre cômodos. Foram utilizados os pontos centrais de cada cômodo (ponto de interseção das diagonais dos cômodos), além de pontos auxiliares para a definição dos diversos caminhos a serem percorridos pela cadeira de rodas. A residência é composta pelos seguintes cômodos: Sala, Varanda, Cozinha, Área de Serviço, Quarto, Corredor, Dormitório e Banheiro, sendo cada um destes cômodos, representado por um ponto. Tendo também sido definido o ponto de entrada da casa. O objetivo é de que, a cadeira se mova de seu ponto atual ao ponto de destino definido com uso de comando de voz e confirmado na tela do software de simulação. Por garantia, além da definição do destino por comando vocal, é gerada uma confirmação visual, que ocorre através do botão responsável por gerar a trajetória da cadeira. Após o programa receber a confirmação do destino da cadeira, ele executa as rotinas referentes à definição de retas e rotações, na sequência adequada para a construção das trajetórias desejadas. A integração entre o software de simulação e o software de reconhecimento de voz Julius foi feita através de sockets do tipo UDP, pois o LabWindows fornece a opção de ativação de um servidor de comunicação, que monitora toda a comunicação do tipo UDP por uma porta pré-definida. O Julius foi configurado para enviar o comando reconhecido toda vez que for considerado válido para o endereço de IP local do computador que está sendo utilizado, com a porta configurada no programa da simulação o comando é recebido e interpretado para a realização das ações correspondentes. 3 Experimentos Realizados 3.1 Funcionamento da simulação Ao executar o programa de simulação desenvolvido surgirá um quadrado, representando a cadeira de rodas, localizado na Entrada da casa. Em seguida o usuário deverá dizer o destino que deseja alcançar, e para isso deverá falar primeiramente a palavra “destino” e em seguida o nome do cômodo. Por exemplo, se o destino for Quarto, o usuário deverá dizer “Destino Quarto”. Após a definição do destino pelo comando de voz com reconhecimento correto, o campo Destino será automaticamente alterado para “Quarto”. Caso não seja alterado, o usuário deverá falar novamente até que obtenha sucesso no comando. Quando o campo destino estiver preenchido com o destino desejado o usuário deverá confirmar a trajetória dizendo “Gerar Trajetória”, dessa forma o sistema será informado de que o destino está correto e que deve ser cumprida a trajetória.


Figura 1. Interface do software desenvolvido com um exemplo de trajetória

Caso o sistema não reconheça “Gerar Trajetória” nenhuma informação será perdida, o destino permanecerá o mesmo e o usuário deverá repetir o comando de voz “Gerar Trajetória” até obter sucesso, e então a trajetória será executada, sendo traçado o rastro da cadeira durante a execução. Tendo cumprido a trajetória a cadeira chegará ao seu destino final e ficará na tela o rastro da trajetória traçada, conforme ilustrado na Figura 4. Para evitar a poluição visual ou a confusão de trajetórias, o usuário pode solicitar que a trajetória seja apagada através do comando “Limpa Tela”, que mantém a cadeira na última posição de destino alcançada. As rotações são realizadas sempre percorrendo o menor ângulo possível, e também não há giros ao final da trajetória, a cadeira sempre chega com o mesmo ângulo que percorreu o último segmento de reta. Assim, para a execução de uma nova trajetória é verificada a necessidade de uma rotação inicial para que a cadeira inicie o movimento no sentido e direção corretos de acordo com o destino desejado. Um exemplo de funcionamento do programa é quando a cadeira é iniciada na entrada da casa e tem como destino final o quarto. Esse exemplo pode ser visualizado na Figura 4. Os comandos “Destino Quarto” e “Gera Trajetória”, passados por voz, são responsáveis por definir e confirmar o caminho que a cadeira irá seguir. 3.2 Testes dos comandos de voz do sistema Os comandos são do formato “destino + cômodo final”, “gera trajetória” e “limpa tela”. E cada um foi

testado dez vezes em um ambiente favorável, ou seja, com baixo nível de ruído, e o desempenho geral do sistema, considerando tais testes, está representado na Tabela 3. Tabela 3. Resultados dos Testes

Desempenho do Sistema Taxa de Acerto (%)

Taxa de Erros (%)

Taxa de Rejeição (%)

89,1

0

10,9

3.3 Testes sobre a cadeira real Alguns testes referentes às ações simuladas foram realizados sobre a cadeira de rodas real, em uma fase inicial de implementação física da solução proposta nesta pesquisa. A malha de controle utilizada, para o controle de locomoção por trajetórias compostas de segmentos de reta e rotações, está ilustrada na Figura 5. Pode-se observar na malha de controle implementada que foi utilizado o método da realimentação cruzada, com o objetivo de garantir a equalização das velocidades das rodas da cadeira de modo a definir movimentos retilíneos, e giros em torno do eixo pelo centro de massa, minimizando o erro de posicionamento. Movimentos estes ilustrados na Figura 6. O sistema de controle foi implementado com uso de uma placa controladora ARDUINO MEGA, e uma placa de acionamento com dois canais para


alimentação dos motores de tração CC da cadeira, com capacidade de até 60 A por canal, denominada ROBOCLAW. Como sensor de realimentação de posição e velocidade das rodas motrizes foi utilizado um encoder óptico com resolução de 1024 pulsos por volta, sendo disponíveis dois canais em quadratura.

na simulação. Assim, a estratégia da utilização de dois vocabulários distintos para a etapa de reconhecimento de voz apresentou resultados satisfatórios. Além da estratégia de aumento da robustez ao ruído do sistema de reconhecimento de voz, o usuário ainda precisa realizar a confirmação visual do destino, do mesmo modo que, quando o sistema é utilizado com comandos manuais, o que proporciona uma redução significativa de incidência de erros do sistema. Agradecimentos

Figura 5. Malha de controle da cadeira de rodas.

Ao Ifes pela infraestrutura disponibilizada para a realização do trabalho e a FAPES pelo financiamento do projeto MOBI. Referências Bibliográficas

Figura 6 – Movimentos de translação retilínea e rotação em torno do eixo sobre o centro de massa.

Os resultados obtidos com os testes reais foram satisfatórios, tendo sido realizadas trajetórias que refletiam com bom nível de precisão os movimentos obtidos pelo uso da simulação. A próxima etapa de esforços de controle sobre a cadeira real é a realização de trajetórias curvilíneas. 4 Conclusão Nesse trabalho preocupou-se principalmente com o conforto do cadeirante. Quando se tem uma pessoa sendo transportada em uma cadeira de rodas existe a necessidade em tornar o movimento confortável para o usuário, isso foi obtido tratando o jerk no começo e no final da trajetória. Além disso, o comando de voz elimina a necessidade de um controle manual. O ambiente residencial tratado na simulação é estruturado e com planta baixa, assim tornou-se possível a utilização de trajetórias retilíneas, que possuem implementação simplificada. A simulação é uma etapa essencial para o desenvolvimento do projeto embarcado, pois, nela foi possível validar os algoritmos de geração de trajetória, detectar erros na implementação e realizar inúmeros testes em menor tempo, evitando assim comportamentos não previstos, e facilitando posteriormente a implementação embarcada. A estratégia adotada prevê, entre outros, o ruído dos motores da cadeira, que foram desconsiderados

Yuksekkaya B. et al (2006). A GSM, internet and speech controlled wireless interactive home automation system. IEEE Transactions on Consumer Electronics, Vol. 52, No. 3, pp. 837-843. Anusuya, M. A. and Katti, S. K (2009). Speech recognition by machine: a review. International Journal of Computer Science and Information Security, Vol. 6, No. 3, pp. 182-205. Pacnik, G; Benkic, K. and Brecko, B (2005). Voice operated intelligent wheelchair – VOIC. Proceedings of the IEEE International Symposium on Industrial Electronics, Vol. 3, pp.1221-1226. Neto, N. et al (2011). Free tools and resources for Brazilian Portuguese speech recognition. Journal of the Brazilian Computer Society, Vol. 17, No. 1, pp 53-68. Lee, Akinobu. 2010. The Juliusbook, Disponível em: (http://keihanna.dl.sourceforge.jp/julius/47534/JJ uliusboo-4.1.5.pdf). Silva, B.L.S.; Andreão, R.V.; Lima; L.E.M., (2013). Reconhecimento de Voz Aplicado ao Acionamento de uma Cadeira de Rodas. XI Simpósio Brasileiro de Automação Inteligente, Fortaleza, Brasil. Artigo submetido. Park, Kwang-Hyun et al (2007). Robotic smart house to assist people with movement disabilities. Autonomous Robots, Vol. 22, pp.183–198. Latombe, J. 1991. Robot Motion Planning. Kluwer Academic Press, ISBN 0-7923-912902. Cruz, C.; Celeste, W.; Bastos, T. F., (2011). A robust navigation system for robotic wheelchairs. Control Engineering Practice, Vol. 19, Issue 6, pages 575-590. Rew, K.H.; Kim, K.S., (2010). A Closed-Form Solution to Asymmetric Motion Profile Allowing Acceleration Manipulation. IEEE Transactions on Industrial Electronics, Vol. 57.


Instituto Infobrasil de Inovação Digital - I3D Rua Oliveira Paiva, 941 - A - CEP 60.822.130 Fone: (85) 3279-7675 | (85)3047-2581 E-mail: atendimento@i3d.org.br

infobrasil.inf.br | i3d.org.br


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.