Luís Pires
Este projeto, de cariz académico, entra para o leque de robots móveis com funções de busca e salvamento. Existem já muitas soluções desenvolvidas, mas aqui o que nos diferencia é a utilização de recursos de hardware com um custo mais baixo e tendo por base soluções open source. O desenvolvimento do projeto permitiu construir ferramentas robóticas que podem auxiliar equipas de resgate em operações de busca e salvamento por via terrestre, recurso com grande potencial em situações de catástrofe. Apesar de ser um protótipo, a inovação deste robot está na possibilidade de ser utilizado de três modos distintos e na sua tecnologia open source. O robot está equipado com sensores para diversas deteções (incluindo seres humanos) e dotado da capacidade de estabelecer comunicação com o exterior por rede wi-fi.
robótica 102, 1.o Trimestre de 2016
robótica
8
artigo científico
Robot para Busca e Salvamento baseado na Plataforma Raspberry PI 2
1. INTRODUÇÃO Num cenário ideal, estas tecnologias são capazes, em caso de catástrofe, de assumir o papel de veículo automático de assistência às primeiras unidades de intervenção. É, por isso, importante criar desafios académicos para que os alunos encontrem e desenvolvam soluções robotizadas e autónomas que possam apoiar em buscas e auxiliar equipas de salvamento. As equipas de socorro enfrentam tarefas difíceis e perigosas, em algumas situações põem a sua própria vida em risco, este tipo de robot é um instrumento valioso na procura de sobreviventes, mas também de garantir a segurança daqueles que tentam salvar vidas. O projeto apresenta três modos diferentes de funcionamento: condução autónoma por câmara, condução autónoma por sensores e condução manual por comando. Para este efeito utiliza-se a plataforma de hardware Raspberry Pi 2 e a plataforma Arduino Uno R3 em conjunto com vários sensores, atuadores, rede I2C e rede wi-fi. No modo condução autónoma recorre-se ao uso de sensores. Os processos automatizados são auxiliados pela presença de sensores infravermelhos, que detetam desníveis que existam ao nível do solo, sensores ultrassónicos, para detetar algum objeto ou forma que bloquei a locomoção do robot, fazendo-o mudar de direção. O robot integra uma micro câmara de vídeo que permite a interpretação e visualização do ambiente circundante. Existe a possibilidade de adicionar o reconhecimento de pessoas, para tal é necessário a implementação de algoritmos para processamento digital de imagem no microprocessador residente na solução Raspberry Pi 2. A micro-câmara localizada no robot tem como objetivo a inter-
pretação do ambiente envolvente, é ela a base do modo condução autónoma. O modo condução manual é assegurada através da interação da solução Raspberry Pi com o dispositivo XBox 360 Wireless Receiver (que comunica através da rede Wi-Fi na frequência de 2,4 GHz). Os algoritmos desenvolvidos para as duas plataformas implicam a programação em linguagem C++. Para o processamento digital de imagem, utilizou-se a linguagem de programação Python, tal como para o algoritmo de comunicação série entre as duas plataformas (Raspberry Pi 2 e Arduino). A linguagem de programação para a solução Arduino é a linguagem C, assegurando a locomoção do robot, interpretação dos diversos sensores e gestão da rede I2C, excluindo a micro-câmara. O robot possui, ainda, dois motores elétricos DC que servem para lhe garantir mobilidade dentro do ambiente em que está envolvido, e integra quatro tipos de sensores: infravermelhos, ultrassónicos, bumpers (microswitchs) e micro-câmara. Os sensores infravermelhos são responsáveis por detetar desníveis no solo durante a locomoção (como por exemplo escadas, ou rampas – implicando alteração de velocidade e sentido), e estão posicionados na zona do chassi do robot. A micro-câmara é responsável pela visão da área (visão robótica) e interpretação de obstáculos circundantes. Como está instalada no robot, numa posição elevada, existem pontos mortos abaixo do seu campo de visão, por esta razão é o segundo na hierarquia de interpretação do ambiente envolvente. A deteção através da micro-câmara é feita por streaming a 59 frame per second (fps), para ser possível agir de forma mais rápida e apropriada aos obstáculos que encontra no seu caminho, esta ação é feita em função da velocidade do robot. Os sensores ultrassónicos encontram-se no topo da hierarquia uma vez que estão posicionados na frente da estrutura do robot, assim, ao detetar um obstáculo, independentemente do sinal enviado pelos restantes dois sensores, estes acionam o movimento do robot. Existem microswitchs para auxiliar os sensores ultrassónicos e que estão a funcionar como bumpers frontais, para assegurar que os motores mudem a direção do percurso caso os sensores ultrassónicos tenham de fazer leituras consecutivas e não consigam fazer atuar os motores a tempo. O Raspberry Pi 2 está ligado por interface Série (USB) ao Arduino onde, através de dois algoritmos desenvolvidos e integrados quer no Arduino, quer no Raspberry Pi consegue-se obter informações provenientes dos sensores e interagir com a informação necessária para os coordenar. A estrutura usada foi fornecida pela empresa IDMind [1] (empresa parceira do INETE/curso de Técnico de Eletrónica, Automação e Comando), trata-se de uma das versões do Magabot. A altura é de 9,5 cm de altura, a largura de 39 cm e o compri-