<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns="http://www.w3.org/2005/Atom">
<title>Mestrado em Ciência da Computação</title>
<link href="http://hdl.handle.net/123456789/272" rel="alternate"/>
<subtitle/>
<id>http://hdl.handle.net/123456789/272</id>
<updated>2026-03-08T07:43:28Z</updated>
<dc:date>2026-03-08T07:43:28Z</dc:date>
<entry>
<title>CLASSIFICAÇÃO DE ACIDENTES DE TRÂNSITO TERRESTRE ENVOLVENDO MOTOCICLETAS ATRAVÉS DE UMA REDE NEURAL LOCAL BINÁRIA CONVOLUCIONAL</title>
<link href="http://hdl.handle.net/123456789/4179" rel="alternate"/>
<author>
<name>SILVA, Pedro Antonio Fernandes da</name>
</author>
<id>http://hdl.handle.net/123456789/4179</id>
<updated>2026-02-02T20:30:10Z</updated>
<published>2026-02-02T00:00:00Z</published>
<summary type="text">CLASSIFICAÇÃO DE ACIDENTES DE TRÂNSITO TERRESTRE ENVOLVENDO MOTOCICLETAS ATRAVÉS DE UMA REDE NEURAL LOCAL BINÁRIA CONVOLUCIONAL
SILVA, Pedro Antonio Fernandes da
RESUMO: Observando as estatísticas de mortalidade no trânsito, a quantidade de acidentes envolvendo&#13;
motocicletas e o destaque dado pela Organização Mundial da Saúde a esse tema, percebe-se&#13;
que se trata de uma questão de saúde pública. Ao analisar a literatura sobre aplicações de&#13;
aprendizado de máquina nesse contexto, identifica-se uma lacuna na qual este trabalho se&#13;
insere.&#13;
O objetivo deste estudo é classificar imagens de acidentes envolvendo motocicletas por meio&#13;
de algoritmos de aprendizado de máquina supervisionados em ambientes de computação&#13;
em borda. Como a utilização de conexão pela internet nesses casos aumenta os custos de&#13;
implantação e manutenção do sistema, é preferível executar os algoritmos localmente e,&#13;
portanto, buscar a otimização dos recursos computacionais.&#13;
Nesse sentido, este trabalho se propôs a utilizar uma rede neural binária local (LBCNN),&#13;
uma vez que essa arquitetura, além de reduzir a quantidade de parâmetros empregados&#13;
em uma convolução, também apresenta propostas de otimização em hardware.&#13;
Nos experimentos realizados, destacaram-se dois modelos: a configuração LBCNN16-&#13;
Bernoulli30-ResNet18, que obteve a melhor acurácia (88%), e a LBCNN16-Bernoulli50-&#13;
ResNet18, com 84% de acurácia, mas com maior potencial de otimização em hardware.&#13;
ABSTRACT: Considering traffic mortality statistics, the number of motorcycle accidents, and the&#13;
emphasis placed on this issue by the World Health Organization, it is clear that motorcycle&#13;
accidents constitute a public health issue. An analysis of the literature on machine learning&#13;
applications in this context reveals a gap that this study aims to address.&#13;
The objective of this study is to classify images of motorcycle accidents using supervised&#13;
machine learning algorithms in edge computing environments. Because the use of an&#13;
internet connection in such cases increases system implementation and maintenance costs,&#13;
executing the algorithms locally is preferable; thus, optimizing computational resources&#13;
becomes a priority.&#13;
&#13;
Therefore, this study proposes the use of a Local Binary Convolutional Neural Net-&#13;
work (LBCNN), as this architecture not only reduces the number of parameters used in&#13;
&#13;
convolutions but also offers hardware optimization advantages.&#13;
In the experiments conducted, two models stood out: the LBCNN16-Bernoulli30-ResNet18&#13;
configuration, which achieved the highest accuracy (88%), and the LBCNN16-Bernoulli50-&#13;
ResNet18, which attained 84% accuracy but demonstrated greater potential for hardware&#13;
optimization.
Orientador: Prof. Dr. Vinícius Ponte Machado&#13;
Coorientador: Prof. Dr. Ivan Saraiva Silva&#13;
Examinador interno: Kelson Romulo Teixeira Aires&#13;
Examinador interno: Raimundo Santos Moura &#13;
Examinador externo: Geraldo Braz Júnior - UFMA
</summary>
<dc:date>2026-02-02T00:00:00Z</dc:date>
</entry>
<entry>
<title>SISTEMA INTEGRADO PARA DIAGNÓSTICO AUTOMATIZADO DA LEISHMANIOSE VISCERAL EM IMAGENS MICROSCÓPICAS</title>
<link href="http://hdl.handle.net/123456789/4178" rel="alternate"/>
<author>
<name>SOUZA, Lucas Bezerra Marques de</name>
</author>
<id>http://hdl.handle.net/123456789/4178</id>
<updated>2026-02-02T20:06:13Z</updated>
<published>2026-02-02T00:00:00Z</published>
<summary type="text">SISTEMA INTEGRADO PARA DIAGNÓSTICO AUTOMATIZADO DA LEISHMANIOSE VISCERAL EM IMAGENS MICROSCÓPICAS
SOUZA, Lucas Bezerra Marques de
RESUMO: A Leishmaniose Visceral (LV) é uma doença infecciosa grave causada por protozoários do gênero Leishmania&#13;
&#13;
e transmitida por insetos flebotomíneos. O diagnóstico tradicional por microscopia, embora seja o padrão-&#13;
ouro, enfrenta desafios como a subjetividade da análise e a dependência da experiência do observador.&#13;
&#13;
Este trabalho propõe o desenvolvimento de um sistema web integrado a uma plataforma automatizada&#13;
de captura de imagens microscópicas, com o objetivo de aprimorar a identificação de amastigotas de&#13;
Leishmania com modelos de deep learning. O sistema implementa uma plataforma colaborativa para&#13;
gerenciamento de laboratórios, com controle de participantes e sistema de convites. A validação da solução&#13;
ocorreu em três frentes principais. Primeiro, o dispositivo de captura robótico, com custo aproximado&#13;
de R$ 305,00, demonstrou viabilidade econômica e eficiência operacional, atingindo uma taxa de 8,57&#13;
imagens por minuto, superando o método manual (3,33 imagens por minuto). Segundo, os testes de&#13;
usabilidade da aplicação web, utilizando a escala SUS, resultaram em pontuação média de 76,2, indicando&#13;
boa aceitação pelos usuários. Terceiro, a plataforma integrou modelos de deep learning para diagnóstico de&#13;
Leishmaniose Visceral Humana (baseado em InceptionV3) e Canina (baseado em YOLOv8), cujos trabalhos&#13;
de origem reportam 98,7% de F1-Score e 88,5% de mAP, respectivamente. Os resultados demonstram&#13;
que a abordagem proposta cumpre seu objetivo, entregando uma ferramenta integrada que contribui&#13;
para tornar o diagnóstico da Leishmaniose mais acessível e eficiente com a automação da captura, com&#13;
potencial para implementação em áreas endêmicas e expansão para outras doenças.&#13;
ABSTRACT: Visceral Leishmaniasis (VL) is a severe infectious disease caused by protozoa of the Leishmania genus&#13;
and transmitted by phlebotomine sandflies. The traditional diagnosis by microscopy, although the gold&#13;
standard, faces challenges such as the subjectivity of the analysis and its dependence on the observer’s&#13;
experience. This work proposes the development of a web-based system integrated with an automated&#13;
platform for capturing microscopic images, aiming to improve the identification of Leishmania amastigotes&#13;
using deep learning models. The system implements a collaborative platform for laboratory management,&#13;
with participant control and an invitation system. The solution’s validation occurred on three main fronts.&#13;
First, the robotic capture device, with an approximate cost of R$ 305.00, demonstrated economic viability&#13;
and operational efficiency, achieving a rate of 8.57 images per minute, surpassing the manual method (3.33&#13;
images per minute). Second, usability tests of the web application, using the SUS scale, resulted in an&#13;
average score of 76.2, indicating good user acceptance. Third, the platform integrated deep learning models&#13;
for Human Visceral Leishmaniasis (based on InceptionV3) and Canine (based on YOLOv8) diagnosis,&#13;
whose original studies report 98.7% F1-Score and 88.5% mAP, respectively. The results demonstrate that&#13;
the proposed approach fulfills its objective, delivering an integrated tool that contributes to making the&#13;
diagnosis of Leishmaniasis more accessible and efficient with capture automation, with the potential for&#13;
implementation in endemic areas and expansion to other diseases.
Orientador: Romuere Rodrigues Veloso e Silva&#13;
Examinadora interna: Ana Carolina Landim Pacheco&#13;
Examinador interno: Flávio Henrique Duarte de Araújo&#13;
Examinador interno: Iális Cavalcante de Paula Júnior
</summary>
<dc:date>2026-02-02T00:00:00Z</dc:date>
</entry>
<entry>
<title>HYBRID AND DECOY MOVING TARGET DEFENSE IN CLOUD COMPUTING: a performance modeling approach</title>
<link href="http://hdl.handle.net/123456789/4177" rel="alternate"/>
<author>
<name>SANTOS, Lucas Vinícius Silva dos</name>
</author>
<id>http://hdl.handle.net/123456789/4177</id>
<updated>2026-02-02T19:47:00Z</updated>
<published>2026-02-02T00:00:00Z</published>
<summary type="text">HYBRID AND DECOY MOVING TARGET DEFENSE IN CLOUD COMPUTING: a performance modeling approach
SANTOS, Lucas Vinícius Silva dos
RESUMO: A segurança da informação enfrenta desafios cada vez mais complexos, exigindo estratégias&#13;
inovadoras para aumentar a resiliência dos sistemas contra ataques. O conceito de Moving&#13;
&#13;
Target Defense (MTD) surge como uma abordagem promissora, pois dificulta a identi-&#13;
ficação e exploração de vulnerabilidades ao modificar dinamicamente a configuração do&#13;
&#13;
sistema. Diferentemente dos mecanismos de defesa tradicionais, que permanecem estáticos&#13;
e previsíveis, o MTD busca reduzir a vantagem do atacante pela constante mudança do&#13;
ambiente alvo. Entre as estratégias possíveis, destacam-se a migração de máquinas virtuais&#13;
e a realocação de endereços IP, bem como o uso de servidores de decoy, que atuam como&#13;
iscas para desorientar invasores e atrasar sua progressão. Este estudo propõe uma avaliação&#13;
comparativa entre duas metodologias distintas de MTD, ambas modeladas por meio de&#13;
redes de Petri. A primeira abordagem baseia-se na migração como estratégia defensiva,&#13;
&#13;
considerando três políticas de ativação: baseada em tempo, baseada em eventos e uma abor-&#13;
dagem híbrida que combina ambas. Para fortalecer a resposta a ataques, foi incorporado&#13;
&#13;
um sistema de detecção de intrusão (IDS), responsável por identificar atividades maliciosas&#13;
e acionar a migração do sistema conforme necessário. A segunda abordagem analisa o&#13;
impacto do uso de servidores de decoy, combinados com a migração dinâmica de endereços&#13;
IP, com o objetivo de dificultar o mapeamento dos servidores reais e aumentar a incerteza&#13;
do atacante quanto à topologia do sistema. Os resultados das simulações indicam que a&#13;
eficácia das políticas de detecção baseadas em eventos depende fortemente da precisão&#13;
do IDS, sendo mais vantajosa quando esta ultrapassa 50%. Além disso, a abordagem&#13;
híbrida demonstrou ser a mais eficiente para retardar o progresso de invasores, equilibrando&#13;
segurança e desempenho. No contexto dos servidores de decoy, os experimentos revelaram&#13;
que a introdução de um maior número de servidores falsos aumenta significativamente&#13;
o tempo necessário para uma intrusão bem-sucedida, elevando-o de 8 para até 19 dias.&#13;
Dessa forma, este trabalho contribui para a compreensão da aplicabilidade das diferentes&#13;
estratégias de MTD, fornecendo análises sobre como políticas de migração e o uso de&#13;
servidores de decoy podem ser otimizados para melhorar a segurança de infraestruturas&#13;
computacionais contra ataques cibernéticos.&#13;
ABSTRACT: Information security faces increasingly complex challenges, requiring innovative strategies&#13;
to enhance system resilience against attacks. The concept of Moving Target Defense&#13;
(MTD) emerges as a promising approach, as it hinders the identification and exploitation&#13;
of vulnerabilities by dynamically modifying the system’s configuration. Unlike traditional&#13;
defense mechanisms, which remain static and predictable, MTD seeks to reduce the&#13;
attacker’s advantage through constant changes in the target environment. Among the&#13;
possible strategies, notable examples include virtual machine migration and IP address&#13;
relocation, as well as the use of decoy servers, which act as traps to mislead intruders&#13;
and delay their progression. This study proposes a comparative evaluation between two&#13;
distinct MTD methodologies, both modeled through Petri nets. The first approach relies&#13;
on migration as a defensive strategy, considering three activation policies: time-based,&#13;
event-based, and a hybrid approach combining both. To strengthen the response to attacks,&#13;
an intrusion detection system (IDS) was incorporated to identify malicious activities&#13;
and trigger system migration as needed. The second approach analyzes the impact of&#13;
using decoy servers combined with dynamic IP address migration, aiming to hinder the&#13;
mapping of real servers and increase the attacker’s uncertainty regarding the system&#13;
topology. Simulation results indicate that the effectiveness of event-based detection policies&#13;
strongly depends on IDS accuracy, being more advantageous when accuracy exceeds 50%.&#13;
Furthermore, the hybrid approach proved to be the most effective in slowing the progress of&#13;
intruders, balancing security and performance. In the context of decoy servers, experiments&#13;
revealed that introducing a larger number of fake servers significantly increases the time&#13;
required for a successful intrusion, raising it from 8 to as many as 19 days. Thus, this&#13;
work contributes to understanding the applicability of different MTD strategies, providing&#13;
insights into how migration policies and the use of decoy servers can be optimized to&#13;
enhance the security of computational infrastructures against cyberattacks.
Orientador: Prof. Dr. Francisco Airton Pereira da Silva &#13;
Co-orientador: Prof. Dr. Matheus D’Eça Torquato de Melo&#13;
Examinador interno: Prof. Dr. Glauber Dias Gonçalves&#13;
Examinador externo: Prof. Dr. Ermesson Carneiro de Andrade - UFPE&#13;
Examinador externo: Prof. Dr. Rayner Gomes Sousa - UFPE
</summary>
<dc:date>2026-02-02T00:00:00Z</dc:date>
</entry>
<entry>
<title>MONITORAMENTO DE QoS EM MÚLTIPLAS NUVENS DA PERSPECTIVA DE UM ARQUITETO DE SOFTWARE</title>
<link href="http://hdl.handle.net/123456789/4101" rel="alternate"/>
<author>
<name>NUNES, Lucas de Sousa</name>
</author>
<id>http://hdl.handle.net/123456789/4101</id>
<updated>2025-11-17T20:57:53Z</updated>
<published>2025-11-17T00:00:00Z</published>
<summary type="text">MONITORAMENTO DE QoS EM MÚLTIPLAS NUVENS DA PERSPECTIVA DE UM ARQUITETO DE SOFTWARE
NUNES, Lucas de Sousa
RESUMO: A computação em nuvem disponibiliza serviços computacionais sob demanda&#13;
por meio da Internet, com um modelo de pagamento baseado no uso, o que favorece&#13;
a otimização dos custos operacionais. Essa abordagem proporciona benefícios como&#13;
&#13;
acesso seguro a partir de qualquer local e dispositivo, além de facilitar o compar-&#13;
tilhamento de informações. Nesse contexto, os usuários (arquitetos de software)&#13;
&#13;
podem definir requisitos de QoS para os serviços contratados, os quais devem constar&#13;
do SLA. Como resultado, a computação em nuvem tem se consolidado como uma&#13;
solução atrativa para empresas de diversos portes, o que vem impulsionando seu&#13;
crescimento nos últimos anos. Para maximizar os benefícios da computação em&#13;
nuvem, muitos usuários têm adotado o modelo multi-cloud, no qual uma aplicação é&#13;
distribuída em vários provedores, geralmente sem um acordo prévio de integração&#13;
entre eles. No entanto, a maioria dos provedores não disponibiliza diretamente as&#13;
métricas dos serviços contratados, o que dificulta a verificação do cumprimento dos&#13;
SLAs e a avaliação da conformidade com os parâmetros de QoS estabelecidos. Diante&#13;
disso, os usuários precisam recorrer a estratégias alternativas para aferir os valores&#13;
de QoS dos serviços contratados. Essa tarefa torna-se ainda mais complexa em&#13;
ambientes multi-cloud, em que múltiplos SLAs devem ser considerados. Nesses casos,&#13;
é necessário que o usuário avalie as métricas de desempenho tanto sob a perspectiva&#13;
de cada provedor quanto sob a perspectiva da aplicação como um todo. Diante&#13;
deste contexto, torna-se importante o monitoramento do QoS a partir da ótica do&#13;
usuário, com base no SLA. O monitoramento permite não só avaliar a qualidade&#13;
da oferta, mas também identificar se a aplicação demanda mais recursos. Para isso,&#13;
apresentamos primeiro uma taxonomia que apoia a análise comparativa das soluções&#13;
existentes para o monitoramento de nuvem. Em seguida, com base nas lacunas&#13;
identificadas, propomos uma arquitetura para o monitoramento do QoS de serviços&#13;
contratados em múltiplos provedores de nuvem, para microsserviços distribuídos&#13;
de uma aplicação. Para validar a proposta, desenvolvemos o Cloud Sentinel, uma&#13;
ferramenta capaz de monitorar métricas ao longo do tempo e apoiar a tomada de&#13;
decisões, permitindo aferir o QoS de cada serviço utilizado por cada microsserviço,&#13;
em diferentes provedores contratados.&#13;
ABSTRACT: Cloud computing offers on-demand computing services over the Internet,&#13;
utilizing a pay-as-you-go model that facilitates the optimization of operational&#13;
costs. This approach provides benefits such as secure access from any location and&#13;
device, as well as facilitating information sharing. In this context, users (software&#13;
architects) can define QoS requirements for the contracted services, which must&#13;
be included in the SLA. As a result, cloud computing has become an attractive&#13;
solution for companies of all sizes, driving its growth in recent years. To maximize&#13;
the benefits of cloud computing, many users have adopted the multi-cloud model, in&#13;
which an application is distributed across multiple providers, usually without a prior&#13;
integration agreement between them. However, most providers do not directly provide&#13;
metrics for the contracted services, which makes it difficult to verify compliance with&#13;
SLAs and assess conformity with established QoS parameters. Given this, users must&#13;
resort to alternative strategies to measure the QoS values of contracted services. This&#13;
task becomes even more complex in multi-cloud environments, where multiple SLAs&#13;
must be considered. In these cases, the user must evaluate performance metrics from&#13;
both the provider’s perspective and the application’s overall perspective. In this&#13;
context, monitoring QoS from the user’s perspective, based on the SLA, becomes&#13;
essential. Monitoring allows not only the evaluation of the quality of the offer,&#13;
but also the identification of whether the application demands more resources. To&#13;
this end, we first present a taxonomy that supports the comparative analysis of&#13;
existing cloud monitoring solutions. Then, based on the identified gaps, we propose&#13;
an architecture for monitoring the QoS of contracted services from multiple cloud&#13;
providers for the distributed microservices of an application. To validate the proposal,&#13;
we developed Cloud Sentinel, a tool capable of monitoring metrics over time and&#13;
supporting decision-making, which enables us to measure the QoS of each service&#13;
used by each microservice across different contracted providers.
Orientadora: Profa. Dra. Juliana Oliveira de Carvalho&#13;
Examinador interno: Prof. Dr. Francisco Airton Pereira da Silva&#13;
Examinador interno: Prof. Dr. Glauber Dias Gonçalves&#13;
Examinador externo: Prof. Dr. Fernando Antônio Mota Trinta
</summary>
<dc:date>2025-11-17T00:00:00Z</dc:date>
</entry>
</feed>
