dc.description.abstract |
Resumo:
Sistemas Web estão cada vez mais presentes no cotidiano das pessoas. No entanto, se
partes desses sistemas não forem adequadas para uso, podem causar problemas na sua
adoção e assim determinar seu sucesso ou fracasso. A adequação ao uso é algo chave e é
também conhecida como usabilidade. Por conta da predominância de sistemas disponíveis
na Internet, entender seu nível de usabilidade tornou-se um aspecto chave. Dentre os
métodos tradicionais de avaliação de usabilidade, testes laboratoriais destacam-se por
avaliar a interação de usuários com um software. Entretanto, a complexidade e os custos
associados aos testes laboratoriais desencorajam a sua execução, uma vez que exigem uma
equipe especializada e dedicada presencialmente durante a avaliação. Devido à crescente
necessidade de realizar avaliações de usabilidade foi proposto neste trabalho uma abordagem
de apoio a tais avaliações, objetivando torná-las mais simples e menos onerosa. A abordagem
proposta possui uma ferramenta de apoio, denominada UseSkill, que se baseia na captura
das interações dos usuários (logs) de forma remota e automática. A UseSkill permite a
captura desses logs em contextos controlados, com a realização de tarefas pré-definidas,
e em contextos de produção, onde o usuário utiliza livremente o sistema em seu dia a
dia. Com base nos dados capturados em um contexto controlado, a ferramenta compara
as ações realizadas por usuários “experientes” e “novatos” no sistema. A ferramenta
calcula métricas associadas ao uso do sistema e, a partir da comparação das métricas
dos dois grupos, aponta possíveis problemas de usabilidade. Um estudo experimental foi
realizado para avaliar o comportamento da ferramenta em um contexto experimental e os
resultados obtidos indicaram que ela pode ser um grande aliado na redução dos custos
das avaliações de usabilidade. Embora a técnica desenvolvida tenha obtido um resultado
satisfatório, o custo e complexidade logística envolvida nas avaliações dificultam a sua
utilização. Objetivando amenizar tais problemas, foi proposta uma extensão da técnica
para o ambiente real de produção de software, visando com isso permitir avaliações de
usabilidade on the fly. Essa extensão permite que sejam realizadas avaliações periódicas de
sistemas Web, sinalizando quais são as funcionalidades de mais baixo nível de usabilidade
e auxiliando na identificação de problemas. Avaliações foram realizadas com apoio dessa
extensão e em seguida comparadas com avaliações baseadas em um método de inspeção
de usabilidade. Os resultados obtidos apresentam indícios de que a abordagem proposta
é uma alternativa relevante para apoiar avaliações de usabilidade de sistemas Web em
ambientes de produção.......................ABSTRACT: Web systems are increasingly present in our daily activities. However, some systems are not
suitable for use, causing problems in its adoption. Suitability for use is something known as
usability. Understanding the usability level of a system has become a key issue to assure the
success of these systems available on the Internet. Among traditional usability evaluation
methods, laboratory tests stand out evaluating the interaction of users with a software.
However, the complexity and costs associated with laboratory usability testing discourages
its execution, since they require dedicated specialists during the evaluation. Due to the
increasing need for usability evaluations, it is proposed in this work an approach to support
these evaluations, aiming to make them simpler and less costly. The approach has a
supporting tool, called UseSkill, which is based on remotely capture of user interactions
(logs). UseSkill allows capturing these logs in controlled environments, with the completion
of pre-defined tasks, and production environments, where users are free to use the system
in their daily activities. Based on data captured in a controlled environment, this tool
compares actions taken by “experienced” and “beginners” Web systems users. UseSkill
calculates metrics related to system usage and points possible usability problems, suggested
from differences between experienced and novice interactions. An experimental study was
conducted to evaluate the results of this idea in an experimental context and the results
indicate that it can be a great alternative in reducing the cost of usability evaluations.
Although the developed technique has obtained a satisfactory outcome, the costs and
logistical complexities involved in these evaluations in controlled environments hamper
its use. Aiming to mitigate these problems, we proposed an extension to the production
environment, called “on the fly” extension. This extension allows regular evaluations in
web systems, indicating functionalities with lower usability indicators. Evaluations were
carried out with support of this extension and then compared with evaluations based on a
usability inspection method. The results show evidences that the proposed tool is a relevant
alternative to support Web systems usability evaluations in production environments. |
pt_BR |