Avaliação Heuristica

A Avaliação Heurística é um método de avaliação da usabilidade que consiste na análise de uma interface por especialistas, com base em um conjunto de princípios — ou heurísticas — de design. O objetivo é identificar problemas de usabilidade que possam dificultar a experiência do usuário.

Objetivo:

O objetivo desta avaliação heurística foi identificar problemas de usabilidade no protótipo do aplicativo Pergunta Aí, a partir de um olhar especializado, estruturado com base nos princípios das 10 heurísticas de Nielsen.

A avaliação buscou verificar se a interface está alinhada às metas de design do projeto, que incluem:

  • Promover uma comunicação mais fluida e acessível entre alunos e professores;

  • Reduzir barreiras de participação em aula, principalmente para alunos tímidos ou inseguros;

  • Garantir uma experiência intuitiva, eficiente e confiável, tanto para quem envia quanto para quem gerencia dúvidas em tempo real;

  • Adaptar-se a diferentes perfis de usuários, respeitando suas necessidades e contextos de uso.

Para isso, o protótipo foi avaliado por membros externos ao grupo, que observaram interações propostas com base nas personas e cenários problemas desenvolvidos anteriormente, buscando pontos de fricção, violações de boas práticas e inconsistências na interface. A partir dos achados, foram extraídos insights valiosos e sugestões de redesign que poderão orientar melhorias futuras no produto.

Como foi realizada a avaliação:

A Avaliação Heurística foi conduzida por membros de um grupo externo ao nosso, conforme orientado pela disciplina. Para garantir uma análise embasada, os avaliadores receberam acesso a um conjunto completo de materiais sobre o projeto, incluindo:

  • O protótipo navegável da plataforma Pergunta Aí

  • As personas desenvolvidas

  • Os cenários-problema associados a cada persona

  • As principais tarefas esperadas no fluxo de uso

Com base nesses elementos, os avaliadores percorreram a interface identificando possíveis violações das 10 heurísticas de usabilidade de Nielsen. Para cada problema identificado, foi registrada a heurística violada, a localização na interface, uma descrição do problema e uma estimativa da gravidade com base em critérios como frequência, impacto e persistência.

Ao final do processo, consolidamos todas as observações recebidas em um documento único, categorizando os problemas e propondo sugestões de redesign para os principais pontos críticos identificados.

Heuristicas:

Foram utilizadas as 10 heurísticas de usabilidade propostas por Jakob Nielsen, entre elas:

  • Visibilidade do status do sistema

  • Correspondência entre o sistema e o mundo real

  • Controle e liberdade do usuário

  • Consistência e padrões

  • Reconhecimento em vez de memorização

  • Flexibilidade e eficiência de uso

  • Projeto estético e minimalista

  • Prevenção de erros

  • Ajudar usuários a reconhecer, diagnosticar e recuperar de erros

  • Ajuda e documentação

Escala de Severidade:

Cada problema foi classificado segundo a escala de severidade definida por:

  • 1 – Cosmético: Não precisa ser corrigido a menos que haja tempo sobrando

  • 2 – Pequeno: Pequeno problema de usabilidade, correção opcional

  • 3 – Grande: Problema de usabilidade importante, deve ser priorizado

  • 4 – Catastrófico: Deve ser resolvido antes de qualquer entrega do sistema

A severidade final leva em conta:

  • Frequência do problema

  • Impacto na experiência

  • Persistência do problema

Insights e Sugestões

A partir da Avaliação Consolidada, chegamos a alguns insights:

  • Insight 1: Falta de feedback visual claro prejudica a compreensão das ações realizadas

  • Insight 2: O sistema carece de orientação para novos usuários

  • Insight 3: Elementos visuais em destaque causam ruído visual desnecessário

  • Insight 4: Redundância nas formas de acesso à mesma funcionalidade confunde o usuário

  • Insight 5: A navegação entre as seções do sistema é confusa ou inconsistente

  • Insight 6: A organização visual das telas dificulta a leitura e escaneabilidade

  • Insight 7: Ausência de estados ou mensagens de erro claras

 

Com isso, tivemos algumas sugestões de melhoria:

  • Sugestão 1: Padronizar a ação dos botões de retorno

  • Sugestão 2: Reorganizar visualmente os elementos da tela da turma (visão do aluno)

  • Sugestão 3: Adicionar validação no botão “Adicionar nova pergunta”

  • Sugestão 4: Reorganizar a ordem dos campos no formulário de pergunta

  • Sugestão 5: Reforçar o feedback ao usuário em ações completas

First Click

A técnica First Click é um método de avaliação de usabilidade que analisa o primeiro clique do usuário ao tentar realizar uma tarefa dentro de uma interface. O principal objetivo é verificar se esse clique inicial leva o usuário na direção correta para cumprir seu objetivo.

A ferramenta utilizada foi o Useberry com 10 participantes

A avaliação foi conduzida com quatro tarefas distintas, apresentadas aos usuários por meio de cenários descritos em texto, com o objetivo de contextualizar e orientar a execução.

Todas as tarefas foram concluídas com sucesso pelos participantes. Após a realização dos testes, os dados foram extraídos utilizando a funcionalidade de Click Tracking, permitindo identificar precisamente os pontos clicados pelos usuários em cada tarefa.

Com base nesses dados, foram gerados gráficos e visualizações analíticas para embasar a análise da interface e avaliar a eficácia do design proposto.

Tarefa 1: Participar de uma Aula Presencial

Imagine que você chegou em sala de aula, e precisa utilizar o código disponibilizado pelo professor para entrar em uma nova sessão de aula naquele horário, onde você clicaria para entrar em uma nova Aula Presencial?

Área 1: 5 cliques

Área 2 (A área correta): 5 cliques

Tempo médio: 6.6 segundos

Conclusão

Concluímos que a divergência aqui ocorreu por um cenário confuso, pois a imagem usada no teste apresenta um “Aula em andamento” por placeholder. Ao citar a necessidade de uma aula no horário atual, alguns não seguiram pelo caminho de entrar em uma nova aula e sim na que estava aberta naquele momento.

Possíveis Melhorias

Visto que o problema veio do cenário, foi notado que caso melhor escrito esse caso de erro vai diminuir a um ponto eficaz, 8 usuários passaram a clicar no lugar certo.

Tarefa 2: Tirando Dúvidas

Imagine que você está utilizando o aplicativo e deseja escrever uma dúvida sobre um tópico online disponibilizado pelo professor, onde você acessaria essa parte?

 

Área 1: 3 cliques

Área 2: 2 cliques

Área 3 (A área correta): 5 cliques

Tempo médio: 4.3 segundos

Conclusão

Concluímos que a divergência aqui ocorreu primeiro pelo fato de não ter ficado claro a diferença entre uma aula online e uma presencial. Por fim o caso mais grave foi o fato do container com o texto “ficou com alguma dúvida?…” ser confundido com um botão.

Possíveis Melhorias

A melhoria proposta seria retirar ou modificar o container superior que causou a diferença. Para o segundo erro devemos melhorar a visibilidade e deixar mais contrastante a diferença entre aula online e presencial para o usuário.

Tarefa 3: Testar seus conhecimentos

Imagine que você está estudando e vê que todas as dúvidas levantadas de um tópico criado pelo professor são pertinentes e você deseja testar seus conhecimentos em um minigame daquele tópico gerado por IA a partir das perguntas, onde você acha que deve acessar para chegar nesse meio?

Área 1: 1 clique

Área 2 (A área correta) 8 cliques

Área 3: 1 clique

Tempo médio: 6.7 segundos

Conclusão

Concluímos que a maioria dos 10 usuários acertaram o local, no entanto alguns ainda clicaram em lugares errados, o que significa que para usuários sem nenhum contexto do funcionamento do aplicativo pode ficar confuso o fluxo do aplicativo.

Possíveis Melhorias

Embora a maioria acertou, vale a pena criar um tipo de ajuda seja por tutorial inicial ou um help que mostre o funcionamento do aplicativo para que os usuários não cometam esses erros, principalmente da localização das principais funções do app.

Tarefa 4: Criando uma nova Sessão Presencial

Imagine que você é um professor e deseja criar uma nova sessão presencial, onde você acredita que deveria ir para acessa-la.

Área 1: 1 cliques

Área 2: 1 cliques

Área 3: 1 cliques

Área 4 (A área correta): 7 cliques

Tempo médio: 4.7 segundos

Conclusão

Concluímos que a maioria dos 10 usuários acertaram o local, no entanto alguns ainda clicaram em lugares errados, o que significa que para usuários sem nenhum contexto do funcionamento do aplicativo pode ficar confuso o fluxo do aplicativo. Além disso a área 2 em especifico foi clicada pelo mesmo erro da tarefa 1 em que o fato da imagem ter uma aula em andamento confundiu o usuário.

Possíveis Melhorias

Embora a maioria acertou, vale a pena criar um tipo de ajuda seja por tutorial inicial ou um help que mostre o funcionamento do aplicativo para que os usuários não cometam esses erros, principalmente da localização das principais funções do app. Além disso melhorar também como nas outras tarefas a explicação e contraste entre aula presencial e online.

Resumo Geral do First Click

Percurso Cognitivo

Tarefa 1: Aluno faz uma dúvida

Usuários típicos: Estudantes que cursam a disciplina e utilizam o sistema para acompanhar aulas e interagir com professores e colegas.

Passos do fluxo

  1. Passo 1. Aluno abre a tela inicial (dashboard) e vê a lista de turmas/matérias que está cursando.

  2. Passo 2. Aluno clica na turma desejada e entra na tela da disciplina, onde aparecem duas sessões: “Aulas Online” e “Aulas Presenciais”.

  3. Passo 3. Aluno desliza a tela até “Aulas Presenciais”, e clica em uma aula específica.

  4. Passo 4. Aluno digita sua dúvida na barra de texto fixa ao rodapé da tela.

  5. Passo 5. Aluno envia a dúvida clicando no ícone de enviar (seta) alinhado à barra de texto.

  6. Passo 6. (Segundo Fluxo) — Se for em “Aulas Online”, aluno clica em “Faça sua pergunta”, preenche a caixa de texto que surge e clica em “Enviar”.

Avaliação dos passos

Passo 1. Aluno abre a tela inicial (dashboard)

  • Q1. O usuário tentaria esta ação?
    Sim. É o comportamento padrão: ao entrar no app, espera‑se ver suas turmas.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Os cards de turmas estão centralizados e em destaque imediato.

  • Q3. Ele associará essa ação ao efeito correto?
    Sim. Convenção de UX: clicar em um card de item leva aos detalhes desse item.

  • Q4. Ele receberá feedback apropriado após a ação?
    Sim. O cabeçalho muda para o nome da turma, confirmando a navegação.

Passo 2. Aluno clica na turma e vê “Aulas Online” vs. “Aulas Presenciais”

  • Q1. O usuário tentaria esta ação?
    Sim. Para interagir, precisa escolher entre os modos de aula.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. As abas têm destaque de cor e aparecem logo abaixo do cabeçalho.

  • Q3. Ele associará essa ação ao efeito correto?
    Talvez. “Online” e “Presenciais” remetem ao formato, não ao tipo de conteúdo (dúvidas).

  • Q4. Ele receberá feedback apropriado após a ação?
    Sim. A aba ativa lista todas as aulas e seus títulos.

Passo 3. Aluno desliza até a aba “Aulas Presenciais” e clica em uma aula especifica

  • Q1. O usuário tentaria esta ação?
    Sim. Ele viu as abas e quer acessar a seção de dúvidas presenciais.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. A aba é claramente clicável (cursor, leve sombreado).

  • Q3. Ele associará essa ação ao efeito correto?
    Sim. Ao clicar em “Presenciais”, espera‑se ver conteúdo dessa categoria.

  • Q4. Ele receberá feedback apropriado após a ação?
    Sim. A tab “Aulas Presenciais” fica destacada e a lista de dúvidas aparece.

Passo 4. Aluno digita sua dúvida na barra de texto fixa ao rodapé

  • Q1. O usuário tentaria esta ação?
    Sim. A barra está sempre visível e convida à interação (“Escreva sua dúvida…” placeholder).

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Placeholder de texto e borda mais escura ao focar indicam área editável.

  • Q3. Ele associará essa ação ao efeito correto?
    Sim. Barra na parte inferior com placeholder sugere que ele deve digitar aí.

  • Q4. Ele receberá feedback apropriado após a ação?
    Talvez. Ao digitar, não há animação nem contagem de caracteres; o usuário pode não saber se o texto está sendo registrado.

Passo 5. Aluno clica no ícone de enviar (seta) ao lado da barra

  • Q1. O usuário tentaria esta ação?
    Sim. Ícone de seta é convenção comum para “enviar” mensagens.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. O ícone destaca‑se em cor diferente ao passar o mouse.

  • Q3. Ele associará essa ação ao efeito correto?
    Sim. Seta → “ir”/“enviar”.

  • Q4. Ele receberá feedback apropriado após a ação?
    Não. O protótipo apenas limpa a caixa sem confirmação explícita.

Passo 6. (Segundo Fluxo) Aluno em “Aulas Online” clica em “Faça sua pergunta”, digita e clica em “Enviar”

  • Q1. O usuário tentaria esta ação?
    Sim. Botão label “Faça sua pergunta” é autodescritivo.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Botão ocupa área de destaque com borda ou preenchimento colorido.

  • Q3. Ele associará essa ação ao efeito correto?
    Sim. O texto do botão indica claramente que abrirá um campo de pergunta.

  • Q4. Ele receberá feedback apropriado após a ação?
    Não. A ação de envio não apresenta indicação de sucesso ou erro.

Tarefa 2: Professor responde à dúvida

Usuários típicos: Professores que ministram a disciplina e utilizam o sistema para responder perguntas dos alunos.

Passos do fluxo

  1. Passo 1. Professor abre a tela inicial (dashboard) e vê a lista de turmas que ministra.

  2. Passo 2. Professor clica na turma desejada e entra na tela da disciplina, com as abas “Aulas Online” e “Aulas Presenciais”.

  3. Passo 3. Professor desliza até a aba “Aulas Online” e clica em uma aula específica.

  4. Passo 4. Na lista de perguntas, o Professor clica na pergunta que deseja responder.

  5. Passo 5. O professor clica no botão “Responder” centralizado na tela da pergunta.

  6. Passo 6. Abre‑se uma caixa de texto; Professor digita a resposta.

  7. Passo 7. O Professor clica novamente em “Responder” para enviar a resposta e vê a confirmação.

Avaliação da Tarefa 2

Passo 1. Dashboard do Professor

  • Q1. O usuário tentaria esta ação?
    Sim. Ao entrar, espera‑se que o dashboard liste as turmas que ministra.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Os cards de turma estão bem visíveis no centro da tela.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. Convenção de UX: card de curso → detalhes do curso.

  • Q4. Ele receberá feedback apropriado?
    Sim. O cabeçalho muda para o nome da turma.

Passo 2. Selecionar a turma

  • Q1. O usuário tentaria esta ação?
    Sim. Precisa selecionar a turma para acessar o conteúdo.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Ao passar o mouse, o card exibe hover e cursor muda.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. Ícone “>” no card reforça que é clicável.

  • Q4. Ele receberá feedback apropriado?
    Sim. O painel é recarregado com as abas da disciplina.

Passo 3. Escolher “Aulas Online”

  • Q1. O usuário tentaria esta ação?
    Sim. O docente sabe que perguntas são via online.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. A aba “Aulas Online” está destacada ao hover.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. Label autoexplicativa: perguntas online.

  • Q4. Ele receberá feedback apropriado?
    Sim. A aba ativa muda de cor e lista de perguntas online aparece.

Passo 4. Selecionar uma pergunta

  • Q1. O usuário tentaria esta ação?
    Sim. Quer ver o conteúdo e responder.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Cada pergunta está em um card clicável.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. Card de pergunta → detalhes da pergunta.

  • Q4. Ele receberá feedback apropriado?
    Sim. A tela exibe a pergunta com detalhes completos.

Passo 5. Clicar em “Responder”

  • Q1. O usuário tentaria esta ação?
    Sim. Botão está centralizado e label é claro.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Cor de destaque e borda tornam-no visível.

  • Q3. Ele associará a ação ao resultado correto?
    Sim. “Responder” sugere que abre um campo para resposta.

  • Q4. Ele receberá feedback apropriado?
    Não. Não há animação ou mudança visual no botão após o clique.

Passo 6. Digitar a resposta

  • Q1. O usuário tentaria esta ação?
    Sim. Após clicar em “Responder”, espera‑se digitar ali.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Caixa de texto aparece com placeholder “Digite sua resposta…”.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. Convenção de formulário: campo de texto → inserir conteúdo.

  • Q4. Ele receberá feedback apropriado?
    Talvez. Não há contador ou borda que mude conforme digita.

Passo 7. Enviar a resposta

  • Q1. O usuário tentaria esta ação?
    Sim. Botão “Responder” permanece visível abaixo da caixa.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. Está destacado e habilitado após digitar.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. Label idêntica reforça que envia a resposta.

  • Q4. Ele receberá feedback apropriado?
    Não. Após enviar, não há confirmação clara (ex.: toast).

Tarefa 3: Professor aprova uma resposta

Usuários típicos: Professores que precisam selecionar e destacar as melhores respostas dos alunos.

Passos do fluxo

  1. Passo 1. (Mesmo Passo 1 da Tarefa 2) Dashboard → lista de turmas.

  2. Passo 2. Selecionar a turma → entrar na disciplina.

  3. Passo 3. Desliza até “Aulas Online” e escolhe uma aula.

  4. Passo 4. Selecionar a pergunta desejada.

  5. Passo 5. Abaixo da caixa de “Responder” aparece a lista de respostas enviadas por alunos.

  6. Passo 6. Ao lado de cada resposta, Professor clica no ícone “Aprovar” (✓).

  7. Passo 7. A resposta aprovada recebe destaque visual (fundo ou borda colorida).

Avaliação da Tarefa 3

Passo 5. Lista de respostas

  • Q1. O usuário tentaria esta ação?
    Sim. Para aprovar, precisa ver as respostas.

  • Q2. Ele perceberá que a ação está disponível?
    Sim. As respostas aparecem em cards abaixo da caixa.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. Cards listam texto de cada resposta.

  • Q4. Ele receberá feedback apropriado?
    Sim. Ao rolar a tela, sente que há conteúdo ali.

Passo 6. Clicar em “Aprovar” 

  • Q1. O usuário tentaria esta ação?
    Sim. Um ícone verde aparece ao lado de cada resposta sugere ação de validação.

  • Q2. Ele perceberá que a ação está disponível?
    Talvez. O ícone é pequeno e sem hover definido, pode passar despercebido.

  • Q3. Ele associará a ação ao efeito correto?
    Sim. O verde é convenção universal de “confirmar”/”aprovado”.

  • Q4. Ele receberá feedback apropriado?
    Não. Não há indicação imediata de que a aprovação ocorreu (além da cor que pode demorar a aparecer).