UNIVERSIDADE DE LISBOA Faculdade de Ciências Departamento de Informática

ACESSO A FILMES COM BASE EM EMOÇÕES

Pedro Filipe de Jesus Ferreira Martins

MESTRADO EM ENGENHARIA INFORMÁTICA Sistemas de Informação

2011

UNIVERSIDADE DE LISBOA Faculdade de Ciências Departamento de Informática

ACESSO A FILMES COM BASE EM EMOÇÕES

Pedro Filipe de Jesus Ferreira Martins DISSERTAÇÃO

Trabalho orientado pela Profª. Doutora Maria Teresa Caeiro Chambel

MESTRADO EM ENGENHARIA INFORMÁTICA Sistemas de Informação

2011

Agradecimentos À professora Maria Teresa Caeiro Chambel pela sua orientação e disponibilidade ao longo deste trabalho, possibilitando o sucesso de mais uma etapa tanto na minha formação académica como pessoal. Sem ela, este trabalho não teria o mesmo valor. Agradeço ainda à Faculdade de Ciências da Universidade de Lisboa, à Fundação para a Ciência e Tecnologia, que financiou o projecto VIRUS (PTDC/EIAEIA/101012/2008), aos colegas do projecto, ao HCIM-LaSIGE e DI, pelas condições disponibilizadas para a realização deste trabalho. Quero agradecer ainda aos participantes nas avaliações de ambos os protótipos, pelo tempo prestado e pela contribuição para acrescentar valor ao meu trabalho. Por último e não menos importante, à minha família e amigos que me rodeiam nos bons e maus momentos, incentivando-me a procurar dar sempre o máximo para conseguir atingir os meus objectivos pessoais com sucesso.

À minha orientadora, família e amigos.

Resumo Os filmes constituem uma das fontes mais importantes de entretenimento, tanto em contextos individuais como sociais. Através da combinação de diversos sistemas de símbolos, tais como imagens, textos, áudio e narração para criar histórias, frequentemente envolvem o espectador perceptual, cognitiva e emocionalmente. Os avanços tecnológicos permitem o acesso a colecções enormes de vídeos e filmes pela Internet, nas redes sociais, ou através de Video on Demand, que se vem tornando uma actividade de entretenimento em crescendo na Internet e na iTV (televisão interactiva). O desenvolvimento de técnicas de análise e classificação do vídeo baseadas no conteúdo permitem o acesso a mais informações sobre ou contidas nos filmes, exigindo o desenvolvimento de novos mecanismos de pesquisa, navegação e visualização de vídeos e filmes neste cenário. Este trabalho apresenta diferentes mecanismos de acesso, sumarização, exploração e visualização de filmes baseados nas suas propriedades emocionais, expressas nos filmes ou sentidas pelos espectadores. Com esse intuito, foi feito um estudo sobre o impacto emocional dos filmes e foram concebidos dois protótipos: O iFelt, onde os mecanismos desenvolvidos se focam em emoções sentidas, para aceder e interagir com filmes e cenas dos filmes; e o movieClouds, que enquadra também emoções sentidas, mas foca-se em emoções expressas nos filmes e veiculadas nas diferentes perspectivas do seu conteúdo, especialmente no áudio e nas legendas, onde a maioria da semântica é expressa. Ambos os protótipos foram avaliados com utilizadores, para perceber se eram úteis, satisfatórios e fáceis de utilizar, avaliar a sua usabilidade e obter opiniões e comentários. Os resultados foram bastante positivos e animadores. Apesar de alguns conceitos novos nas primeiras interacções, os utilizadores apreciaram a ideia de utilizar as propriedades emocionais para interagir com filmes, desde as perspectivas mais globais ao nível do espaço de filmes, até aos filmes, as suas cenas, e a sua evolução ao longo do tempo em timelines, nas diferentes perspectivas.

Palavras-chave: Acesso e Exploração de Filmes, Navegação Exploratória, Perspectivas Emocionais dos Filmes, Representação Emocional dos Filmes, Emoções, Sumarização, Visualização.

i

ii

Abstract Movies are one of the main sources of entertainment, in individual and social contexts. By combining diverse symbol systems, such as images, texts, audio and narration to create stories, they often engage the viewer’s perceptually, cognitively and emotionally. Technological advances are enabling the access to enormous collections of videos and movies over the Internet, in social media, and through video on demand services, that is becoming a growing entertainment activity on the Internet and iTV (interactive television). The development of video content-based analysis and classification techniques is also allowing the access to more information about or contained in the movies, demanding for new ways to search, browse and view videos and movies in this scenario. This work presents different mechanisms to access, summarize, explore and visualize movies based on their emotional properties, either expressed in the movies or felt by the viewers. For this, were designed and developed two prototypes: iFelt, where the mechanisms are focused on felt emotions to interact with movies and movie scenes; and movieClouds, that also uses felt emotions, but has a stronger focus on expressed emotions on movies, conveyed in the different tracks or perspectives of its content, especially audio and subtitles, where most of the semantics is expressed. Both prototypes were evaluated with users to get insights and feedback about their usefulness, satisfaction and ease to use. The results were very positive and quite encouraging. Although some concepts were new in the first interactions, users loved the idea of taking advantage of emotional properties to interact with movies, to overview, watch and browse movies, from a global perspective in the movie space, down to the movies, its scenes, and the timelines, where specific emotions and events can be accessed along time, in the different perspectives.

Keywords: Movie Access and Exploration, Exploratory Browsing, Movie Emotional Perspectives, Movie Emotional Representation, Emotions, Summarization, Visualization.

iii

iv

Conteúdo

Capítulo 1

Introdução............................................................................................ 1

1.1

Motivação ................................................................................................... 1

1.2

Objectivos e Metodologia ........................................................................... 2

1.3

Enquadramento ........................................................................................... 3

1.4

Contribuições e Resultados ........................................................................ 3

1.5

Plano de Desenvolvimento ......................................................................... 4

1.6

Estrutura do documento .............................................................................. 6

Capítulo 2

Trabalho Relacionado ......................................................................... 7

2.1

Modelos das Emoções ................................................................................ 7

2.2

Representação e Visualização de Emoções ................................................ 9

2.3

Acesso e Visualização de Vídeos ............................................................. 12

2.4

Acesso e Exploração de Áudio ................................................................. 20

2.5

Acesso e Visualização de Texto em Tag Clouds ...................................... 22

2.6

Representação de Informação Temporal .................................................. 25

2.7

Tecnologias de Suporte ............................................................................ 26

Capítulo 3 3.1

iFelt.................................................................................................... 31

Análise de Requisitos ............................................................................... 31

3.1.1

Requisitos Funcionais ....................................................................... 32

3.1.2

Requisitos não Funcionais................................................................. 32

3.2

Classificação das Emoções e Conceitos ................................................... 33

3.3

Desenho .................................................................................................... 34

3.3.1

Movie Space ...................................................................................... 37

3.3.2

Movies Emotional Scenes Space....................................................... 40

3.3.3

Movie Emotional Profile ................................................................... 42

3.3.4

User Emotional Profile ...................................................................... 43 v

3.4

Arquitectura .............................................................................................. 45

3.5

Avaliação com Utilizadores ..................................................................... 48

3.5.1

Objectivos.......................................................................................... 48

3.5.2

Método .............................................................................................. 49

3.5.3

Resultados ......................................................................................... 49

3.6

Conclusões ................................................................................................ 53

Capítulo 4

Estudo sobre o Impacto Emocional dos Filmes nos Espectadores.... 55

4.1

Contexto e Atitudes .................................................................................. 56

4.2

Géneros de Filmes e Emoções Sentidas ................................................... 56

4.3

Preferências e Filmes Marcantes .............................................................. 57

Capítulo 5 5.1

MovieClouds ..................................................................................... 59

Análise de Requisitos ............................................................................... 59

5.1.1

Requisitos Funcionais ....................................................................... 60

5.1.2

Requisitos não Funcionais................................................................. 60

5.2

Classificação de Conteúdos ...................................................................... 61

5.2.1

Discurso nas Legendas ...................................................................... 61

5.2.2

Emoções nas Legendas...................................................................... 62

5.2.3

Mood do Áudio.................................................................................. 63

5.2.4

Eventos Sonoros ................................................................................ 63

5.2.5

Emoções Sentidas .............................................................................. 64

5.3

Desenho .................................................................................................... 64

5.3.1

Movies Space View ........................................................................... 67

5.3.2

Movie View ....................................................................................... 69

5.4

Arquitectura .............................................................................................. 71

5.5

Avaliação com Utilizadores ..................................................................... 75

5.5.1

Objectivos.......................................................................................... 75

5.5.2

Método .............................................................................................. 76

5.5.3

Resultados ......................................................................................... 76

5.6

Conclusões ................................................................................................ 78 vi

Capítulo 6

Considerações Finais e Trabalho Futuro ........................................... 81

6.1

Considerações Finais ................................................................................ 81

6.2

Trabalho Futuro ........................................................................................ 82

Referências Bibliográficas ...................................................................................... 85 Referências Internet ................................................................................................ 91 ANEXO A Guião de Entrevista da Avaliação do iFelt ............................................................. 93 ANEXO B Guião do Questionário do Estudo sobre o Impacto Emocional dos Filmes.......... 107 ANEXO C Guião da Entrevista de Avaliação do movieClouds ............................................. 109

vii

viii

Lista de Figuras

Figura 1.1:

Mapa Gantt do planeamento proposto ........................................................ 4

Figura 1.2:

Mapa Gantt do planeamento final ............................................................... 5

Figura 2.1:

Modelo de duas dimensões de Russel ......................................................... 8

Figura 2.2:

Modelo de Emoções de R. Plutchik ............................................................ 9

Figura 2.3:

Conjunto de vistas do sistema WeFeelFine .............................................. 10

Figura 2.4:

Interface do Mappiness ............................................................................. 11

Figura 2.5:

Hoolooyoo, primeira demonstração do Synesketch .................................. 11

Figura 2.6:

Synemania, segunda demonstração do Synesketch .................................. 12

Figura 2.7:

Pesquisa dinâmica no FilmFinder ............................................................. 13

Figura 2.8:

Perfil do utilizador no Netflix ................................................................... 13

Figura 2.9:

Resultados de uma pesquisa no Youtube .................................................. 14

Figura 2.10: Resultados de uma pesquisa no Vimeo ..................................................... 15 Figura 2.11: Resultado da pesquisa "El Niño" na Informedia Digital Video Library. a) Thumbnails, b) Filmstips, c) Skims. ..................................................... 16 Figura 2.12: Experiência sobre espaços de vídeo do Youtube ...................................... 17 Figura 2.13: Apresentação da colecção de vídeos da TED no VideoSphere ................ 17 Figura 2.14: Exploração do macrospace no VideoSpace .............................................. 18 Figura 2.15: Navegação do macrospace para o microspace no VideoSpace................. 18 Figura 2.16: Espaço de vídeos do ColorsInMotion. a) Loops de vídeo, b) Vista de cores médias, c) Vista das cores dominantes, d) Cores dominantes do vídeo ao longo do tempo, e) Loops da média das cenas dos vídeos, f) Vista em Slit Scan ..................................................................................... 19 Figura 2.17: Perfil do vídeo do ColorsInMotion ........................................................... 20 ix

Figura 2.18:

Rádio online Rockolla fm ....................................................................... 20

Figura 2.19:

Rádio online Musicovery. a) Mood Pad, b) Timeline Map .................... 21

Figura 2.20:

Modelo mental de Paris, de Stanley Milgram ......................................... 22

Figura 2.21:

Diagrama "Money Makes World Go Round" da revista Fortune ........... 23

Figura 2.22:

Tags mais populares no Flickr em 2002 ................................................. 23

Figura 2.23:

Tag Cloud criada no Wordle ................................................................... 24

Figura 2.24: Notícias filtradas por Entretenimento e Tecnologia no Associated Press Timeline Reader ...................................................................................... 25 Figura 2.25:

Espaço inicial da British History Timeline ............................................. 26

Figura 3.1:

Esboços do iFelt: a) Espaço de Filmes, b) Espaço de Cenas Emocionais, c) Perfil do Filme, d) Perfil do Utilizador. .............................................. 34

Figura 3.2:

1º cenário de utilização do iFelt .............................................................. 35

Figura 3.3:

2º cenário de utilização do iFelt .............................................................. 36

Figura 3.4:

3º cenário de utilização do iFelt .............................................................. 36

Figura 3.5:

Lista de emoções consideradas com as respectivas cores atribuídas ...... 37

Figura 3.6:

Vista Wheel do Movies Space do iFelt ................................................... 38

Figura 3.7:

As 4 variantes da Wheel.......................................................................... 39

Figura 3.8:

Vista Title do Movies Space do iFelt ...................................................... 40

Figura 3.9:

Movies Emotional Scenes Space do iFelt ............................................... 41

Figura 3.10: Transição do a) Movies Emotional Scenes Space para o b) Movie Emotional Profile no iFelt ........................................................................41 Figura 3.11:

Movie Emotional Profile do iFelt ........................................................... 42

Figura 3.12:

Comparação de duas Emotional Timelines (Utilizador vs Todos) ......... 43

Figura 3.13:

User Emocinal Profile do iFelt: Vista Title. ........................................... 44

Figura 3.14: User Emotional Profile do iFelt. a) My Classified Movies Space, vista Wheel. b) My Classified Emotional Scenes. ...................................45 Figura 3.15:

Arquitectura do iFelt ............................................................................... 45

Figura 3.16:

Exportação de um elemento gráfico para Action Script 3.0 no Flash..... 46

Figura 3.17: Função de inicialização no elemento de vídeo no Movie Emotional Profile .......................................................................................................47

x

Figura 3.18: Excerto da função que anima a timeline e círculo das emoçõesno Movie Emotional Profile ............................................................................47 Figura 5.1:

Esboços do movieClouds. a) Movies Space View, b) Movie View. ........ 64

Figura 5.2:

1º cenário considerado no movieClouds ................................................... 66

Figura 5.3:

2º cenário considerado no movieClouds ................................................... 66

Figura 5.4:

3º cenário considerado no movieClouds ................................................... 66

Figura 5.5:

Movie Space View do movieClouds ......................................................... 68

Figura 5.6:

Navegação no Movies Space View do movieClouds ............................... 69

Figura 5.7:

Movie View do movieClouds ................................................................... 69

Figura 5.8:

Navegação na Movie View no movieClouds ............................................ 71

Figura 5.9:

Arquitectura do movieClouds ................................................................... 72

xi

xii

Lista de Tabelas Tabela 3.1:

Resultados da Avaliação USE do Movies Space .................................... 50

Tabela 3.2:

Resultados da Avaliação USE do Movie Emotional Profile ................... 51

Tabela 3.3:

Resultados da Avaliação do Emotional Scenes Space ............................ 52

Tabela 3.4:

Resultados da Avaliação ao User Emotional Profile ............................... 52

Tabela 4.1:

Questões com foco no contexto e atitudes dos espectadores................... 56

Tabela 4.2: Questões com foco nos géneros de filmes e emoções sentidas pelos espectadores ............................................................................................. 57 Tabela 4.3: Respostas às questões sobre preferências e filmes marcantes para os espectadores ............................................................................................. 58 Tabela 5.1: Legendas dos filmes: À esquerda, excerto de um ficheiro típico de legendas de um filme. À direita, excerto de legendas processadas em pares de “:frequência” em formato JSON. ............................... 62 Tabela 5.2:

Conjunto de emoções consideradas nas legendas no movieClouds ........ 62

Tabela 5.3: Função drawTag, desenha nas timelines as ocorrências dada uma tag e cor. .........................................................................................................73 Tabela 5.4:

Processamento das legendas .................................................................... 73

Tabela 5.5:

Tratamento da Tag Cloud das legendas no Movie View......................... 75

Tabela 5.6:

Resultados da Avaliação ao movieClouds (escala 1-5). .......................... 76

xiii

xiv

Capítulo 1 Introdução Neste capítulo são apresentadas as secções introdutórias deste trabalho, de forma a contextualizar o leitor sobre a motivação, objectivos, enquadramento e contribuições deste trabalho.

1.1 Motivação Os avanços tecnológicos, nomeadamente ao nível da digitalização e das redes de comunicação, permitem o acesso a vídeos na Internet nas mais variadas formas (e.g. redes sociais e video on demand), alterando o modo como os utilizadores pesquisam, navegam e visualizam vídeos e filmes. Os filmes afectam frequentemente os espectadores perceptual, cognitiva e emocionalmente, através da combinação de diversos tipos de media, tais como imagens, textos ou áudios para criarem as suas histórias. Como tal, os filmes são uma forma de arte e uma fonte de entretenimento poderosa na nossa vida, capaz de influenciar a nossa disposição, as nossas atitudes e consequentemente a nossa saúde e bem-estar, fazendo diferença nas nossas vidas (Huppert, F. 2006). Estando o vídeo a tornar-se cada ve mais presente nas nossas vidas, aliado sua capacidade de gerar sentimentos e emoções fortes, torna-se pertinente explorar as suas valências em induzir e apoiar as nossas emoções. Desta forma, poderíamos perceber que tipo de emoções um filme transmite ou desperta em média, ou numa determinada pessoa, poderíamos comparar visualmente perfis emocionais dos filmes ao longo das suas cenas, encontrar filmes com o mesmo perfil emocional de outro, recomendar filmes com base nas preferências do espectador, encontrar um filme ou uma cena que nos ponha mais alegres numa altura em que estamos mais tristes, perceber se os filmes causam nos espectadores as emoções que o realizador pretendia, perceber que características do filme provocam as diferentes emoções, por exemplo, se cenas onde há gritos e referências a fantasmas provocam medo, e como estas se relacionam com o género de filme, por exemplo, comédia ou terror. 1

Contudo, nem toda a riqueza que torna o vídeo um elemento especial entre os tipos de media muito explorada. Isto deve-se em grande parte ao facto de que o vídeo um meio temporal e não estruturado, fazendo com que aceder ao seu conteúdo não seja uma tarefa fácil. De forma a enfrentar este desafio, pode-se indexar parte da informação do vídeo utilizando descritores semânticos, manualmente ou envolvendo processamento e segmentação automáticos das legendas, áudio e imagens do vídeo. Uma vez obtida informação significativa, pode-se utilizá-la para melhorar a organização e acesso ao vídeo, através de mecanismos de navegação, acesso e exploração de espaços de vídeo, de formas que se podem tornar particularmente relevantes. Alguns investigadores (Daniel, et. al. 2003; Hauptmann, 2005) sublinharam a importância de desenvolver métodos de extracção e destaque de características interessantes e significativas dos vídeos para efectivamente os resumir e visualizar, isto porque há muitas situações em que os utilizadores não têm o conhecimento ou contextualização suficiente para formular as pesquisas, o que faz com que surja a necessidade de conceber sistemas de pesquisa exploratória que suportem este tipo de navegação e que possam inclusive resultar em descobertas por acaso – serendipity browsing (Christel, 2008; Chen, 2010). Pesquisas menos precisas permitem chegar a uma vizinhança de resultados que os utilizadores podem navegar para e plorar em detalhe, procura de resultados que n o sa em especificar completamente, mas que sabem reconhecer, ou em último caso, envolver-se em descobertas acidentais. Assim, a navegação exploratória pode levar a um resultado relevante, no qual o utilizador se envolve na análise, comparação e compreensão em diferentes aspectos relevantes, podendo ainda fazer descobertas inesperadas. Este modo de navegação pass vel de proporcionar explorações flexíveis e agradáveis, estimulando a inspiração e a criatividade.

1.2 Objectivos e Metodologia Os objectivos deste trabalho são estudar, explorar, conceber, desenvolver e avaliar mecanismos para a exploração e acesso a filmes baseados nas emoções expressas nos filmes ou sentidas pelos utilizadores. Usando um modelo de investigação de natureza exploratória, e de desenvolvimento, é efectuado primeiro um estudo sobre outros mecanismos de acesso, exploração, visualização e representação, relacionados com o âmbito deste trabalho, investigando diversas características das aplicações actuais, de forma a procurar conceber ideias sólidas. Depois, procura-se dar vida e avaliar com utilizadores, procurando saber se e como os utilizadores tiram partido da informação adicional para ganhar maior consciência sobre os filmes e as emoções que sentem ao assistir a filmes.

2

1.3 Enquadramento Este trabalho foi realizado como Projecto de Engenharia Informática (PEI) do Mestrado em Engenharia Informática da Faculdade de Ciências da Universidade de Lisboa (FCUL), no contexto do projecto VIRUS: “Video Information Retrieval Using Subtitles” (Langlois et al., 2010) financiado pela FCT, e realizado no grupo HumanComputer Interaction and Multimedia (HCIM) do Laboratório de Sistemas Informáticos de Grande Escala (LaSIGE) da FCUL. Este projecto tem como objectivo analisar três tipos de dados (vídeo, legendas e áudio), de forma a classificar, indexar e visualizar excertos de vídeos que partilham certas ligações ou propriedades, com maior foco nos aspectos emocionais. A minha tarefa consiste essencialmente na criação da interface do utilizador, procurando formas criativas de elaborar vistas e formas de acesso, relacionando as características obtidas das análises de áudio, legendas, vídeo, e dos utilizadores, com especial ênfase em dados e perfis emocionais.

1.4 Contribuições e Resultados Neste trabalho, contribui-se com um estudo de outros trabalhos em áreas relacionadas e o desenvolvimento de dois protótipos de sistemas que tiram partido, através de mecanismos diferentes, da utilização da informação emocional sentida pelos espectadores e expressa nos filmes para acesso, visualização e exploração de filmes. No decurso do projecto, colaborei na realização de três artigos longos que foram publicados em conferências internacionais em áreas de referência: • Oliveira, E., Martins, P., Chambel, T. "iFelt: Accessing Movies Through Our Emotions". In Proceedings of EuroITV'2011: "9th International Conference on Interactive TV and Video: Ubiquitous TV", in cooperation with ACM SIGWEB, SIGMM & SIGCHI, pp.105-114, Lisbon, Portugal, June 29-July 1, 2011. Best Paper Award. • Chambel, T., Oliveira, E., Martins, P. "Being Happy, Healthy and Whole Watching Movies that Affect our Emotions". In Proceedings of ACII'2011: The 4th International Conference on Affective Computing and Intelligent Interaction, Memphis, TN, USA, Oct 9-12th, Springer-Verlag Berlin, Heidelberg, pp.35-45, 2011. • Martins, P., Langlois, T., Chambel, T., "MovieClouds: Content-Based Overviews and Exploratory Browsing of Movies". In Proceedings of Academic MindTrek'2011: Envisioning Future Media Environments, in cooperation with ACM SIGCHI & SIGMM, pp.133-140, Tampere, Finland, September 28-30, 2011.

3

De referir ainda que o artigo "iFelt: Accessing Movies Through Our Emotions" foi seleccionado para ser estendido e publicado na revista “Entertainment Computing” da editora Elsevier. Ainda no âmbito deste trabalho, com o intuito de aprender mais e familiarizar com a comunidade científica nacional e internacional em áreas relevantes, e também para assistir à apresentação de trabalhos num contexto de investigação académica, assisti às conferências Interacção 2010 (url-Int2010) e FuturePlaces 2010 (url-FuturePlaces), e participei como student volunteer no EuroITV’2011, onde apresentámos o artigo do iFelt.

1.5 Plano de Desenvolvimento Nesta secção apresenta-se o modelo de concepção e desenvolvimento e o plano de trabalho. Devido à natureza exploratória e interactiva deste projecto, foi importante que houvesse uma iteração ao longo das várias fases de desenvolvimento (Análise, Desenho, Implementação e Avaliação), por isso o modelo em cascata não era o mais adequado. Por ser realizado no contexto do projecto VIRUS, não se esperava que os requisitos deste projecto se alterassem consideravelmente, logo o modelo ágil não será necessário. Assim, optou-se por um modelo em espiral (Boehm B, 1986), já que este permite delinear os requisitos do trabalho e desenvolvê-lo em iterações sucessivas, oferecendo a possibilidade de refinar, modificar ou adicionar novas funcionalidades que de seguida serão testadas de novo, até se chegar à conclusão do trabalho. Assim, um modelo baseado neste paradigma parece ser o mais adequado, permitido a flexibilidade necessária ao refinamento do trabalho.

Figura 1.1: Mapa Gantt do planeamento proposto

O projecto foi inicialmente proposto para a duração standard de nove meses (figura 1.1), mas acabou por ter uma duração superior, cerca de doze meses (figura 1.2), por ter 4

havido a submissão de três artigos científicos (em vez de um, como previsto inicialmente) e por nos primeiros quatro meses ter sido realizada uma disciplina (com projecto de várias fases e exame), a par com o projecto da tese.

Figura 1.2: Mapa Gantt do planeamento final

5

Devido às exigências dos prazos de certas conferências, às quais se submeteram os artigos, houve a necessidade de criar logo protótipos de alta-fidelidade e as fases de implementação e prototipagem acabaram por se antecipar. O que, juntamente com o exame e projectos da disciplina, remeteu a conclusão do relatório preliminar para mais tarde. Existiram duas fases de desenvolvimento, em vez de uma, para contemplar os dois protótipos, e foi feito algum processamento de conteúdo não previsto inicialmente. E surgiram ainda, entre Julho e Setembro, alguns assuntos particulares que atrasaram a conclusão do relatório até 28 de Setembro de 2011. Apesar dos atrasos nas entregas dos relatórios, o trabalho realizado seguiu (antecipando até certas tarefas) o plano, e inclusive excedeu nalguns aspectos as espectativas iniciais em termos de resultados.

1.6 Estrutura do documento Este documento está organizado em 6 capítulos: 1. Introdução, onde se apresenta a visão geral da dissertação, no que diz respeito à motivação, objectivos, enquadramento, contribuições e resultados, e o plano de desenvolvimento; 2. Trabalho Relacionado, onde são apresentados outros trabalhos em áreas relevantes, que foram estudados ao logo da dissertação; de seguida os capítulos 3. iFelt, 4. Estudo sobre o Impacto Emocional dos Filmes, e 5. movieClouds, onde se apresenta o trabalho realizado. Fazendo no capítulos 3 e 5 a descrição das etapas de desenvolvimento Análise, Desenho e Concretização e se apresentam os resultados da Avaliação com utilizadores. E no capítulo 4 a apresentação do estudo realizado sobre o tema, e dos resultados de um questionário feito ao mesmo grupo de utilizadores que participou na avaliação do iFelt; por último, o capítulo 6. Considerações finais e Trabalho futuro, inclui uma apreciação do trabalho realizado e aponta direcções para trabalho futuro.

6

Capítulo 2 Trabalho Relacionado Neste capítulo é apresentado um estudo prévio sobre várias áreas e sistemas que mais se relacionam e ajudam a caracterizar o estado da arte no âmbito deste trabalho. A apresentação desses trabalhos está feita em seis categorias: 1. Modelos das Emoções; 2. Representação e Visualização de Emoções; 3. Acesso e Visualização de Vídeos; 4. Acesso e Exploração de Áudio; 5. Acesso e Visualização de Texto; 6. Tecnologias de Suporte.

2.1 Modelos das Emoções Apesar de existirem inúmeras definições de emoção (Kleinginna & Kleinginna, 1981), há dois aspectos que são de consenso geral: primeiro, a emoção é resultado da reacção a eventos relevantes às necessidades, objectivos ou preocupações de cada indivíduo; e em segundo, a emoção relaciona-se com componentes psicológicos, afectivos, comportamentais e cognitivos (Scott Brave et al., 2002). Na perspectiva de quem produz vídeos, existem várias técnicas para induzir um ambiente emocional específico, técnicas como duração dos eventos, condições de iluminação, cor e movimento, etc (Arijon, 1976). Na perspectiva dos espectadores e do conteúdo, existem dois modelos emocionais principais que se podem usar para identificar propriedades emocionais sentidas: o modelo Dimensional e o modelo Categórico. O Modelo Dimensional ou Circunflexo, proposto por Russel (1980), consiste numa representação espacial de duas dimensões representado na figura 2.1: o arousal, que representa a intensidade da emoção, considerando o topo a de maior intensidade e o fundo de menor intensidade; e a valência, que define a polaridade da emoção, estando na esquerda as emoções mais negativas e na direita as emoções mais positivas.

7

O Modelo Categórico define emoções como estados distintos que identificam um certo comportamento ou experiência. Nesta linha, um dos estudos mais importantes foi o de Paul Ekman (1992) sobre expressões emocionais, onde foram identificadas seis emoções básicas baseadas no reconhecimento de expressões faciais em diversas culturas, são elas: raiva, nojo, medo, alegria, tristeza e surpresa. Emoções que apresentam correspondência no circunflexo de Russel, como observável na figura 2.1.

Figura 2.1: Modelo de duas dimensões de Russel

O Modelo de Appraisals, outra abordagem para identificar propriedades emocionais nos vídeos que é relevante destacar, sustenta que a identificação de emoções é baseada na avaliação particular que fazemos das situações e eventos que vivenciamos. Este modelo, também categórico, enquadra situações em que num mesmo contexto dois indivíduos podem ter emoções completamente distintas. E isso deve-se à análise pessoal que fazem desse contexto, assim como do modo como formam opiniões sobre o que acontece e sentem. Scherer (2001), criador deste modelo, criou mais tarde o Geneva Affect Label Code (Scherer 2005), um conjunto de descritores emocionais capazes de reconhecer 36 estados afectivos diferentes através de análises de palavras (termos e os seus sinónimos). No entanto, há quem empregue a junção de dois ou mais modelos, como é o caso de Robert Plutchik (1980) que usa os modelos categórico e dimensional. Ele defende um modelo de 3 dimensões (polaridade, similaridade e intensidade) com 8 emoções primárias (raiva, medo, tristeza, nojo, surpresa, antecipação, confiança e alegria). Este modelo circunflexo de 3 dimensões ganha a forma de um cone (figura 2.2), onde o círculo da base, semelhante à roda das cores, representa a similaridade entre as emoções, e a dimensão vertical representa a intensidade da emoção.

8

Figura 2.2: Modelo de Emoções de R. Plutchik

A decisão sobre qual destes modelos deve ser utilizado para classificar as emoções, depende da forma como as emoções forem detectadas. O modelo dimensional e os modelos categóricos mais simples, são as opções obrigatórias para processos automáticos de detecção, devido à dificuldade e limitação em diferenciar as emoções através dos sinais fisiológicos, faciais e cerebrais. O modelo de appraisals parece ser a melhor opç o para a identificaç o “manual” das emoções, uma vez que reconhece uma maior quantidade de termos, o que provavelmente acontece em processos manuais.

2.2 Representação e Visualização de Emoções Há alguns estudos e trabalhos no contexto de visualização e descrição de emoções, mas não sobre vídeo. Pela sua relevância, apresentam-se os mais representativos. We Feel Fine (url-WeFeelFine) recolhe entradas em vários weblogs que tenham ocorrências de "I feel" ou "I am feeling" nas frases, e identifica o sentimento expresso (e.g. triste, feliz, deprimido, melhor, etc.) assim como, se estiver disponível, informações do autor e do local físico de onde foi publicada. A interface apresenta no topo as opções de filtragem dos dados (feeling, gender, age, weather, location e date), e possui seis vistas sobre a informação, ilustradas na figura 2.3 e denominadas de: a) Madness. É um sistema de milhares de partículas que se movimentam aleatoriamente ao longo do espaço e reagem, por proximidade, ao cursor manipulado pelo utilizador. Cada uma dessas partículas representa um sentimento, e tem a forma de um quadrado, se possuir imagem, e circular caso contrário. A cor 9

e o tom das partículas estão relacionados com o sentimento contido na frase, por exemplo: se for positivo e feliz é-lhe atribuída um amarelo brilhante, se for negativo e triste, pinta a partícula de azul-escuro, raiva de encarnado, calma de verde. b) Murmurs. Nesta vista, as partículas flutuam e movimentam-se no topo, logo a seguir à barra das opções de filtragem, descendo uma a uma, dispondo as partículas numa lista com scroll automático, o que permite visionar a frase contida em cada uma delas, bem como quem a publicou e há quanto tempo. c) Montage. Apresenta uma grelha simples de thumbnails apenas dos sentimentos com imagens associadas à entrada no weblog. d) Mobs. É um conjunto de 5 subvistas (feeling, gender, age, weather, location), onde cada uma utiliza um sistema de partículas auto-organizado para configurar a sua forma, cor, distribuição e comportamento, criando representações visuais mais adequadas ao tipo de subvista, de modo a se identificarem as ocorrências mais comuns nelas. e) Metrics. Assim como a Mobs, é o conjunto de 5 subvistas sobre os mesmos atributos (feeling, gender, age, weather, location), mas aqui o objectivo é comparar uma amostra com a média global. f)

Mounds. Apresenta todos os sentimentos na base de dados, dimensionados e ordenados conforme a sua frequência. Cada sentimento é representado sob a forma de uma bolha, que mantém o esquema de cores explicado na vista Madness, que dá visualmente a noção da quantidade de ocorrências.

Figura 2.3: Conjunto de vistas do sistema WeFeelFine

10

Já se encontram sistemas que consideram a dimensão emocional e tiram partido da mobilidade. É o caso de Mappiness (url-Map), uma aplicação para iPhone (figura 2.4), cujo objectivo é recolher e visualizar informação emocional dos habitantes do Reino Unido. A aplicação pede por 3 vezes ao longo do dia aos utilizadores para reportarem como se sentem, se estão acompanhadas, e no interior ou exterior. Junto com essa informação, é guardada também a posição no mapa. O objectivo é perceber como o ambiente influência e afecta os estados emocionais das pessoas.

Figura 2.4: Interface do Mappiness

Synesketch (url-Synesketch), outro sistema de visualização de emoções, é uma API capaz de reconhecer emoções expressas textualmente e gerar visualizações. Baseiase no conceito de sinestesia (Cytowic, Richard E., 2002; Chambel, T. et. al. 2010), que é um fenómeno neurológico que ocorre quando um estímulo num sentido provoca imediatamente uma sensação noutro sentido, e mapeia o texto para padrões visuais animados. Hooloovoo, um das demonstrações da biblioteca, expressa visualmente as emoções encontradas no texto por quadrados coloridos (figura 2.5), afectando a sua cor, saturação, tamanho e frame rate.

Figura 2.5: Hoolooyoo, primeira demonstração do Synesketch

11

Outra demonstração do Synesketch, a Synemania, cria uma visualização mais complexa baseada num sistema de partículas e seus movimentos. Os padrões criados dependem da emoção e da sua intensidade, reflectida na cor e tipo de partícula. Na figura 2.6, tem-se um exemplo de uma representação visual de uma frase que expressa uma surpresa muito forte.

Figura 2.6: Synemania, segunda demonstração do Synesketch

Também nesta linha, o projecto Emotionally}Vague (url-Emo), estudou a relação entre o corpo e a emoção, procurando saber como as pessoas sentem e simbolizam emoções como raiva, alegria, medo, tristeza e amor. Os resultados do estudo mostraram que, por exemplo, a raiva e o amor se manifestam respectivamente na cabeça e no peito, mas que, apesar de serem emoções distintas, a cor associada para ambas é o vermelho, e as cores associadas à alegria são vivas e muito saturadas.

2.3 Acesso e Visualização de Vídeos Para acesso à informação dos vídeos, a IMDb - Internet Movie Database (urlIMDb) é provavelmente a maior e mais conhecida base de dados disponível na Internet sobre filmes e séries televisivas, fornecendo informação sobre actores, directores, equipas de produção, géneros de filmes, etc. Permite ainda que os utilizadores classifiquem os filmes através de um sistema de estrelas e efectuem críticas textuais. O espaço de apresentação da informação baseia-se em elementos tradicionais, como listas e formulários. Utilizando vistas com vários elementos gráficos e menos tradicionais, o Film Finder (Ahlberg & Truvé, 1995) permite pesquisas por género, actores, directores, título, como o IMDb permite, mas os resultados são apresentados baseados na sua popularidade e data, num gráfico do tipo starfield. Na figura 2.7, observa-se no Film Finder a selecção de um filme encontrado a partir do resultado da pesquisa de filmes com duração entre 60 e 269 minutos, onde participa o actor Sean Connery. Nenhum dos

12

sistemas, acima mencionados, suporta a visualização de filmes ou séries sobre as quais possuem informação, nem utiliza qualquer tipo de informação emocional.

Figura 2.7: Pesquisa dinâmica no FilmFinder

No contexto do visionamento de vídeos, surgem sistemas como o Netflix (urlNetflix), o Youtube (url-Youtube), e o Vimeo (url-Vimeo). A Netflix, figura 2.8, é uma aplicação que, através de subscrição, permite aos utilizadores requisitar filmes, que são entregues em DVD pelo correio ou disponibilizados por streaming através da internet. A aplicação está disponível em computadores pessoais, dispositivos móveis ou consolas. Os filmes são apresentados numa tabela, onde cada filme é composto pelo título, poster e por uma classificação numa escala de 5 estrelas. A interacção é bastante básica e simples, sendo apenas necessário o utilizador seleccionar o botão "Play Instantly" para que o filme seja imediatamente reproduzido. Existe a possibilidade de o utilizador fazer um intervalo e parar a reprodução a qualquer instante, retomar a reprodução ou ainda voltar ao início do filme.

Figura 2.8: Perfil do utilizador no Netflix

13

O YouTube, figura 2.9, provavelmente um dos websites de vídeo mais utilizados hoje em dia, é usado para a publicação e visualização de vídeos. Os utilizadores, enquanto da publicação do vídeo, fornecem informação comum como o título, uma descrição, etiquetas e categorias. Esta informação é usada na pesquisa dos vídeos, e na recomendação de outros vídeos semelhantes ao que o utilizador está a assistir num momento, ou a partir do historial de vídeos assistidos. Os utilizadores podem avaliar os vídeos dizendo se gostam ou não, adicionar à sua lista de favoritos, comentar e partilhar nas redes sociais. No contexto do acesso aos vídeos, estão disponíveis, para além da pesquisa directa por keyword, funcionalidades como os vídeos a serem visualizados no momento, os mais vistos, as tendências, os melhores classificados, entre outras. Quando o utilizador faz uma pesquisa, os resultados podem ser ordenados e filtrados por uma série de factores, ilustrados na figura. Contudo, a representação dos vídeos mantem-se coerente e é feita por uma imagem do vídeo, título, descrição, detalhes da publicação e número de visualizações.

Figura 2.9: Resultados de uma pesquisa no Youtube

O Vimeo, figura 2.10, embora na mesma linha de funcionalidades, apresenta uma filosofia um pouco diferente, pois não hospeda qualquer vídeo comercial ou qualquer outro tipo de vídeos que não sejam criados pelos próprios utilizadores. Detendo talvez por isso uma comunidade mais pequena face ao Youtube, mas mais caracterizada. Para publicar um vídeo, o utilizador indica também o título, descrição e um conjunto de tags que pretende associar. Os vídeos podem depois ser adicionados a grupos ou canais, comentados, partilhados nas redes sociais, e outras funcionalidades em tudo semelhantes ao Youtube. Sendo que a maior diferença entre os dois, talvez seja a visualização dos resultados da pesquisa do utilizador. No Vimeo, o utilizador, para além 14

de poder ordenar os vídeos por diferentes alternativas (mais comentado, mais recente, alfebeticamente, etc), pode ver os resultados em três formatos diferentes: Thumbnail, que para cada vídeo apresenta uma imagem, título e tempo da publicação; Detail (ilustrada na figura), que para cada vídeo apresenta uma imagem, título, tempo de publicação, número de visualizações, número de gostos, número de comentários, autor da publicação, e as listas de grupos, canais e albuns em que se encontra; e Video, que possui o próprio vídeo (reproduzivel sem mudar de espaço), título, descrição e autor da publicação.

Figura 2.10: Resultados de uma pesquisa no Vimeo

Sistemas de arquivo de vídeo, como a Informedia Digital Video Library (M. Christel et al, 1995), efectuam análise de vídeo para obtenção de metadados que são usados para explorar vídeos e as suas ligações. Este sistema inclui uma vasta colecção de vídeos, extraídos especialmente de noticiários e documentários, passados na televisão norte americana, que permite abordagens automáticas de indexação, navegação, visualização, busca e recuperação de vídeo. O sistema usa reconhecedores de voz para transcrever textualmente a faixa áudio do vídeo, e algoritmos de análise de imagem, de forma a obter dados suficientes capazes de identificar automaticamente sequências de vídeo que podem representar cenas, conversações e outros eventos. A figura 2.11 ilustra uma pesquisa típica no Informedia, onde se identificam três vistas sobre os resultados: a) Thumbnails, b) Filmstrips e c) Skims. As Thumbnails mostram keyframes como imagens representativas dos segmentos da história e permitem a selecção dos resultados e a consulta dos seus headlines. As Filmstrips são keyframes representadas sequencialmente que possibilitam identificar nos segmentos a posição temporal no vídeo onde cada palavra pesquisada aparece, e a selecção duma keyframe coloca o vídeo 15

em reprodução na posição representada. As Skims são resumos dos vídeos, fazendo com que se observe todo o vídeo num espaço de tempo mais reduzido.

Figura 2.11: Resultado da pesquisa "El Niño" na Informedia Digital Video Library. a) Thumbnails, b) Filmstips, c) Skims.

Qualquer destes sistemas utiliza apenas listas como mecanismo de acesso e exploração dos vídeos. Mas o Informedia, face ao Youtube e ao Vimeo, que utilizam apenas tags introduzidas pelos utilizadores, possibilita uma pesquisa dos vídeos mais aprofundada e com outro tipo de relações, derivado dos metadados recolhidos, mas também não utiliza qualquer propriedade emocional.

Explorando espaços de vídeo com uma organização menos linear, o Youtube disponibilizou temporariamente uma opção de, em fullscreen, aceder a um modo de visualização dos vídeos num espaço de duas dimensões (figura 2.12). Os vídeos eram representados por imagens circulares espalhadas pelo espaço com base na sua similaridade (indicada pela proximidade e cor da moldura) e permitia uma navegação visual pelos vídeos vizinhos.

16

Figura 2.12: Experiência sobre espaços de vídeo do Youtube

O sistema Video Sphere (url-VideoSphere) explora um espaço de três dimensões, e permite a representação do espaço de vídeos das conferências TED numa esfera, ilustrada na figura 2.12. Os vídeos encontram-se ligados entre si semanticamente, sendo essas ligações representadas por linhas. O sistema permite uma navegação interior ou exterior à volta da esfera. Assim, este sistema permite ao utilizador navegar entre vídeos do mesmo tema, num ambiente visualmente apelativo e que representa de uma forma simples as ligações que representam as ligações semânticas que o utilizador pode explorar na sua navegação.

Figura 2.13: Apresentação da colecção de vídeos da TED no VideoSphere

O VideoSpace (Rocha & Chambel, 2008) é um projecto que permite aceder e explorar os vídeos e o espaço de vídeos em três dimensões, de forma criativa e na fronteira da Arte Digital. Apresenta um mundo esférico populado por vídeos, com o utilizador representado no centro, que pode ser reorganizado interactiva e dinamicamente numa grelha, para alinhar e evidenciar categorias dos vídeos (figura 2.14). A população de vídeos, constituída por vídeos musicais de artistas portugueses, brasileiros e espanhóis, tem ligações semânticas entre si representadas por linhas em várias cores que ligam os vídeos da mesma categoria nas vistas alternativas, organizadas 17

por: País, tema (e.g. música, dança), ou autor. É possível navegar e interagir com o mundo e entrar dentro de um vídeo (um vídeo que está no sistema e é representado por uma imagem, ou a webcam, representada pelo utilizador no centro), altura em que passamos a outra interface, também tridimensional, a que os autores chamam Microspace, por contraste com o Macrospace que representa o mundo, figura 2.15. Aqui neste espaço podemos interagir com os pixéis do vídeo e criar efeitos esteticamente interessantes, como explosão, implosão e rotação. Os pixéis mudam de cor ao longo do tempo, de acordo com o vídeo que vai sendo apresentado e mudam de altura, de acordo com o seu brilho. É possível ainda fazer pesquisas por uma cor de pixel, e o resultado da pesquisa leva-nos para o mundo, que fica organizado de forma a colocar mais perto do utilizador, no centro, os vídeos com predominância da cor pesquisada. Para uma maior interacção e criatividade, o sistema permite, por exemplo, fazer pinturas dinâmicas baseadas nas cores de objectos do mundo real, capturados através da webcam.

Figura 2.14: Exploração do macrospace no VideoSpace

Figura 2.15: Navegação do macrospace para o microspace no VideoSpace

O ColorsInMotion (João Martinho et al., 2009) é uma aplicação interactiva que se baseia nas propriedades como a cor e o movimento para visualizar e explorar vídeos de forma criativa. O utilizador pode navegar no espaço de vídeos por vistas que salientam diferentes propriedades. A vista de loops dos vídeos, figura 2.16 a), possui ciclos infinitos de frames tiradas em intervalos constantes, de forma a apresentarem um resumo do vídeo. Estes loops podem também ser das cores dominantes ou cores médias. Existem três vistas que dão maior enfâse às cores: a vista b) utiliza círculos pintados com a cor dominante ou cor média; a vista c) apresenta rectângulos constituídos por tiras coloridas com as cores 18

dominantes e de tamanho proporcional à sua percentagem de dominância; e a vista d) apresenta as cores dominantes do vídeo, mas ao longo do tempo. Dando maior relevo à propriedade de movimento, a vista e) apresenta loops de imagens com aspecto tipicamente esbatido que, através da média de cada cena do vídeo, permitem representar numa imagem o movimento na cena. A vista f) apresenta imagens estáticas dos vídeos capturadas de acordo com a técnica Slit Scan (Levin et.al. 2005-2008). Esta técnica captura apenas uma linha vertical do vídeo, neste caso a central, ao longo do tempo e coloca-as justapostas de acordo com a sequência do vídeo, permitindo uma outra forma de apresentar numa imagem estática o movimento no vídeo.

Figura 2.16: Espaço de vídeos do ColorsInMotion. a) Loops de vídeo, b) Vista de cores médias, c) Vista das cores dominantes, d) Cores dominantes do vídeo ao longo do tempo, e) Loops da média das cenas dos vídeos, f) Vista em Slit Scan

A partir de qualquer vista no espaço de vídeos, cada vídeo pode ser acedido. Quando isto acontece, mudamos de nível e passamos para o perfil do vídeo, ilustrado na figura 2.17. Aqui podemos visionar o vídeo ao centro, assim como aceder a diferentes vistas dos seus detalhes, colocados à volta do vídeo. Em cima estão, da esquerda para a direita, um círculo que indica a cor média, um rectângulo com as cores dominantes e outro círculo, que representa a cor dominante. À esquerda do vídeo encontram-se loops tradicionais, e à direita loops das cenas. Em baixo, encontra-se o vídeo representado por uma imagem em Slit Scan. Estas vistas do vídeo individual permitem aceder às vistas correspondentes no espaço de vídeo, de forma a comparar os vários vídeos entre si nas diferentes perspectivas. Nenhum dos sistemas anteriores considera propriedades emocionais.

19

Figura 2.17: Perfil do vídeo do ColorsInMotion

2.4 Acesso e Exploração de Áudio Uma vez que se pretende explorar representações e acesso a filmes, torna-se pertinente estudar também alguns sistemas e aplicações de acesso áudio, pois é também um elemento dinâmico e rico em conteúdo, integrante do vídeo, e com dimensão emocional significativa.

Figura 2.18: Rádio online Rockolla fm

O Rockolla.fm (url-Rock), figura 2.18, é uma rádio online que escolhe a emissão aleatoriamente de acordo com o estado de espírito seleccionado pelo utilizador ou ouvinte. Utiliza para isso um mecanismo de navegação em forma de roda, num espaço 20

definido com base em 4 estados: Optimista, Intenso, Melancólico e Sentimental. Comparável ao modelo dimensional para as emoções (secção 2.1). O utilizador, ao pressionar no interior da roda, conjuga os estados, indicando a percentagem de cada um e a intensidade. Como reforço visual da conjugação entre os estados, foram utilizadas cores. Este sistema torna-se interessante pela sua aplicação prática, uma vez que permite escolher música com base no estado de espirito. Por exemplo, se me encontro alegre poderei ter mais predisposição para ouvir algo optimista e intenso, ou se estiver triste ou apaixonado, algo melancólico ou sentimental. O Musicovery (url-Musicovery), figura 2.19, é outra rádio online em que o utilizador ou ouvinte ouve a emissora consoante o estado de espírito. Utiliza cores, mas para diferenciar os géneros musicais e, ao contrário do rockolla fm, o Musicovery apresenta várias vistas. Entre elas, um widget intitulado “mood pad”, figura 2.19 a), que consiste num gráfico de dois eixos – escuro(negativo)/positivo e calmo/energético – de acordo com o modelo dimensional para as emoções (secção 2.1), que possibilita a representação de uma quantidade extensiva de estados de espírito, onde cada música é representada por um bloco que é colocado no espaço consoante os seus valores dimensionais. Ao passar com o cursor sobre uma música, ela é reproduzida e a sua informação visualizada, permitindo ao utilizador encontrar a música que induz algum estado de espírito intuitivamente. Ao seleccionar uma música cria a programação da rádio e respectiva lista de reprodução, com base na escolha feita. Outra vista, consiste num mapa, figura 2.19 b), que representa as músicas ao longo de uma timeline, de acordo com a popularidade e época, mantendo a representação da música coerente com o “mood pad”, no que aos locos di respeito. Mas ao seleccioná-la apenas são indicados os dados de popularidade e ano de lançamento.

Figura 2.19: Rádio online Musicovery. a) Mood Pad, b) Timeline Map

Apesar de as representar de diferente modo, ambos os sistemas utilizam as cores para identificar as várias emoções e o modelo dimensional para as dispor no espaço, o que demonstra uma tendência neste tipo de aplicações. Apesar de a música ser um

21

elemento dinâmico, a informação não é apresentada ao longo do tempo, sendo apenas apresentado o mood global de cada uma.

2.5 Acesso e Visualização de Texto em Tag Clouds Um dos mecanismos mais paradigmáticos para aceder e visionar conteúdo textual é, possivelmente, o que faz uso de Tag Clouds. O seu aspecto visual vem desde a época do Construtivismo Russo em 1919 (Wattenburg, M., and Viegas, F. 2008), e tem como finalidade apresentar uma visão geral ou resumida de um texto. Um dos primeiros exemplos surgiu em 1976, onde para uma experiência o sociólogo Stanley Milgram (Milgram, S. and Jodelet, D. 1976) pediu a um grupo de pessoas para nomear locais em Paris, e usando o tamanho da fonte para representar os locais mais mencionados, criou um mapa mental colectivo da cidade, figura 2.20.

Figura 2.20: Modelo mental de Paris, de Stanley Milgram

A ideia da criação de diagramas similares em computadores foi introduzida em 1995, pelo livro de Douglas Coupland, Microserfs, onde uma das personagens desenvolve um programa que escolhe aleatoriamente frases do seu diário electrónico. Esta ideia iria ser aproveitada dois anos depois por Joe Flanagan, que baseando-se também no mapa mental de Milgram, criou uma representação, denominada de “Search Referral Zeitgeist”, dos termos utilizados pelas pessoas na pesquisa que os levaram ao seu website. Resultando na primeira aproximação de uma Tag Cloud criada no mundo real por computadores. Em 2001, as Tag Clouds começaram a construir uma posição de destaque nos meios de comunicação, quando a revista Forture apresentou ao mundo das finanças uma representação visual das maiores empresas do mundo intitulada de "Money Makes the

22

World Go Round", figura 2.21. São representadas as maiores empresas em nuvens de palavras por país, inseridas num círculo cuja cor é atribuída de acordo com o seu continente.

Figura 2.21: Diagrama "Money Makes World Go Round" da revista Fortune

Em 2002, o Flickr, um website de partilha de imagens, precisou de um modo de representação da classificação das imagens feita pelos utilizadores. Adoptaram o paradigma das Tag Clouds, até então sem este nome. Que se viria a designar assim graças ao gráfico resultante, figura 2.22, onde se observa o aspecto um pouco desarrumado, apesar da organização alfabética das tags, e que se assemelha a uma nuvem.

Figura 2.22: Tags mais populares no Flickr em 2002

Muitos websites seguiram a mesma opção do Flickr, e usaram as Tag Clouds para desafios semelhantes, o que tornou esta técnica uma marca na Web 2.0., sendo até consideradas, por Maeda, de “O Melhor Diagrama de 2004” (Wattenburg, M., and Viegas, F. 2008).

23

Hoje em dia existem inúmeros websites que permitem importar textos e criar Tag Clouds facilmente. Entre eles, destaca-se o Wordle (url-Wordle), que permite ao utilizador personalizar as suas Tag Clouds alterando as fontes, o layout e esquemas de cor. O resultado final tem uma forma criativa e atraente, face às Tag Clouds convencionais, como se pode visualizar no exemplo da figura 2.23.

Figura 2.23: Tag Cloud criada no Wordle

Da perspectiva do design de informação, esta técnica apresenta alguns problemas, violando algumas das regras de ouro da teoria tradicional do design (Wattenburg, M., and Viegas, F. 2008). Por exemplo, as tags de palavras longas tem ênfase indevido, a variação do tamanho da fonte de cada tag pode ser insuficiente e dificultar a comparação, e pode ser difícil e demoroso encontrar uma tag. Têm, por isso, um desempenho inferior no reconhecimento de palavras e detecção de relações quando comparadas com listas verticais simples (Rivadeneira, A., 2006), contudo aceleram o reconhecimento de palavras populares (Lohmann, S., 2009). Mesmo assim, as Tag Clouds mantêm a sua popularidade, pois são flexíveis, divertidas, envolventes, estéticas, criativas e tem um formato que agrada qualquer um (Hearst, M., and Rosner, D. 2008; Wattenburg, M., and Viegas, F. 2008), servindo como espelhos de grupos e indivíduos. As Tag Clouds são verdadeiramente uma técnica peculiar, cuja origem não é a comunidade de visualização, e que viola algumas das regras de ouro do design tradicional. No entanto, graças à sua popularidade e flexibilidade, desempenham um papel de protagonista em situações que vão desde experiências psicológicas, escritas de ficção e análise política, sugerindo que passam no teste de aplicabilidade. Podendo se afirmar que, as Tag Clouds, apesar de não funcionarem teoricamente, funcionam na prática. 24

2.6 Representação de Informação Temporal Os vídeos, e em especial os filmes, têm de modo geral largos minutos de duração, e as emoções, quer provocadas no espectador quer expressas no próprio vídeo, tendem a variar ao longo do tempo. Desta forma, torna-se útil o estudo de alguns trabalhos neste contexto. A Associated Press Timeline Reader (url-APTR) ilustrada na figura 2.24, é uma timeline que permite consultar cronologicamente os títulos das principais notícias actuais. Podem-se filtrar as notícias por temas de interesse, identificadas posteriormente na timeline com linhas coloridas. As notícias são dispostas por colunas que representam o dia, estando as mais recentes colocadas por cima. Ao seleccionar uma notícia, o utilizador tem a opção de a ler na altura ou de a adicionar a uma lista pessoal, se pretender ler noutra altura. Isto permite ao utilizador fazer primeiro um overview e seleccionar as notícias que lhe interessam, ou fazer a sua leitura de forma directa.

Figura 2.24: Notícias filtradas por Entretenimento e Tecnologia no Associated Press Timeline Reader

A British History Timeline (url-BHT) da BBC apresenta a história britânica desde a época neolítica até aos dias de hoje. Na figura 2.25 verifica-se que este sistema também usa cores para categorizar, neste caso, as diferentes épocas. Em baixo, encontra-se um scroll com a visão geral de todas as épocas, em que o rectângulo translúcido representa a secção que está a ser visualizada no centro e pode ser utilizado para navegar por todas as épocas. Ao seleccionarmos uma época, ela estende-se pela timeline, permitindo uma navegação mais detalhada pelos seus acontecimentos históricos. Os vários acontecimentos históricos são identificados por pontos brancos. O interessante aqui é observar como se tratou uma quantidade de dados enorme, podendo

25

tirar-se conclusões muito rapidamente, como por exemplo, que épocas dominaram e onde ocorreram os marcos mais significativos da história britânica.

Figura 2.25: Espaço inicial da British History Timeline

2.7 Tecnologias de Suporte Existem várias linguagens e ferramentas para criar aplicações web. Aborda-se as que foram consideradas para a criação das aplicações desta tese: 1. HTML (url-HTML), HyperText Markup Language, é a linguagem de marcação padrão utilizada na construção de páginas Web que são interpretadas e apresentadas nos browsers. Na sua forma mais básica, o HTML é composto por estruturas de marcação denominadas tags. Esta linguagem tem uma grande flexibilidade, permitindo executar scripts, de outras linguagens, e aplicações a partir dela. A sua versão mais recente, HTML5, inclui uma série de novos elementos que oferecem mais potencialidades (e.g. reprodução de vídeo e áudio, maior semântica nas tags, animações através do canvas, etc). 2. CSS (url-CSS), Cascade Style Sheets, são folhas de estilo que permitem controlar a aparência dos elementos HTML. A principal característica distintiva das folhas de estilo, relativamente à formatação directa no HTML, reside no facto da especificação da forma estar separada do conteúdo, oferecendo vantagens como: grande liberdade de formatação, maior produtividade e maior facilidade de actualização. 26

3. Javascript (url-JavaScript) é uma linguagem de programação, da família da linguagem C, criada especificamente para Internet com o propósito de permitir uma interactividade superior à que se consegue apenas com HTML. É uma linguagem não compilada, executada no browser, orientada a eventos, que não exige qualquer recurso do servidor. 4. PHP (url-PHP), Hypertext Preprocessor, é uma linguagem de script rápida e robusta que gera documentos HTML. Ela é interpretada e executada do lado do servidor, e permite aceder à maioria das bases de dados (Oracle, MySQL, PostgreSQL, etc). É muito parecida, em tipos de dados, sintaxe e funções com as linguagens C e C++. As grandes vantagens das linguagens de servidor são: libertar o cliente das tarefas mais pesadas; a separação de responsabilidade; semântica; e permissões entre detentores de conteúdo e clientes. 5. ASP (url-ASP), Active Server Pages, funciona no lado do servidor, semelhante ao PHP, mas não é uma linguagem de programação e sim uma tecnologia de servidor que pode ser implementada através de uma linguagem de programação de script, que na variante clássica pode ser o Javascript ou VBScript, e na variante ASP.NET, o C# ou VB.NET. 6. Flash (url-Flash) é uma ferramenta multimédia usada para criar animações e aplicações interactivas. Manipula e anima gráficos, vectores, imagens, texto, frame by frame ou através da sua linguagem de programação Actionscript 3.0. Uma linguagem orientada a objectos bastante poderosa. Suporta streaming de vídeo e áudio bidireccional, e permite capturar acções do utilizador através do rato, teclado, microfone e webcam, havendo a possibilidade de outros modos de captura da intenção do utilizador através de bibliotecas de terceiros. 7. Java (url-Java) é uma linguagem de programação orientada a objectos bastante completa que necessita da JVM (Java Virtual Machine) para ser executada. É multiplataforma, graças ao modo de compilação. O compilador converte o código para um conjunto de instruções binárias que podem ser interpretadas pela JVM e executadas em qualquer plataforma, o que pode comprometer o seu desempenho, quando comparada com linguagens de compilação que possuem compiladores específicos para cada plataforma. Os programas Java são executados em browsers através de applets. 8. C# (url-C#), C Sharp, é uma linguagem de programação orientada a objectos baseada nas linguagens C++ e Java. É, de certa forma, a linguagem de programação que reflecte a plataforma .NET sobre a qual todos os programas .NET executam. Apesar de muitas semelhanças com o Java (sintaxe, estrutura de dados, fortemente

27

tipificada, gestão de memória, etc.), possui compiladores independentes para cada plataforma. Há um debate enorme entre designers e programadores sobre qual é actualmente a melhor plataforma para o desenvolvimento de aplicações multimédia na Web. O HTML (url-w3) é a linguagem nativa dos browsers e por consequência a mais utilizada. Mas nas suas versões tem apresentado algumas lacunas importantes, entre elas, a interacção limitada, o design rudimentar e a falta de suporte para áudio e vídeo. A plataforma Flash nasceu e cresceu preenchendo essas lacunas. Porém, hoje em dia, a linguagem HTML, que na sua nova versão se denomina HTML5, expandiu-se e desenvolveu-se, e quando usada em combinação com JavaScript e CSS, possui capacidade suficiente para ultrapassar muitas das lacunas mencionadas anteriormente, com o aspecto adicional e importante de ser aberto e correr no browser, sem precisar de nenhum plug-in, como acontece com o Flash. Funcionalidades como drag and drop, animações, slideshows de imagens ou visualização de vídeo, antes reservadas apenas a plug-ins (e.g. o Flash Player), são agora encontradas em websites HTML5 sem plug-ins de terceiros, graças ao JavaScript, que com o uso de bibliotecas, como por exemplo, jQuery consegue, assim como o Flash, tempos rápidos para o desenvolvimento das funcionalidades mencionadas, entre outras. O maior trunfo do HTML5, visto pela comunidade, é o facto de esta ser uma tecnologia aberta. Isto significa que, ao contrário das tecnologias proprietárias (Flash, etc.), para desenvolver uma qualquer aplicação não é necessário adquirir nenhuma licença ou programa a terceiros, e o código produzido fica disponível para quem o quiser consultar. Mas o HTML5 apresenta alguns pontos fracos, observa-se que o suporte de todas estas novas APIs e funcionalidades não é o mesmo nos vários browsers. Consequentemente, pode haver um esforço muito maior para garantir que o conteúdo desenvolvido em HTML5 seja apresentado da mesma forma em todos os browsers, ou então adaptar o conteúdo ao browser em que é apresentado. Neste aspecto, o Flash, desde que o plug-in esteja instalado, apresenta o conteúdo da mesma forma em todos os browsers, reduzindo em muito o esforço de desenvolvimento. Por outro lado, o suporte a dispositivos móveis pelo HTML/HTML5 é superior ao do Flash, que recentemente vem sendo descontinuado, e espera-se que o suporte do HTML5 venha a ser cada vez mais alargado e generalizado aos vários ambientes e dispositivos. Há outras tecnologias, que apesar de não terem sido criadas para o desenvolvimento de aplicações multimédia para a Web, podem ser opções viáveis. São elas por exemplo Processing (url-Processing), openFrameworks (url-openFrameworks), max/msp/jitter (url-max/msp/jitter). Todas elas de alguma forma mais orientadas para a criação de arte digital, não sendo a sua única aplicação, pois apresentam grandes

28

potencialidades nomeadamente à criação de conteúdos visuais apelativos e inovadores, e usam linguagens de programação poderosas.

29

30

Capítulo 3 iFelt Neste capítulo apresenta-se o primeiro protótipo desenvolvido no âmbito deste projecto, o iFelt. O iFelt permite a classificação, acesso, exploração e visualização de informação emocional dos filmes. Ele foi desenhado com dois grandes objectivos: a classificação emocional dos filmes baseada nas emoções sentidas pelos utilizadores, e a exploração e acesso dos filmes baseados nessas propriedades emocionais. As seguintes secções descrevem os passos dados na concepção e elaboração deste protótipo, divididos nas secções de Análise de Requisitos, Desenho, Arquitectura e Avaliação com Utilizadores.

3.1 Análise de Requisitos Nesta secção apresentam-se os requisitos, dentro do âmbito do meu mestrado, para eeste protótipo. O levantamento foi feito tendo em conta as regras de ouro do design de interfaces tradicionais (Shneiderman, 1998), mas sobretudo os requisitos encontrados no trabalho preliminar com base no qual se procurou concretizar e expandir a ideia (Oliveira, E., Chambel, T. 2008), onde se deseja explorar, de forma envolvente e divertida, as dimensões afectivas dos vídeos de acordo com o perfil emocional, escolhas e estados do utilizador. Pretende-se a extensão de formas de acesso num espaço de filmes, tendo também em conta uma forma tradicional de estruturar os filmes em cenas, mas levando principalmente em conta as propriedades emocionais ao longo do tempo. Foi também considerado como requisito central o desenvolvimento de mecanismos que permitam a visualização e a navegação dos filmes, tanto ao nível do espaço de filmes como dos filmes individuais, isto para permitir ao utilizador ganhar mais consciência sobre a informação e fazer descobertas (mais na secção 1.1). Pelo facto dos filmes serem catalogados por cada utilizador, também foi considerado um requisito importante ter um perfil, ou vista, do utilizador sobre os seus filmes e a sua classificação emocional. A 31

lista completa de requisitos é apresentada em seguida, nas categorias de requisitos Funcionais e não Funcionais.

3.1.1

Requisitos Funcionais

1.

Classificação do filme de acordo com emoções sentidas ao nível de cenas emocionais e na perspectiva de cada utilizador, e espectativa do realizador para emoção sentida, de forma a facilitar ter perspectivas globais e detalhadas ao longo do tempo sobre as emoções sentidas na utilização dos filmes;

2.

Deve possibilitar visualizar um espaço de filmes com base nas emoções dominantes sentidas pelos utilizadores;

3.

Deve fornecer alternativas de apresentação do espaço de filmes, para facilitar diferentes tipos de procura;

4.

Deve ser possível visualizar os filmes em cenas emocionais;

5.

O utilizador deve conseguir saber a emoção sentida dominante de um filme;

6.

O utilizador deve conseguir saber a emoção dominante sentida de uma cena;

7.

O utilizador deve conseguir saber as emoções sentidas nas cenas ao longo do tempo pela sua perspectiva, pela de todos os utilizadores e pela do realizador do filme;

8.

Deve ser possível comparar as três perspectivas mencionadas no ponto anterior;

9.

Deve ser possível fazer resumos de filmes, com base em cenas que despertaram uma determinada emoção.

10. Deve ser possível saber a percentagem das emoções sentidas em cada filme; 11. Deve contemplar vistas de perfis emocionais dos utilizadores, onde se pode encontrar, para além de informação pessoal, informação emocional sobre os filmes visualizados;

3.1.2

Requisitos não Funcionais

1.

O sistema deve ser útil, satisfatório, fácil de utilizar e perceptível.

2.

Deve ser coerente.

3.

Deve fornecer feedback ao utilizador sobre o seu estado e acções possíveis e realizadas.

4.

O sistema deve ser fácil de assimilar pelo utilizador (carga cognitiva baixa).

32

5.

O sistema deve ser eficiente.

6.

O design deve ser simples e não ter elementos distractivos.

7.

O sistema deve permitir acesso flexível por Web.

Para o funcionamento completo e correcto do sistema que se pretende concretizar, existem outros requisitos funcionais que ultrapassam a fronteira do âmbito da minha tese (e.g. como é feita a catalogação das emoções), não estando por isso considerados aqui. Os descritos aqui, permitem no entanto, a concepção e desenvolvimento da interface e sua posterior avaliação com alguns utilizadores para obter alguns resultados e comentários que permitam validar e eventualmente vir a melhorar o sistema no sentido de cumprir os objectivos delineados.

3.2 Classificação das Emoções e Conceitos Esta secção descreve o tipo de classificação emocional utilizada no protótipo iFelt, e descreve alguns conceitos importantes para a correcta compreensão das secções seguintes. Os filmes e as suas cenas podem ser classificados a partir de duas perspectivas: 1. Emoção Objectiva, tipo de emoção que é expressa no filme (e.g. uma cena do filme que mostra duas pessoas alegres). Pode ser classificada manualmente ou com ajuda de algum processamento automático, por exemplo, sobre o discurso (Ordelman, et al. 2009), histogramas de cores médias e luminosidade (Yoo H. and Cho S., 2007). 2. Emoção Subjectiva, o tipo de emoção induzida no utilizador (e.g. uma personagem dispara um tiro sobre outra, e o utilizador sente-se triste). Esta perspectiva pode também ser classificada manualmente pelo utilizador segundo o seu critério, ou através de métodos biométricos automáticos de reconhecimento baseados em sinais cerebrais e fisiológicos, batimento cardíaco e respiração ou ainda métodos de detecção de expressões faciais ou posturas corporais (Mauss, I. B. & Robinson, M. D., 2009). O iFelt focou-se na classificação emocional segundo a perspectiva da emoção subjectiva, através de sinais fisiológicos, tais como a respiração, frequência cardíaca e resposta galvânica da pele. Aplica o processamento do sinal digital e utiliza algoritmos de reconhecimento de padrões para aprender com os utilizadores, implementando classificadores SVM e k-NN para o mecanismo de reconhecimento (este processo e seus resultados são descritos em melhor detalhe em “Oliveira, E. 2011 b”). E o modelo usado para a categorização dessas emoções é um modelo categórico definido por Ekman (secção 2.2), que contempla 6 emoções (raiva, nojo, medo, alegria, tristeza e surpresa), 33

por duas razões: a classificação das emoções segundo padrões fisiológicos ainda apresenta algumas limitações ao nível da diferenciação das emoções a partir dos sinais fisiológicos (Rainville, et al, 2006); Manter um grupo de categorias emocionais controlado, e estas serem culturalmente consensuais (Ekman, P. et al. 1969). As emoções são detectadas ou reconhecidas ao longo do tempo, permitindo dividir um filme e identificar cenas emocionais. Este tipo de cenas pode não corresponder à divisão por cenas tradicionais que dependem da narrativa semântica do filme e que, geralmente, envolvem um ou mais planos situados num mesmo local ou cenário. Tendo em conta a perspectiva em foco, emoção subjectiva, dividiram-se as vistas emocionais em três grupos: a vista emocional do utilizador, onde cada utilizador baseia o acesso aos filmes com base na classificação pelas emoções por si sentidas no visionamento de cada filme; a vista emocional de todos os utilizadores, em que o sistema avalia e apresenta a média das emoções sentidas por todos os utilizadores em cada filme; e a vista emocional do realizador, que representa as emoções que o realizador espera que os utilizadores sintam ao assisti-lo. Estas três vistas serão representadas tanto nas cenas emocionais como na dominância das emoções. A dominância das emoções é determinada, em qualquer das perspectivas, pela quantidade de tempo que cada emoção foi sentida pelo utilizador.

3.3 Desenho Com base nos requisitos e classificação das emoções, foram desenhados uns esboços (figura 3.1), que permitiram dar forma à primeira interface do iFelt.

Figura 3.1: Esboços do iFelt: a) Espaço de Filmes, b) Espaço de Cenas Emocionais, c) Perfil do Filme, d) Perfil do Utilizador.

34

O esboço a) responde aos requisitos 2,3 e 5, onde se define que a apresentação e distribuição dos filmes é feita no espaço que terá o aspecto de uma roda. Em alternativa, o espaço dos filmes será apresentado numa lista com informação resumida do filme, incluindo o seu título. A dominância é representada nos círculos coloridos. O esboço b) define um espaço de cenas emocionais dos filmes, dando resposta ao requisito 4, para que o utilizador não tenha que aceder individualmente aos filmes para aceder a um tipo de cenas específico. O esboço c) responde directamente ao requisito 11, e corresponde a um espaço onde o utilizador pode assistir ao filme e saber as suas propriedades emocionais, para responder aos requisitos 4, 5, 6, 7 e 8. O esboço d) corresponde a um espaço do utilizador onde ele encontrará a sua informação emocional dos filmes, onde encontrará também informação pessoal, estatísticas e atalhos para os seus filmes. Para dar suporte ao desenho, foram definidos possíveis cenários que permitem o refinamento dos requisitos e da navegação entre os quatro espaços definidos: 1º O utilizador deseja assistir a algo surpreendente e identifica no espaço de filmes os filmes com maior surpresa seleccionando o mais dominante deles, enquanto assiste o filme, apercebe-se de que já o classificou uma vez (pela sua timeline), e que contrariamente aos outros utilizadores, não ficou surpreso mas triste (figura 3.2); 2º O utilizador está nervoso porque tem um encontro marcado, e para ele os filmes alegres descontraem-no, mas não tem tempo para assistir a um filme inteiro, optando por assistir às cenas alegres do filme com menor percentagem de cenas alegres (figura 3.3); 3º O utilizador quer rever o seu filme favorito, e o sistema possui já uma quantidade considerável de filmes no espaço, para não perder tempo e uma vez que ele sabe que já o viu, procura o filme no espaço de filmes no seu perfil, ao aceder ao filme, relembra-se que as emoções que sentiu ao assistir ao filme foram ao encontro das emoções esperadas pelo realizador (figura 3.4).

Figura 3.2: 1º cenário de utilização do iFelt

35

Figura 3.3: 2º cenário de utilização do iFelt

Figura 3.4: 3º cenário de utilização do iFelt

Existem vantagens da elaboração de cenários na fase de Desenho, entre elas: a possibilidade de ver o protótipo no ponto de vista do utilizador, procurando se os requisitos cobrem as suas necessidades; os cenários capturam uma sequência de interacções entre o utilizador e o sistema, permitindo separar e especificar esta 36

sequência em funções particulares e tratá-las separadamente; servir de base para uma avaliação. E revelaram-se preponderantes na conclusão de algumas ideias e reforço de outras (e.g. definição da estrutura de navegação, modo de representar as emoções, tipo de informação a apresentar, etc). A representação emocional no iFelt foi inspirada nas diferentes representações de emoções utilizadas pelos modelos descritos na secção 2.1. Adoptou-se uma representação de emoções com base em cores, como no modelo de Plutchik. Assim, raiva, repulsa, medo, tristeza, surpresa e felicidade, são representados pelas cores rosa, roxo, verde, azul, azul claro e amarelo (figura 3.5). Estas cores serão usadas nas diferentes representações de aspectos emocionais dos filmes, na concepção do protótipo actual, onde também se adoptaram consistentemente formas redondas e organizações circulares inspiradas pela representação circunflexa em duas dimensões das emoções dos modelos dimensionais de Russel e Plutchik. Este tipo de aplicação possibilita aos utilizadores criarem um modelo mental e associarem as cores com as emoções.

Figura 3.5: Lista de emoções consideradas com as respectivas cores atribuídas

Tendo uma base definida: requisitos, esboços e storyboards que dão vida a alguns cenários em protótipos de baixa fidelidade, foram desenhados em maior fidelidade os diferentes mecanismos para visualizar, aceder e explorar os filmes no iFelt ao nível do espaço dos filmes, cenas emocionais, filmes individuais e perfis de utilizador focando, como já referido anteriormente, a classificação das emoções segundo a perspectiva subjectiva, e refinando as escolhas de design com base nos requisitos e heurísticas de usabilidade, especialmente aquelas referentes à estética e design simples e carga cognitiva baixa. A descrição dos diferentes mecanismos está organizada pelas quatro áreas que evoluíram a partir dos esboços.

3.3.1

Movie Space

No espaço de filmes (figuras 3.6 e 3.8), o utilizador obtém uma vista sobre os filmes existentes no iFelt, com informações sobre suas emoções dominantes, além das informações tradicionais de título, realizador, actores, etc. Pode ser a vista de todos os filmes ou de uma selecção resultante de uma pesquisa anterior, como é usual em sistemas como o Youtube. A partir daqui, o utilizador pode navegar para qualquer um dos filmes representados para vê-lo individualmente. Neste protótipo, há duas

37

representações alternativas do espaço de filmes, e o utilizador pode alternar entre: Wheel (uma roda emocional) e Title (uma lista de títulos de filmes).

Figura 3.6: Vista Wheel do Movies Space do iFelt

1. Emotional Wheel Este mecanismo foi desenhado de forma a ter o espaço de filmes organizado segundo as emoções dominantes. Os filmes são representados por círculos coloridos pela cor da emoção dominante, e posicionados na Wheel de acordo com essa emoção, formando visualmente seis secções diferentes, correspondendo às seis emoções consideradas no sistema. A distância de cada filme à origem da Wheel é determinada pelo grau de dominância da emoção, sendo a distância tanto maior quanto maior a dominância. A informação tradicional do filme é mostrada se o utilizador colocar o cursor sobre ele (círculo), como mostra a figura 3.6. Foram ainda colocadas etiquetas à volta da Wheel para que o utilizador não tenha que conhecer o mapeamento entre as cores e as emoções. Este mecanismo foi concebido para permitir a visualização dos filmes no espaço organizado pelas emoções dominantes, a fim de obter uma melhor percepção da dominância das emoções nos filmes seleccionados e também para ajudar os utilizadores a encontrar e navegar em filmes com base neste critério. Com o objectivo de aumentar a percepção e eficácia desta visualização, foram criadas 4 variantes, ilustradas na figura 3.7: a) Esta variante apresenta todos os círculos com o mesmo brilho e tamanho, independentemente da emoção e grau de dominância. As regiões referentes a cada emoção são reforçadas por uma grelha, que sugere os vários graus de dominância pela colocação de várias circunferências concêntricas ao longo do raio da Wheel. 38

b) Nesta variante, o tamanho dos círculos passa a reflectir o grau de dominância da emoção, representando os círculos em maiores dimensões à medida que estão mais afastados da origem da Wheel, reforçando este aspecto em relação à variante anterior. c) Nesta variante, as circunferências da grelha foram eliminadas, deixando a grelha com menos impacto visual. Os círculos apresentam todos o mesmo tamanho, assim como na primeira variante, mas o brilho é alterado conforme o seu grau de dominância: quanto mais dominante for, maior será o brilho. d) Por último, esta variante não dispõe de grelha, mas combina a alteração do tamanho e brilho dos círculos para reforçar a dominância das emoções, como já explicado nas variantes b) e c).

Figura 3.7: As 4 variantes da Wheel.

Em todas as variantes sugeridas, quando o cursor está sobre qualquer um dos círculos, a informação que é apresentada para cada filme na lista de títulos é apresentada aqui também para o filme seleccionado, perto do cursor. Além disso, a Wheel pode ser vista segundo três perspectivas: segundo o utilizador actual, todos os utilizadores, ou segundo a espectativa dos realizadores dos filmes.

39

No Movies Space é possível alternar entre as vistas Wheel e Title, através das opções com o mesmo nome do menu localizado no topo, ilustrado na figura 3.6. O utilizador sabe em que vista se encontra pela cor branca a destacar a opção seleccionada no menu de opções cinzento. 2. Title List Como alternativa à visualização dos filmes através da Wheel, o utilizador pode optar por navegar através da vista Title, ilustrada na figura 3.8. Esta vista é composta por uma lista onde cada item corresponde a um filme colocado por ordem alfabética. Assim como na Wheel, o círculo colorido corresponde à emoção dominante, mas a informação tradicional do filme encontra-se sempre visível à direita do círculo. O utilizador pode navegar pela lista através do scroll posicionado à direita.

Figura 3.8: Vista Title do Movies Space do iFelt

Esta representação foi concebida para ajudar a navegar, aceder e visualizar os filmes com base no seu título, para além da sua emoção dominante, e é mais familiar relativamente a sistemas como o Youtube. Em qualquer das vistas, ao seleccionar um filme, o utilizador é conduzido para o Movie Emotional Profile.

3.3.2

Movies Emotional Scenes Space

No espaço de cenas emocionais dos filmes (figura 3.9), os utilizadores podem obter uma visão das cenas dos filmes baseada na emoção dominante das cenas. Como no Movies Space, o espaço de cenas pode ser visto segundo três perspectivas: segundo o utilizador actual, todos os utilizadores, ou segundo a espectativa dos realizadores dos filmes. Cenas com uma certa emoção dominante são representadas por um círculo, com 40

a cor correspondente, e com o tamanho correspondente à sua percentagem de dominância no filme. Cenas com a mesma cor dominante são agrupadas, criando regiões visuais num mapa emocional. Assim como na Wheel, quando o cursor está sobre qualquer um dos círculos, a informação que é apresentada para cada filme é apresentada aqui também, e, além disso, os círculos correspondentes às restantes cenas do mesmo filme são destacados dos outros todos (Figura 3.10 a). Quando o utilizador selecciona qualquer um dos círculos, o estado é mantido independentemente da posição do cursor, permitindo que se seleccione qualquer uma das outras cenas do filme seleccionado, e, como consequência, ser direccionado para o filme individual, mas apresentando apenas as cenas com as emoções seleccionadas (figura 3.10 b).

Figura 3.9: Movies Emotional Scenes Space do iFelt

Figura 3.10: Transição do a) Movies Emotional Scenes Space para o b) Movie Emotional Profile no iFelt

Este espaço tem a intenção de ajudar os utilizadores na visualização, exploração e navegação dos filmes com base nas outras emoções que não apenas as emoções mais dominantes e fazer resumos emocionais dos filmes de acordo com as emoções 41

seleccionadas: por exemplo, cenas em que a maioria dos utilizadores se sentira triste (Figura 3.10 a). Neste caso, foi escolhida a emoção Tristeza e o filme só apresenta as cenas tristes na perspectiva de todos os utilizadores, como se pode verificar na timeline emocional de todos os utilizadores (figura 3.10 b no canto inferior esquerdo).

3.3.3

Movie Emotional Profile

Neste espaço (figura 3.11), o utilizador pode assistir ao filme ou resumo do filme, podendo obter informações sobre as emoções dominantes e cenas emocionais do filme: 1. A emoção mais dominante, é representada na parte superior do vídeo por um círculo grande (com a mesma cor utilizada para representá-lo no espaço de filmes). 2. As emoções dominantes, colocadas à direita do filme, são representadas num gráfico de barras cujo tamanho de cada uma corresponde à percentagem de cada emoção no filme. 3. Timelines emocionais, colocadas abaixo do filme, representam as cenas emocionais ao longo do tempo, criando regiões rectangulares ao longo da timeline. A primeira, e maior, timeline representa as emoções de acordo com a perspectiva do utilizador. No canto inferior esquerdo está representada a timeline segundo a perspectiva de todos os utilizadores, e logo à direita a timeline segundo a perspectiva do realizador.

Figura 3.11: Movie Emotional Profile do iFelt

42

Os utilizadores podem usar essa informação para ganhar maior consciência das emoções envolvidas, e de como as três perspectivas (utilizador, todos os utilizadores e realizador) se assemelham ou não. As timelines foram organizadas desta maneira (destacando uma) para permitir a coexistência das três perspectivas, e para indicar ao utilizador qual a timeline activa. Para facilitar a comparação entre as timelines, quando o utilizador coloca o cursor sobre uma das timelines menores, ela expande, ficando com o mesmo tamanho da timeline activa (figura 3.12). Estas timelines permitem o acesso às cenas do filme com base nas suas emoções dominantes: seleccionando uma região da timeline, o filme começa a reproduzir no tempo correspondente da cena classificada com a emoção representada.

Figura 3.12: Comparação de duas Emotional Timelines (Utilizador vs Todos)

4. A emoção actual, é representada, enquanto o filme é reproduzido, de duas formas: a) na timeline activa, pelo círculo branco que percorre a linha do tempo, e b) num círculo de emoções, do lado esquerdo do filme, onde um círculo branco se move dentro da circunferência, dividida em seis partes correspondentes às 6 emoções consideradas, consoante a emoção dominante da cena. Pensa-se que desta forma é disponibilizado ao utilizador um grau de informação emocional para que este ganhe maior consciência das emoções envolvidas no filme, sem que obstrua em demasia a sua visualização e envolva sobrecarga cognitiva, com design simples, com espaços livres, e mantendo a coêrencia nas opções design (cor, formas e disposição).

3.3.4

User Emotional Profile

No perfil emocional do utilizador (figura 3.13), os utilizadores podem obter informações sobre os seus filmes, isto é, nos filmes classificados a partir da sua perspectiva. A informação está repartida nos seguintes elementos: 1. My Personal Info (a informação pessoal), possui o nome, foto, a emoção dominante de todos os filmes já classificados por mim, e a data da última classificação (canto superior esquerdo da figura).

43

2. My Dominant Felt Emotions (as emoções dominantes sentidas), representados por círculos coloridos, onde o tamanho reflecte a percentagem de dominância das emoções sentidas em todos os filmes já classificadas por mim (canto inferior esquerdo da figura). 3. My Last Classified Movies (os meus últimos filmes classificados), onde cada filme é representado por uma imagem do filme (a mesma apresentada nas vistas do Movies Space), contendo ainda um filtro com a cor correspondente à emoção dominante sentida, a partir da sua perspectiva (canto superior direito da figura). Optou-se por introduzir uma alternativa da representação das emoções dominantes, para perceber, na avaliação, como o utilizador reage às diferentes alternativas da representação do mesmo conceito e recolher preferências. 4. My Classified Movies Space (espaço de filmes classificados), semelhante ao Movies Space, mas aqui apresentam-se apenas os filmes que o utilizador classificou. Assim como no Movies Space, o utilizador pode escolher os filmes a partir da Wheel (figura 3.14 a) ou da vista Title (figura 3.13).

Figura 3.13: User Emocinal Profile do iFelt: Vista Title.

5. My Classified Emotional Scenes (espaço de cenas classificadas), semelhante ao Movies Emotional Scenes Space, apresentando apenas as cenas dos filmes classificados pelo utilizador actual (figura 3.14 b). As cenas são apresentadas na mesma região do My Classified Movies Space (Figura 3.13 canto inferior direito), em coerência com o que é feito no Movies Space.

A partir do My Classified Movies Space e do My Classified Emotional Scenes, o utilizador tem acesso ao Movie Emotional Profile, assistindo a um filme ou a um 44

resumo emocional do filme, respectivamente. Disponibiliza-se assim, um acesso rápido e directo aos seus filmes e resumos emocionais.

Figura 3.14: User Emotional Profile do iFelt. a) My Classified Movies Space, vista Wheel. b) My Classified Emotional Scenes.

3.4 Arquitectura O iFelt apresenta uma arquitectura baseada no modelo MVC - Model-ViewControl (Reenskaug, T. M. H, 1979), ilustrado na figura 3.15. E composto pelas seguintes componentes: iFelt.fla, que contêm o conjunto de modelos; iFelt.swf, as vistas; e iFelt.as, que controla todo o protótipo. Uma abordagem deste tipo permite, que a interface possa ser mais facilmente modificada para atender a novas funcionalidades, possibilita também que existam várias interfaces gráficas com o utilizador referentes a um só modelo, sem interferir com a sua lógica. Os filmes encontram-se numa colecção externa, bem como a classificação dos mesmos.

Figura 3.15: Arquitectura do iFelt

45

A componente iFelt.fla foi concebida através do ambiente de desenvolvimento da ferramenta Adobe Flash CS5. Na figura 3.16, à direita, observa-se no IDE do Flash CS5 a biblioteca onde são visíveis alguns dos modelos criados. Os modelos são construídos graficamente, através da modelagem de gráficos vectoriais, sendo de seguida exportados (como ilustrado na figura) para classes ActionScript 3, estando disponíveis para serem geridas pelo controlador.

Figura 3.16: Exportação de um elemento gráfico para Action Script 3.0 no Flash

O controlador, iFelt.as, gere os modelos, processando e respondendo a eventos, (maioritariamente a acções do utilizador), invocando alterações aos modelos. Aqui encontraram-se os maiores desafios na elaboração deste protótipo. Foi necessário tratar de animações e interacções entre os vários elementos do iFelt (e.g. timelines, vídeo), para criar um player de vídeo. Recorreu-se às bibliotecas Open Source Media Framework (url-OSMF) e TweenLite (url-TweenLite) para ajudar a lidar com o vídeo e as animações, respectivamente. Revelaram-se cruciais para acelerar o desenvolvimento do protótipo e de forma a executar o planeamento dentro do prazo (mais detalhes ver secção 1.5). Na figura 3.17, pode observar-se um exemplo prático do uso da biblioteca OSMF na implementação do iFelt. A função setupVideo() é utilizada no espaço Movie Emotional Profile para inicializar o elemento do vídeo, dado o local de origem do ficheiro vídeo. É definido um MediaContainer, que recebe uma flag de botão. Isto permite que este elemento seja interactivo. De seguida, são dadas as coordenadas no espaço e o tamanho da imagem do vídeo. Esta informação permite formatar o vídeo como desejado. O vídeo é adicionado ao container, e associado a um MediaPlayer, que

46

irá lançar eventos sempre que o vídeo for reproduzido, possibilitando saber, por exemplo, quando actualizar a timeline.

Figura 3.17: Função de inicialização no elemento de vídeo no Movie Emotional Profile

Figura 3.18: Excerto da função que anima a timeline e círculo das emoçõesno Movie Emotional Profile

47

Na figura 3.18, observa-se um excerto da aplicação da biblioteca TweenLite para animar (objecto, tempo, {x,y}): o círculo branco que percorre a timeline, indicando visualmente o estado de reprodução do filme e a emoção dominante no momento; e o círculo das emoções ao lado esquerdo do filme, onde outro círculo branco se move para junto da circunferência de cor correspondente à emoção naquele instante. Esta função utiliza ainda a biblioteca OSMF para recolher o tempo reproduzido (que vem do evento) e a duração do vídeo, para calcular a posição do círculo branco na timeline. A vista, iFelt.swf, é gerada a partir da ferramenta Flash, e resulta num executável suportado por qualquer browser que tenha o Flash-plugin versão 11 instalado, apresentando-o de igual modo. Esta homogeneidade, juntando ao facto de não me ser uma plataforma estranha e este protótipo necessitar de uma concretização mais rápida do que o esperado inicialmente, contribuíram para a escolha desta ferramenta.

3.5 Avaliação com Utilizadores Esta secção apresenta os objectivos, método e resultados da avaliação feita com utilizadores do iFelt à interface e suas funcionalidades.

3.5.1

Objectivos

Foi realizada uma avaliação do protótipo com utilizadores, com o objectivo de aferir a usabilidade das funcionalidades do iFelt para aceder, navegar, representar e visualizar filmes com base em emoções. Para além dos aspectos de usabilidade mais clássicos (Nielsen 1993, 2000), procurou também avaliar-se particularmente aspectos de experiência de utilização e aceitação tecnológica (Venkatesh et al. 2003), especialmente nas dimensões base de usabilidade do questionário USE (Davis 1989, Lund 2001). Estas dimensões foram consideradas nos requisitos e fundamentos do design, e por isso, fazem parte dos objectivos principais da avaliação do iFelt, que incluem as seguintes propriedades: Usefulness (utilidade) - Como pode ser útil a exploração da informação emocional? Quais as melhores maneiras de aceder à informação? Os resultados do sistema foram úteis?; Satisfaction (satisfação) - Os utilizadores acham o iFelt divertido de se usar? Os utilizadores têm uma boa experiência enquanto utilizam o iFelt?; Ease of use (facilidade de uso) - Os utilizadores acharam o iFelt fácil de se usar? Como suplemento a estas dimensões, procurou-se ainda perceber se as informações fornecidas pelo iFelt eram perceptíveis. Como objectivo paralelo, procurou-se saber se os utilizadores tinham comentários específicos, globais ou sugestões para propor, no que diz respeito a funcionalidades, mecanismos de acesso ou de alternativas de representação da informação.

48

3.5.2

Método

A avaliação foi baseada principalmente em dois métodos: Observação, usando papel e uma caneta como método de registo; e entrevistas semi-estruturadas (Guião no anexo A). O processo começou a apresentação do iFelt, explicando a finalidade dos testes, e sucedendo-se um conjunto de questões demográficas e sobre experiência prévia para ajudar na análise posterior dos resultados. Em seguida, os utilizadores assistiram a duas cenas de um filme fora do iFelt, e foram solicitados a identificar a sua reacção em termos da emoção dominante que sentiram (T0), isto para aumentar a sua consciência sobre o conceito de caracterização emocional de filmes e cenas dos filmes. No passo seguinte, deu-se ínicio a uma actividade orientada a tarefas com o iFelt, onde os erros, hesitações e tempo de realização foram observados. No final de cada tarefa, os utilizadores foram confrontados com questões baseadas no questionário USE, a serem respondidas a partir dos cinco pontos da escala de Likert (Likert, R. 1932), tendo a oportunidade de fornecer feedback qualitativo através de comentários e sugestões sobre as funcionalidades e interfaces envolvidas na tarefa. Neste passo, foi observado e registado, em termos dos aspectos USE, o desempenho dos utilizadores na execução da tarefa, para ajudar a detectar dificuldades e respostas menos pensadas. Sempre que havia mais de uma variante do mesmo recurso para uma tarefa, a ordem da sua apresentação foi escolhida aleatoriamente, a fim de mudar a rotina dos testes para a avaliação das diferentes variações ser feita em condições de equidade. Finalmente, os utilizadores foram convidados a responder verbalmente a questões baseadas novamente no USE, mas desta vez sobre a visão geral do protótipo. Para esta avaliação, foram recrutados 10 indivíduos (6 mulheres, 4 homens) entre 21-56 anos de idade. Os resultados da avaliação são apresentados e discutidos abaixo.

3.5.3

Resultados

Embora a ordem da análise devesse, do ponto de vista conceptual, ser aquela que foi apresentada nas subsecções da secção 3.2, esta foi alterada na fase de avaliação para: Movies Space, Movie Emotional Profile, Movies Emotional Scenes Space e User Emotional Profile, pela necessidade de introduzir previamente aos utilizadores o conceito do Movie Emotional Profile, possibilitando o aumento da consciência sobre as cenas emocionais, antes de serem convidados a aceder ao Movies Emotional Scenes Space. A média e o desvio-padrão obtidos a partir da análise dos resultados das tarefas propostas e questões subjacentes são apresentados nos gráficos seguintes, com base nos cinco pontos da escala de Likert.

49

1. Movies Space Neste espaço, foram avaliados os mecanismos de acesso e navegação para encontrar os filmes na Wheel, solicitando que os utilizadores identificassem no espaço os 5 filmes mais alegres (T1) e qual a perspectiva dos realizadores sobre os mesmos filmes (T2). Com estas duas questões, analisamos a usabilidade dos mecanismos de navegação, bem como a percepção da informação representada na vista Wheel. Existem quatro variantes da Wheel, como descrito na secção 3.3.1. A variante 4, que transmite a intensidade da emoção pelo tamanho e brilho e sem grade, foi a preferida por 90% dos utilizadores. Os utilizadores tenderam a associar o centro da Wheel com emoções menos intensas. Através da tarefa 1 (T1), onde se pediu para identificar no espaço de filmes os 5 filmes mais alegres, observou-se que os utilizadores ficaram agradados com a possibilidade de terem uma colecção de filmes emocionalmente classificados com a reacção emocional dos espectadores, incluindo a sua própria, e a espectativa do realizador dos filmes (T2). De modo a avaliar o acesso, pesquisa e navegação para o perfil do filme a partir do espaço filmes, foi pedido para o utilizador aceder ao filme “28 days Later” (T3). Para encontrar o filme, observou-se que 80% dos utilizadores usou a vista Title e os outros 20% a Wheel. Na verdade, para procurar um filme específico, a maioria dos utilizadores indicou que optaria pela vista Title, ao passo que para pesquisar ou explorar as propriedades emocionais de filmes, 90% recorreriam à Wheel. Tabela 3.1: Resultados da Avaliação USE do Movies Space USE

Utilidade

Satisfação

Facilidade de Uso

Tarefas

Média

D. Padrão

Média

D. Padrão

Média

D. Padrão

T1

4.6

0.9

4.9

0.7

5

0.9

T2

4.4

0.9

4.9

0.7

4

0.9

T3

4.3

0.8

3.9

0.7

5

0

A representação da emoção dominante do filme, através de um círculo colorido que precede os títulos na vista Title, não foi muito satisfatória, pois os utilizadores não estavam ainda muito familiarizados com a cor das emoções, e não havia etiquetas nesta vista. Mas de acordo com os resultados obtidos, os utilizadores acharam as funcionalidades encontradas no Movies Space muito úteis, satisfatórias e fáceis de usar (tabela 1). 2. Movie Emotional Profile Depois de aceder ao perfil emocional do filme (T3), foram realizadas três tarefas sobre esse filme, para obter informações sobre a facilidade de uso e percepção das informações exibidas. Estas tarefas acabaram por fornecer informação crucial sobre aspectos de usabilidade como a identificação de cenas emocionais a partir da timeline 50

(T4), das emoções dominantes a partir das barras (T5) e comparações entre as timelines (T6). Quando se perguntou qual a sequência de emoções no filme (T4) (representada em cenas na timeline), observou-se uma dificuldade inicial na compreensão plena do conceito de cenas emocionais. Em consequência, obteve-se o resultado mais baixo, mas ainda positivo, de usabilidade em relação à satisfação desta funcionalidade (média = 3,6 desvio-padrão = 1,5, na Tabela 2). Alguns utilizadores sugeriram também a representação das cenas tradicionais, a fim de, por diferenciação, facilitar a identificação das cenas emocionais. Ainda assim, este recurso foi considerado muito útil e fácil de usar, onde a maior pontuação foi dada à possibilidade de ver e comparar as diferentes timelines emocionais (T6). Observou-se que 90% dos utilizadores estavam a apreciar a exploração das timelines, a fim de comparar as suas próprias classificações emocionais com as restantes (todos os utilizadores e realizador). Alguns utilizadores, 80%, sugeriram que esta era uma funcionalidade "porreira" para partilhar em ambientes de redes sociais. De salientar também, que neste espaço, os utilizadores atribuíram uma pontuação alta à utilidade (4.9) e satisfação (4.6) do gráfico de barras para a representação das emoções dominantes, quando lhe foi pedido para indicarem a percentagem da ou das emoções menos dominantes (T5). Qualquer das 3 tarefas foi realizada facilmente. Tabela 3.2: Resultados da Avaliação USE do Movie Emotional Profile USE

Utilidade

Satisfação

Facilidade de Uso

Tarefas

Média

D. Padrão

Média

D. Padrão

Média

D. Padrão

T4

4.4

0.7

3.6

1.5

5

0

T5

4.9

3.1

4.6

0.6

5

0

T6

4.9

0.3

4.9

0.3

5

0

3. Emotional Scenes Space O espaço de cenas emocionais foi avaliado pedindo aos utilizadores para encontrarem o filme com maior percentagem de cenas tristes (T7). Esta tarefa deu a informação sobre a usabilidade do mecanismo para aceder e explorar os filmes pela informação emocional das cenas. Esta tarefa foi seguida por outras três que ajudaram a avaliar a facilidade de uso e percepção da representação visual da informação emocional das cenas (T8), a representação dos filmes repartidos pelas suas cenas emocionais, após a selecção de um dos filmes (T9) e o acesso às cenas do filme a partir de uma emoção específica, criando deste modo, um resumo do filme onde se mostram apenas as cenas de uma emoção escolhida (T10).

51

Tabela 3.3: Resultados da Avaliação do Emotional Scenes Space USE

Utilidade

Satisfação

Facilidade de Uso

Tarefas

Média

D. Padrão

Média

D. Padrão

Média

D. Padrão

T7

3.7

1.3

2.8

1.3

3.3

1.2

T8

4.8

0.4

4.4

1

3.7

1

T9

4.4

0.7

4.8

0.7

4.6

0.8

T10

4.6

0.4

4.6

1

4.9

0.9

Observou-se que apenas 60% dos utilizadores terminaram a tarefa (T7) e que mesmo esses utilizadores tiveram algumas dificuldades em compreender a representação do espaço de cenas, razão pela qual quase metade dos utilizadores não concluíu a tarefa. Com base nas observações dos utilizadores, este facto deveu-se à representação das cenas ser feita de forma semelhante à dos filmes, através de círculos, e por isso não se terem apercebido do novo conceito apresentado (cenas emocionais). Por outro lado, depois de descobrir o conceito, a possibilidade de explorar as cenas pelo seu impacto emocional (T8) foi considerada muito útil. A forma de apresentar todas as cenas emocionais do mesmo filme, colocando o cursor sobre ou seleccionando um círculo qualquer (T9), foi muito apreciada e considerada visualmente agradável. Observou-se, ainda, que os utilizadores ficaram especialmente motivados com a possibilidade de visualização de uma representação do filme repartido pelas suas cenas emocionais. O acesso ao perfil do filme, quando se pediu para aceder às cenas tristes do filme alvo (T10), fazendo assim a ligação entre os dois espaços, apresentando um resumo do filme com as cenas emocionais da emoção seleccionada, foi classificada como útil (média = 4,6 desvio-padrão = 0,4), satisfatória (média = 4,6 desvio padrão = 1) , e muito fácil de usar (média = 4,9 desvio-padrão = 0,9). 4. User Emotional Profile Tabela 3.4: Resultados da Avaliação ao User Emotional Profile USE

Utilidade

Satisfação

Facilidade de Uso

Tarefas

Média

D. Padrão

Média

D. Padrão

Média

D. Padrão

T11

4.8

0.5

4.7

0.5

4.8

0.3

T12

4.8

0.4

3.5

1

4.8

0.9

T13

4.8

0.4

3.5

1

3.6

0.9

T14

4.4

0.5

4.5

1.2

4

1.6

Nesta secção procurou-se avaliar a percepção da informação emocional sobre o perfil do próprio utilizador, onde se perguntou aos utilizadores qual a emoção mais e menos sentida nos filmes que já viu (T11), se já tinha classificado o filme “Requiem of a Dream” (T12), quantos filmes classificou (T13) e quais as emoções dominantes dos 3 últimos filmes vistos (T14). Os resultados do perfil emocional do utilizador foram globalmente satisfatórios, os utilizadores compreenderam o conceito do perfil e acharam 52

a possibilidade de ter os filmes classificados pelas suas próprias emoções muito útil. Em resumo, a partir das tarefas 11 e 13, conclui-se que o "My dominant Felt Emotions" é uma forma eficaz para representar a informação, embora alguns utilizadores não tivessem a certeza se este ponto de vista só incluía os filmes que já haviam classificado emocionalmente (T12). A representação dos filmes no "My Last Movies Classified" (T14) também cumpriu os requisitos de usabilidade, mas, quando questionados, todos os utilizadores preferiram a representação da informação emocional baseada em círculos, em vez da imagem do filme com o filtro de cor.

3.6 Conclusões Neste capítulo, foi apresentado o procedimento da elaboração do protótipo iFelt, dividido nas várias etapas: Análise de Requisitos, onde se caracterizou o problema e definiram objectivos; Classificação das Emoções e Conceitos, onde se descreveu como é feita a classificação das emoções sentidas pelos espectadores e alguns conceitos importantes para a compreensão do restante capítulo; Desenho, onde se apresentou a interface e os mecanismos de interacção; a Arquitectura, algumas opções de implementação e desafios encontrados; e por último, Avaliação com Utilizadores, onde se descrevem os objectivos, método, e resultados da avaliação de usabilidade do protótipo. Enquanto se tirou partido dos cenários para validar os requisitos e diferentes especificidades importantes que se vieram a dar resposta no desenho, foi possível concluir-se que, a partir das avaliações com utilizadores, os requisitos não funcionais considerados para este protótipo foram satisfeitos, e que o iFelt é tido como útil, satisfatório e bastante fácil de usar. Relativamente ao acesso e exploração, conclui-se que os utilizadores preferem utilizar a vista Title quando procuram por um filme específico, e utilizar a vista Wheel quando a pesquisa é exploratória e baseada em emoções. A exploração de timelines emocionais foi considerada muito útil, especialmente porque permite efectuar comparações entre as diferentes perspectivas, e sugerida como uma funcionalidade interessante para implementar nas redes sociais. A possibilidade de explorar os filmes pelas suas cenas emocionais no "Movies Scene Space", embora numa primeira fase esse conceito não fosse totalmente compreendido, foi considerada uma funcionalidade muito útil e agradável para ganhar maior consciência sobre as cenas emocionais dos filmes e fazer resumos baseados em emoções. A My Dominant Felt Emotions, no perfil do utilizador, destacou-se positivamente, pela coerência de representação, para fazer comparações entre as emoções sentidas.

53

54

Capítulo 4 Estudo sobre o Impacto Emocional dos Filmes nos Espectadores As emoções fazem parte das nossas vidas diárias, influenciando o modo como pensamos e agimos, a nossa saúde e bem-estar. Muitos autores afirmam que as emoções são artefactos de sobrevivência, que regulam padrões biológicos para lidar com ambientes específicos, como a fome ou o medo (James, W. 1884), classificando as coisas como sendo boas ou más, e por vezes neutras (Damasio, A. 1995). No entanto, as emoções positivas não são sempre benéficas e as emoções negativas não são sempre prejudiciais (Huppert, F. 2006). As emoções positivas reforçam as capacidades cognitivas e criativas para resolver problemas, bem como a saúde física; mas as emoções negativas, que estreitam a capacidade do pensamento e da acção do indivíduo, são estratégias de sobrevivência valiosas. Ao combinar diversos sistemas simbólicos, tais como imagens, textos, música e narração, o vídeo é um meio muito rico, que frequentemente envolve o espectador cognitiva e emocionalmente, e com um grande potencial para a promoção de experiências emocionais. Este potencial foi confirmado por exemplo em (Isen A. M. 1987), onde se avaliou o efeito de emoções positivas em pacientes, induzida por dez minutos de filmes de comédia. Os resultados publicados em (Bardzell et al. 2009) sugerem que as respostas emocionais são complexas, mas ainda assim relacionadas com as preferências nos vídeos, mesmo em vídeos curtos da Internet. O estudo de filmes como método de indução de uma emoção tem sido relatado desde 1916 (Münsterberg, H. 1970), analisando as operações mentais dos espectadores, discutindo como as emoções guiam a motivação da percepção e o controlo da nossa atenção através de narrativas cinematográficas. Mais recentemente, outros investigadores utilizaram filmes para induzir emoções com diferentes objectivos (Gross, J., & Levenson, R. 1995). Em estudos sobre media, os métodos mais comuns para induzir emoções são métodos baseados em imagens, música, ou filmes. Segundo (Westermann, R., et. al. 1996)), 55

foram testados onze métodos de indução, e concluiu-se que os filmes eram o melhor método para suscitar emoções, positivas e negativas. Dada a importância das emoções nas nossas atitudes, saúde e bem-estar, bem como o papel que os filmes têm em induzir emoções nos espectadores, torna-se pertinente perceber o impacto emocional dos filmes nos espectadores de forma a melhor o suporte que se dá à gestão emocional dos filmes. Foi conduzida uma entrevista com o objectivo de compreender o impacto emocional que a visualização de filmes tem nos espectadores, saber porque que as pessoas assistem a filmes, e se e de que forma estão relacionadas com essa atitude. Pretende também conhecer que emoções são mais identificadas e a relação com os géneros de filmes, de forma a perceber que informação emocional será mais importante neste contexto, e que modelos poderão vir a ser mais adequados para suportar a gestão e acesso a filmes com base em emoções em sistemas como o iFelt. O estudo foi realizado com os mesmos indivíduos que participaram na avaliação do iFelt (secção 3.5). E foram elaboradas 8 questões que visam aferir diferentes aspectos do impacto emocional dos filmes.

4.1 Contexto e Atitudes Os participantes concordaram fortemente (4,6 numa escala de 1-5: discordo totalmente – concordo totalmente) que assistir a um filme pode encher a alma, ou entristecê-la (Q1). Sentem muitas vezes necessidade de ver filmes (4,2 na Q3, em uma escala de 1-5: nunca-frequentemente), e que por vezes recorrem a filmes para conseguir um determinado estado emocional (3.1 na Q2). Tabela 4.1: Questões com foco no contexto e atitudes dos espectadores Questões

Q2

Há pessoas que dizem que ver um filme lhes anima a alma ou por outro lado entristece. Concorda? Recorro a filmes para me dispor num determinado estado emocional?

Q3

Sinto necessidade de ver filmes?

Q1

Média

D. Padrão

4.6

0.52

3.1

0.99

4.2

0.63

4.2 Géneros de Filmes e Emoções Sentidas Solicitou-se aos participantes para indicarem que géneros os fazem sentir as emoções listadas. Não se fez uma lista para os géneros, de forma a que sejam mencionados livremente os mais relevantes. As respostas mais semelhantes associaram alegria e felicidade com humor, tristeza com drama, e assustador/medo com filmes de terror. Os filmes de acção fazem a maioria dos participantes sentirem-se enérgicos, enquanto os de comédia o fazem para 56

alguns. A maioria dos participantes do sexo feminino mencionaram que se sentem deprimidas com filmes dramáticos, enquanto a maior parte dos participantes de sexo masculino sentem-se deprimidos com os de romance. A repulsa tende a ser associada com filmes de terror, mas também com os filmes relacionados com sangue (2M) e ciência (1F). As participantes femininas indicaram que se sentem mais inspiradas ou motivadas com romance, drama e acção, enquanto os participantes masculinos se inspiram e motivam com filmes de acção e documentários. Para outras mulheres, os filmes de romance fazem-nas sentir-se felizes, motivadas e inspiradas, e uma do sexo feminino e um do sexo masculino se sentem tristes. Os géneros mais procurados ou preferidos (Q5) são drama e romance para as participantes de sexo feminino, e acção, comédia e suspense para os de sexo masculino. Tabela 4.2: Questões com foco nos géneros de filmes e emoções sentidas pelos espectadores

Q4. Que Género de filme o faz sentir:

Acção Drama Romance Comédia Suspense Terror Bio Doc. Outros

enérgico

4F 2M

deprimido

1F 1M 3F 1M

1F 3M

1F

inspirado

2F 1M

3F

2F

motivado

1F 2M

1F

2F

1F

2F

4F 4M

alegre, feliz triste

6F 3M

1M

1M

1F 1M

1M

1M

6F 3M 3F 2M

enojado

1F 1M

3F

1M cavalos 1F politica

1F 1M

assustado

Q5. Género mais requisitado?

1M

3F

1F 1M

1M

1M

1F ciência 1M sangue 1F sazonais

4.3 Preferências e Filmes Marcantes A emoção mais requisitada quando se procura um filme (Q6) foi a surpresa ou suspense para metade dos participantes do sexo masculino, e sentir-se bem e diversão para os outros. A maioria das participantes do sexo feminino, indicaram sonho, inspiração ou motivação, duas mencionaram sonhar e imaginar, e uma felicidade. Quando se perguntou sobre um filme relevante na sua vida (T7-T8), o filme e a emoção principal associada alinharam numa medida razoável, com a preferência das emoções. Foi interessante notar, que, as respostas com filmes de fantasia e motivação, foram, de algum modo, mais inspiradas: F29 "adorei de vaguear pela história", enquanto F35,

57

depois de assistir ao “Clu e dos Poetas Mortos” aos 13 anos de idade, achou que "ia conquistar o mundo". Tabela 4.3: Respostas às questões sobre preferências e filmes marcantes para os espectadores

Q6. Emoção mais requisitada Q7. Filme relevante na sua vida

Q8. Emoção dominante sentida

nojo

Irreversível

M32

tristesa

Tudo Sobre a Minha Mãe

M30

surpresa, suspense

divertimento, sentir bem felicidade

M30,32

sonhar, inspiração, motivação

M32, M23 F56

M23, M25 F21

atracção sonhar, imaginação

Irreversível, Clube de Combate, A Janela Indiscreta

F29,35 F28,31,35

Entrevista com o Vampiro

F21

Rei Leão

F29

Crianças Invisíveis

F31

Clube dos Poetas Mortos

F28,35

Com este estudo sobre impacto emocional dos filmes, observou-se que os espectadores concordaram fortemente que assistir a um filme pode encher a alma, ou entristecê-la, sentem muitas vezes necessidade de ver filmes, e que por vezes recorrem a filmes para conseguir um determinado estado emocional. Relativamente às preferências e relação das emoções entre os géneros de cinema, foi interessante notar que a diferença entre as respostas femininas e masculinas foi coincidir, de alguma forma, com algumas características comumente associadas a cada género, por exemplo em termos de romance versus acção. Foi interessante observar, a partir dos resultados e embora não generalizáveis, que as mulheres relataram maior preferência por filmes felizes e os homens tiveram maior preferência por filmes excitantes. Foi também interessante notar alguma tendência nas preferências para as emoções desejadas como o divertimento, surpresa, sentir bem, felicidade, e principalmente, imaginar, sonhar, inspiração e motivação, indo ao encontro do que as pessoas procuram na vida.

58

Capítulo 5 MovieClouds Neste capítulo apresenta-se o segundo protótipo desenvolvido no âmbito deste projecto, o movieClouds. O movieClouds foi concebido para o acesso, exploração e visualização de filmes com base na informação contida nas diferentes perspectivas do seu conteúdo, especialmente o áudio e as legendas, onde a maioria da semântica é expressa, com especial atenção à dimensão emocional expressa nos filmes ou sentida pelos espectadores. Adopta o paradigma unificador das Tags Clouds (nuvem de palavras), para gerar visões globais das diferentes perspectivas, para permitir a análise e navegação exploratória dos filmes. As secções seguintes descrevem os passos dados na concepção e elaboração deste protótipo, divididos nas secções de Análise de Requisitos, Classificação de Conteúdos, Desenho, Arquitectura e Avaliação com Utilizadores.

5.1 Análise de Requisitos Nesta secção apresentam-se os requisitos, dentro do âmbito do meu mestrado, para este protótipo. O levantamento foi feito tendo em conta as regras de ouro do design de interfaces tradicionais (Shneiderman, 1998), mas sobretudo com base nos principais requisitos do projecto onde fui inserido, o VIRUS (Langlois T. et. al., 2010), onde se procura a usabilidade, expressividade e eficácia duma interface para o acesso, exploração e visualização de filmes com base na informação contida nas diferentes perspectivas do seu conteúdo: através das legendas, onde se consideram a frequência das palavras e emoções textualmente expressas; e do áudio, onde se consideram os eventos sonoros e o Mood (humor), e suportando ainda, as emoções sentidas pelos espectadores. Os requisitos estão descritos em baixo, divididos nas categorias de requisitos Funcionais e não Funcionais.

59

5.1.1

Requisitos Funcionais

1.

Deve possibilitar visualizar um espaço de filmes com as diferentes perspectivas do conteúdo do filme: legendas; emoções expressas; eventos sonoros; mood do áudio, bem como as emoções sentidas pelos espectadores;

2.

Deve ser possível localizar e comparar os filmes de acordo com as suas propriedades nessas diferentes perspectivas;

3.

Deve ser possível aceder a esses filmes;

4.

O utilizador deve conseguir saber as dominâncias em cada perspectiva;

5.

Deve ser possível visionar o filme;

6.

O utilizador deve dispor de uma vista para cada perspectiva;

7.

O utilizador deve dispor de uma timeline para cada perspectiva, que permite navegar através das várias ocorrências;

8.

O utilizador deve perceber a dominância dentro de cada perspectiva e visualizá-la ao longo do tempo.

9.

Deve ser possível localizar e comparar as perspectivas de cada filme ao longo do tempo;

5.1.2

Requisitos não Funcionais

1.

O sistema deve ser útil, satisfatório, fácil de utilizar e perceptível.

2.

Deve ser coerente.

3.

Deve fornecer feedback ao utilizador sobre o seu estado e acções possíveis e realizadas.

4.

O sistema deve ser fácil de assimilar pelo utilizador (carga cognitiva baixa).

5.

O sistema deve ser eficiente.

6.

O design deve ser simples e não ter elementos distractivos.

7.

O sistema deve permitir acesso flexível por Web.

Para o funcionamento completo e correcto do sistema que se pretende concretizar, existem outros requisitos funcionais que ultrapassam a fronteira do âmbito da minha tese (e.g. o processamento das pistas de áudio e das legendas), não estando por isso considerados aqui. Os descritos aqui, permitem no entanto, a concepção e desenvolvimento da interface e sua posterior avaliação com alguns utilizadores para obter alguns resultados e comentários que permitam validar e eventualmente vir a melhorar o sistema no sentido de cumprir os objectivos delineados. 60

A criação de um espaço de filmes unificado para a quantidade e variedade de informação que tem de ser apresentada ao utilizador, e a forma de o fazer, revela-se o maior desafio neste protótipo, pois são consideradas cinco perspectivas, todas com o mesmo grau de importância, não devendo por isso sobrevalorizar visualmente uma sobre as outras. Destacar as selecções do utilizador sem que elas obstruam outras previamente seleccionadas, prevê-se desafiante, também pela mesma razão.

5.2 Classificação de Conteúdos Para a classificação de conteúdos dos filmes, no movieClouds, está-se interessado na identificação dos tópicos e eventos, especialmente relacionados com emoções e mood (humor), quer expressos no conteúdo ou sentidos pelos espectadores, devido à importância que as emoções têm para as pessoas. O protótipo tem por base, a existência, em desenvolvimento, de um conjunto de algoritmos de processamento do vídeo, áudio e legendas, para extrair a informação a ser representada. Apresentam-se os conceitos mais relevantes e o trabalho realizado nestes domínios.

5.2.1

Discurso nas Legendas

As legendas representam todo o discurso existente no filme, onde uma parte muito significativa da semântica do filme é transmitida. O objectivo é utilizar uma abordagem baseada na análise estatística das frequências das palavras (para a atribuição de Tags semânticas a termos), n-gramas, e ontologias, para permitir a identificação dos principais tópicos nas cenas e assim uma sumarização mais precisa dos filmes. Contudo, esta ideia, à data do desenvolvimento do protótipo, este processamento encontrava-se muito pouco desenvolvido. Como tal, para o desenvolvimento do meu trabalho, houve a necessidade de explorar este assunto. Tendo em conta que o modo desejado para o processamento das legendas é o tema de uma tese por si só, explorei uma alternativa mais simples, mas que garantia resultados satisfatórios para uma primeira abordagem, sendo suficientes para mostrar uma perspectiva sobre o conteúdo das legendas. A contemplação de resultados mais refinados será feia em fases posteriores do projecto. Antes de serem analisadas e representadas pelas Clouds, as legendas foram processadas para remover conectores e termos comuns, de modo a que não afectem ou prejudiquem o resultado que se deve focar no vocabulário mais representativo. Na tabela 5.1, observa-se o formato original de um ficheiro de legendas de um filme (pares de id; inicio --> fim; frase), e o formato processado pelo movieClouds em JSON. Este processo será explicado em detalhe na secção 5.4.

61

Tabela 5.1: Legendas dos filmes: À esquerda, excerto de um ficheiro típico de legendas de um filme. À direita, excerto de legendas processadas em pares de “:frequência” em formato JSON. 1127 01:11:35,687 --> 01:11:39,805

{

Since when can weathermen predict

"right":4.13550373955,

the weather, let alone the future?

"marty":2.85965684118, "now":2.77166739991,

1128

"look":2.68367795864,

01:11:39,887 --> 01:11:42,481

(…)

You know, Marty,

}

I am going to be very sad to see you go.

5.2.2

Emoções nas Legendas

As legendas transmitem igualmente informações emocionais e sentimentais. Como primeira abordagem, as legendas foram processadas para encontrar explicitamente as emoções mencionadas, a partir dos modelos emocionais categóricos e de appraisal mais conhecidos (tabela 9). A procura foi complementada com as palavras seguintes a "feel" e "feeling", inspirado pela abordagem de wefeelfine.com (secção 2.2). Tabela 5.2: Conjunto de emoções consideradas nas legendas no movieClouds

Referências Emoções Relacionadas com filmes (sentidas) Gross, 2007 Philippot, 1993

amusement, anger, disgust, fear, neutral, sadness, surprise amusement, anger, sadness, tenderness, fear, disgust, neutral

Não Relacionadas com filmes Cowie et al., 1999 Ekman, 1972 Fontaine et al., 2007 Frijda, 1986 Ortony et al., 1988

affectionate, afraid, amused, angry, bored, confident, content, disappointed, excited, happy, interested, loving, pleased, relaxed, sad, satisfied, worried anger, disgust, fear, happiness, sadness, surprise anger, anxiety, being hurt, compassion, contempt, contentment, despair, disappointment, disgust, fear, guilt, happiness, hate, interest, irritation, jealousy, joy, love, pleasure, pride, sadness, shame, stress, surprise anger, arrogance, desire, disgust, enjoyment, fear, humility, indifference, interest, resignation, shock, surprise admiration, anger, disappointment, distress, fear, fears-confirmed, gloating, gratification, gratitude, happy-for, hate, hope, joy, love, pity, pride, relief, remorse, reproach, resentment, satisfaction, shame

Abordagens mais sofisticadas, com base em linguística, estão em desenvolvimento no âmbito do VIRUS. Em particular, estão a ser criados recursos para o reconhecimento e classificação dos predicados (sentimentos) relacionados com os tópicos das cenas dos filmes, através de recursos, como, por exemplo, léxicos e anotações gramaticais.

62

5.2.3

Mood do Áudio

Outra parte importante do conteúdo emocional dos filmes é transmitida através da pista sonora, onde muitas técnicas de engenharia são utilizadas para aumentar o impacto do áudio, como posicionamento 3D de efeitos sonoros e síntese complexa de sons. A classificação automática de conteúdo áudio aborda duas grandes categorias de sons: eventos sonoros (explicado no ponto seguinte) e atmosfera áudio ou Mood - tendo um maior período de tempo, como fundo musical e ambientes naturais. A detecção automática do mood é particularmente difícil quando comparado com a música, em virtude de o sinal de áudio conter ruídos, a música ser misturada com efeitos sonoros e possivelmente ocorrer discurso no fundo. Para obter alguns resultados preliminares, experimentou-se uma abordagem de cruzamento de dados. Foi usada uma base de dados de músicas marcadas com emoções para construir modelos, que foram posteriormente testados nas pistas de áudio do filme. Utilizou-se o CAL500 music autotagging dataset (url-CAL500) de 500 canções para as quais foram atribuídos um conjunto de 174 tags por uma equipe de anotadores. Faram então seleccionadas tags que descrevem emoções (angry, arousing, weird, lighthearted, festive, passionate, thrilling, happy, mellow, playful, romantic, sad, tender) e foram construídos modelos segundo a técnica desenvolvida por (Marques, G., et. al. 2011) com base em modelos Markov. São extraídas sequências de 3 minutos da pista de áudio, classificadas usando estes modelos, e posteriormente confirmadas manualmente. Este tópico encontra-se mais desenvolvido, face ao anterior das legendas, e apesar de não ter sido desenvolvido por mim, foi mesmo assim descrita, uma vez que complementa o meu trabalho. Para uma descrição mais pormenorizada consultar (Marques, G., et. al. 2011).

5.2.4

Eventos Sonoros

Para construir modelos para eventos sonoros, estão a ser desenvolvidas técnicas de processamento de áudio que permitam uma detecção e classificação automática. Numa primeira fase, foi feita a catalogação semi-automática, onde se fez uma pré-selecção automática de excertos da pista sonora, detectando níveis sonoros elevados, uma vez que estes são susceptíveis de conter importantes eventos sonoros. Estes excertos foram classificados manualmente, em categorias como: gritos, tiros, etc. A detecção de eventos sonoros difere da classificação do mood, devido à sua duração ser comparativamente muito curta, pedindo uma abordagem de classificação diferente.

63

5.2.5

Emoções Sentidas

Para a classificação dos filmes com base na das emoções sentidas pelos espectadores, foram utilizados os mesmos métodos do iFelt. Onde a classificação é feita a partir a perspectiva da emoção subjectiva. E o modelo usado para a classificação dessas emoções é um modelo categórico que contempla 6 emoções (raiva, nojo, medo, alegria, tristeza e surpresa), definido por Ekman (ver secção 3.2).

5.3 Desenho Com base nos requisitos e na classificação das emoções foram desenhados uns esboços (figura 5.1), que permitiram dar forma à primeira interface do movieClouds. Considerou-se que, dados os requisitos, havia a necessidade da criação de dois espaços distintos: a) O Movies Space View, um espaço para os filmes; b) O Movie View, para a visualização de um filme. 1. Espaços de Informação No Movies Space View (figura 5.1 a), será possível visualizar um espaço de filmes (Video Space) com as diferentes perspectivas do conteúdo do filme e emoções sentidas pelos espectadores, havendo para isso duas áreas destinadas, visíveis na figura. Estas áreas vão possibilitar ainda conhecer e comparar os filmes de acordo com as suas propriedades nessas diferentes perspectivas, bem como indicar as dominâncias em cada perspectiva. De modo viabilizar o acesso ao Movie View, e fortalecer o feedback dos estados de selecção do utilizador, extrairá uma área (Selected Videos Info), que apresentará os filmes seleccionados e o link para o seu visionamento.

Figura 5.1: Esboços do movieClouds. a) Movies Space View, b) Movie View.

O Movie View (figura 5.1 b) possibilita o visionamento do filme, mantendo a área descrita no espaço anterior, só que com as perspectivas do conteúdo do filme específico. De forma a possibilitar a navegação dinâmica no filme, e possibilitar a visualização das diferentes perspectivas no tempo, este espaço terá uma série de timelines (uma para cada perspectiva). 64

2. Representação dos filmes e seus conteúdos Pretende-se que o movieClouds suporte um conjunto extenso de filmes, que ao logo do tempo tende a ser ainda maior. Como tal, decidiu-se que os filmes serão representados no espaço por partículas. Assim, e uma vez que se pretende que também haja pesquisa exploratória, será possível apresentar uma quantidade de filmes considerável num mesmo momento, aumentando a probabilidade do utilizador encontrar relações entre os filmes. O maior desafio neste protótipo foi encontrar uma forma de representar as diferentes perspectivas do conteúdo, uma vez que têm naturezas diferentes. E antes de considerar as Tag Clouds, como forma unificada da representação de todas as perspectivas do conteúdo dos filmes, pensou-se noutras formas de representação das diferentes perspectivas. Considerou-se a utilização de ícones para diferenciar as categorias nas diferentes perspectivas, mas a variedade de categorias na maioria dos casos tornava a tarefa difícil, nomeadamente para encontrar um bom mapeamento, fácil de identificar e que cobrisse todas as possíveis ocorrências. Considerou-se também, a possibilidade da utilização de cores para diferenciar as perspectivas, e tons diferentes para as categorias dentro de cada perspectiva, mas concluiu-se que provavelmente geraria muita confusão pela capacidade limitada de identificar tonalidades diferentes, e limitaria o uso das cores para outras tarefas (e.g. indicação de selecção ou estado activo). Como forma de resposta a estes problemas surgiram então as Tag Clouds, que permitem unificar as diferentes vistas e perspectivas, possibilitando a apresentação de resumos dos conteúdos com riqueza semântica, podendo funcionar também como filtros do espaço de filmes. 3. Cenário de Uso Para dar suporte à fase de desenho na procura das ligações necessárias entre os dois espaços definidos, mas também procurando a validação dos requisitos, foram criados três cenários de utilização (passos demonstrados nas respectivas figuras): 1. O utilizador pretende saber quais os filmes que contribuíram para a determinação da palavra mais dominante (figura 5.2); 2. O utilizador pretende conhecer os filmes que mencionam no seu discurso a palavra “games” e o mood “festive” (figura 5.3); 3. O utili ador pretende aceder ao filme com maior frequência de tiros e visionar que emoções as pessoas sentiram nos instantes em que esses tiros ocorreram (figura 5.3). Tendo uma base definida (requisitos, esboços e alguns cenários), foram desenhados diferentes mecanismos para visualizar, aceder e explorar os filmes no movieClouds ao nível do espaço dos filmes e de um filme focando, como já referido anteriormente, na classificação a partir do seu conteúdo.

65

Figura 5.2: 1º cenário considerado no movieClouds

Figura 5.3: 2º cenário considerado no movieClouds

Figura 5.4: 3º cenário considerado no movieClouds

A 66

A descrição dos diferentes mecanismos está organizada pelos dois espaços que evoluíram a partir dos esboços.

5.3.1

Movies Space View

Neste espaço de filmes (figura 5.3), os utilizadores obtêm uma visão geral de todos os filmes ou dos que resultaram de uma pesquisa prévia, o que permite achar uma “vi inhança” de filmes e possíveis relações, de forma a possibilitar a pesquisa exploratória. Para o efeito, há duas áreas de visualização principais: Circle Cloud de Filmes, na primeira metade do ecrã, é povoada com os filmes encontrados, representados por pequenos círculos brancos; e Tag Clouds de Filmes, na metade inferior do ecrã, preenchidas pelas características baseadas no seu conteúdo, divididas nas cinco perspectivas visualmente distinguidas pelas diferentes fontes. Estas fontes mantem-se coerentes em todo o protótipo. 1. Circle Cloud de Filmes Nesta área, os filmes são representados por partículas brancas e distribuídas aleatoriamente ao início. Ao ser seleccionada uma tag na Tag Cloud, destacam-se as partículas dos filmes que a contêm e por isso contribuíram para a contagem da frequência dessa tag, alterando a sua cor e tamanho, definido consoante a frequência da tag. A cor atribuída é aleatória, mas em concordância com a cor atribuída à tag seleccionada. Optou-se por esta aproximação, que é utilizada de forma coerente nos dois espaços do protótipo durante a navegação, por uma questão de uniformidade e flexibilidade, uma vez que a variedade de tags é imensa, nomeadamente nas legendas. É ainda adicionada uma entrada na lista da direita, com a informação do filme, e botão de acesso ao mesmo (watch). Ao passar o cursor do rato por cima das partículas, o título do filme é sempre apresentado, e a frequência da tag se seleccionada, numa caixa que aparece junto ao cursor. Ainda, ao seleccionar o filme nesta área, esse filme é destacado na lista à direita por uma moldura branca. 2. Tag Clouds de Filmes Esta área fornece uma visão geral das particularidades dos filmes com base na classificação dos conteúdos através de uma Tag Cloud. Nessa Tag Cloud, cada tag tem, para se distinguir, uma fonte diferente conforme a perspectiva do conteúdo do filme a que pertence (legendas, emoções nas legendas, eventos sonoros, moods do áudio e emoções sentidas). Esta Tag Cloud pode ser apresentada com as 5 perspectivas juntas, ou separadas, alinhadas sobre as etiquetas com o mesmo tipo de fonte, que as identificam. Estas etiquetas podem ser usadas para filtrar apenas as tags a que

67

pertencem na Tag Cloud conjunta. Finalmente, a Tag Cloud, pode dizer respeito a todos os filmes apresentados em cima, ou apenas ao que estiver seleccionado. O botão no canto inferior esquerdo permite alternar entre a Tag Cloud conjunta ou separada nas 5 perspectivas, e indica o estado da Tag Cloud, e diz respeito ao conjunto de filmes apresentados em cima, ou apenas ao filme seleccionado, indicando, neste caso, o título do filme.

Figura 5.5: Movie Space View do movieClouds

Para a percepção da navegação entre as funcionalidades envolvidas neste espaço, dá-se o seguinte exemplo (com ilustração na figura 5.6): O utilizador selecciona as tags "marty” e “right”. Pintando a tag “marty” e um filme, o “Back to The Future”, de verde, e a tag “right” e dois filmes, o “Back to The Future” novamente e o “La Vitta Bella”, de rosa (figura 5.6 a-b). O filme “Back to The Future” foi duas vezes seleccionado, tendo por isso dois círculos, de tamanhos correspondentes à dominância de cada tag, so repostos. Ao seleccionar o c rculo correspondente ao filme “La Vitta Bella” (figura 5.6 b-c), a Tag Cloud passa a ser preenchida apenas segundo as perspectivas do conteúdo deste filme, sendo este estado indicado através da moldura à volta da informação do filme à direita, e ao lado do botão de separação da Tag Cloud, que se seleccionado separa a Tag Cloud nas cinco perspectivas (figura 5.6 c-d). Observa-se ainda, que a tag “marty” dei ou de estar presente na Tag Cloud, uma ve que n o se encontra no conteúdo do filme seleccionado. Mas uma vez que a tag “right” tam m se encontra no filme “Back to The Future”, o c rculo correspondente so re o filme mantém-se. Ao seleccionar o botão “watch” colocado na ona de informaç o do filme, o utili ador navega para a vista do filme, “La Vitta Bella” neste caso, como o ilustra a figura 5.8 a).

68

Figura 5.6: Navegação no Movies Space View do movieClouds

5.3.2

Movie View

Nesta vista (figuras 5.5 e 5.6), pode-se visionar o filme, explorar, à direita do filme, o mesmo tipo de Tag Clouds nas várias perspectivas do conteúdo para o filme seleccionado, e analisar e navegar pelo filme através de um conjunto de 5 timelines (uma para cada perspectiva do conteúdo) disponibilizadas por baixo do filme.

Figura 5.7: Movie View do movieClouds

69

1. Tag Clouds Esta área (figura 5.7 c) fornece uma visão geral, ou resumo, das particularidades do filme com base na classificação dos seus conteúdos em cada uma das cinco perspectivas seleccionadas através das etiquetas correspondentes. Quando o utilizador navega para este espaço, o estado das tags seleccionadas no Movies Space View é mantido, e é feito um preenchimento automático das timelines com as tags seleccionadas. A partir daqui, o utilizador pode explorar as diferentes Tag Clouds e seleccionar as tags que quiser, povoando as timelines com as escolhas feitas. 2. Timelines Nesta área (figura 5.7 b) encontram-se as cinco timelines, precedidas do mesmo tipo de etiquetas que identificam as Tag Clouds, das cinco perspectivas do conteúdo consideradas. Estas permitem dispor ao longo do tempo e aceder às ocorrências das tags seleccionadas, e comparar as várias timelines, para correlacionar conteúdos diferentes (e.g. um tiro foi disparado [evento sonoro] quando o personagem disse “morre” [legendas]), para além das funcionalidades tradicionais de uma timeline: indicação da posição actual e possibilidade de aceder a qualquer tempo no filme. Existe ainda a possibilidade, através dos botões que sucedem as timelines, de preencher a timeline com todas as ocorrências de todas as tags (botão All), ou de limpar a timeline (botão None). A representação das ocorrências é feita através de círculos para as perspectivas das legendas, emoções nas legendas e eventos sonoros, por estas serem de curta duração. E feita através de rectângulos nas perspectivas mood do áudio e emoções sentidas, por estas corresponderem a intervalos de tempo. As ocorrências podem ser seleccionadas, guiando a reprodução do filme para o instante em que ocorreram, e sempre que o filme atravessa o instante de uma ocorrência, ela é destacada das outras pelo aumento de tamanho, o que ajuda a localizar o conteúdo do filme. Também é possível navegar para a próxima/anterior ocorrência da mesma tag através do setas direita/esquerda do teclado, para facilitar a navegação pelas ocorrências da tag ao longo do tempo.

Para se perceber a navegação entre as funcionalidades envolvidas neste espaço, dáse a seguinte continuação do exemplo iniciado no espaço anterior (com ilustração na figura 5.8): Após navegar do Movies Space View para o filme "La Vitta is Bella”, é apresentada ao utilizador a vista do filme seleccionado com a tag “right” destacada com a cor utilizada antes, neste caso o rosa, e preenchida na timeline das legendas (figura 5.8 a). É iniciada a reprodução do filme no instante em que há a primeira ocorrência da tag destacada. O utilizador selecciona as tags "princess" e "look", sendo atribuídas as cores azul e verde respectivamente, povoando a timeline das legendas com as suas ocorrências 70

através de círculos coloridos com as mesmas cores. A figura 5.8 a-b ilustra a selecção da Tag Cloud pela perspectiva das emoções nas legendas através da etiqueta respectiva. De notar que a etiqueta da timeline segundo a mesma perspectiva é destacada também, indicando ao utilizador que a partir daquela Tag Cloud preenche aquela timeline, que lhe corresponde, o que aconteceu quando o utilizador seleccionou a tag “surprise” (figura 5.8 b). A figura 5.8 b-c ilustra a selecção da Tag Cloud pela perspectiva dos moods do áudio, onde o utilizador povoou a timeline com rectângulos coloridos correspondentes as tags “calm” e “festive”. A figura 5.8 c-d mostra o que acontece quando se selecciona o ot o “All”, todas as tags são seleccionadas e colocadas na timeline de forma instantânea. Este botão encontra-se activo em todas as timelines, mesmo que o utilizador se encontre na Tag Cloud de outra perspectiva, como o ilustra a figura 5.8 d), permitindo o rápido preenchimento das timelines e possibilitando a comparação mais completa entre as timelines.

Figura 5.8: Navegação na Movie View no movieClouds

5.4 Arquitectura O movieClouds tem uma arquitectura orientada a serviços (SOA), ilustrada na figura 5.9, onde se identificam 3 camadas: Uma camada de apresentação, a interface do movieClouds; a camada dos serviços, que faz a ponte com os dados; e a camada de 71

dados. Optou-se por este tipo de arquitectura porque oferece agilidade e flexibilidade na evolução do sistema, facilitando a gestão e actualização dos serviços, sem que a interface se aperceba ou necessite de alterações para se adaptar ao serviço.

Figura 5.9: Arquitectura do movieClouds

A camada de apresentação foi desenvolvida em HTML5, CSS e JavaScript. Foram escolhidas estas tecnologias porque a estrutura do HTML5 tem maior semântica, oferece suporte nativo de vídeos nos browsers, e aliada ao CSS (apresentação) e ao JavaScript (interactividade) torna-se num conjunto poderoso para a construção de qualquer front-end suportado por qualquer sistema. Utilizaram-se as bibliotecas: Google Web Fonts API, para importação dos tipos de fontes utilizadas para diferenciar as perspectivas; JQuery, para gerir as transições entre os espaços, eventos, animações simples, e chamadas de serviços; Isotope, para organizar os elementos HTML5 no browser; e Raphael, para desenhar o espaço de filmes e as timelines. Aqui encontrou-se o mesmo desafio que no iFelt de construir um player de vídeo, mas em vez de suportar uma timeline, teve que suportar 5. Utilizou-se a mesma metodologia adaptada à linguagem e recursos utilizados neste protótipo. Utilizou-se o novo elemento do HTML5 para reproduzir o vídeo, e a biblioteca Raphael para desenhar e animar as timelines, e fazer a ponte de ligação com a navegação do vídeo. Na tabela 5.3, é possível observar a função responsável por colocar na timeline as ocorrências duma tag seleccionada pelo utilizador nas perspectivas processadas através 72

das legendas. A função drawTag, recebe os parâmetros str e tcolor, a tag seleccionada e cor atribuída, respectivamente. Tabela 5.3: Função drawTag, desenha nas timelines as ocorrências dada uma tag e cor. function drawTag(str, tcolor){ var markers = timelinesCanvas.set(); var dateInSeconds; var posInPercent; var id = 0; for (var i=0 ; i

A camada de serviços retorna os dados, previamente processados da forma descrita anteriormente, quando chamados pela camada de apresentação. A tabela 5.5 ilustra a chamada do serviço para as tags na perspectiva das legendas para o filme seleccionado no Movie View. A criaç o dinâmica dos elementos “div” e a definiç o das suas propriedades conforme as tags, foi o maior desafio encontrado nesta função. Junto com o código estão alguns comentários descrevendo as operações mais relevantes. 74

Tabela 5.5: Tratamento da Tag Cloud das legendas no Movie View // sessionStorage.getItem("videoLink") == filme seleccionado $.getJSON("../php/get_tags.php", {"srtname" : sessionStorage.getItem("videoLink")}, function(data) { // data == tags em pares de $.each(data, function(tag,value){ tags.push(tag + "=" + value); }); // Baralha a ordem das tags $.shuffle(tags); var subtitlesList = []; for(var i = 0;i 4,6) e fácil (3,4 -> 4,5), mas considerada pouco mais útil (4,1 -> 4,7). Efectivamente, estes 2 utilizadores classificaram, neste espaço, a satisfação e a facilidade de uso muito negativamente (1), principalmente por terem pouca experiência com sistemas que vão para além dos acessos mais básicos na Web ou aplicações tipo Office e os conceitos apresentados serem novos para eles, contribuindo altamente para estas médias abaixo de 4. 2. Movie View Para navegar a partir do espaço de filmes para um filme específico, foi pedido aos utilizadores para acederem ao filme “La Vita è Bella”, e visionar a segunda ocorrência do mood “festive” (T5). Só um utilizador teve dificuldades em encontrar a forma de terminar esta tarefa com êxito. Para que os utilizadores ganhassem consciência da 77

possibilidade de comparar as informações através das timelines, pediu-se para: comparar a dominância do mood da última tarefa ("festive") com o mood "happy" (perceptível através do tamanho da tag e o número de círculos na timeline, para cada tag), e em seguida, passar para a próxima ocorrência de "festive” no filme (T6). Todos os utilizadores realizaram a tarefa com sucesso, mas alguns dos utilizadores queixaramse do facto das ocorrências, por vezes, obstruirem outras, pelo que a possibilidade de empilhamento ou zooming poderia ser útil. Para avaliar a possibilidade de apresentar todas as tags na timeline, foi pedido aos utilizadores para vizualizarem todas as emoções sentidas no filme (T7). Dois deles, optaram por seleccionar as tags uma a uma, ignorando o botão "All" ao lado direito da timeline. De qualquer forma, esta funcionalidade foi considerada muito útil (4,8), satisfatória (4,9) e fácil de usar (4,9). 3. Opinião Global Como avaliação global do movieClouds, os utilizadores disseram que, de modo geral, é uma ideia interessante e uma nova abordagem para a visualização de filmes, embora um pouco difícil de digerir, à primeira, todas as informações de uma só vez. A classificação geral média foi de: Utilidade: 4,7; Satisfação: 4,1; e Facilidade de Uso: 3.8. Os critérios Facilidade de Uso e Satisfação foram em geral aumentando conforme os utilizadores se familiarizaram com este paradigma de interacção ao longo das tarefas, e a utilidade foi consistentemente alta desde o início. O mais apreciado no movieClouds foi: a ideia, a vista do filme, a capacidade de indexar e percorrer os filmes com base nas suas propriedades, as timelines e a possibilidade de as comparar, navegação no interior dos filmes, as Tag Clouds, percepção de informação que anteriormente passava despercebida, uma nova abordagem aos filmes. O menos apreciados foi: a dificuldade para aprender a novo conceito à primeira, a densidade do espaço dos filmes, tudo muito preto e branco, embora reconhecendo que faz as cores destacarem-se ao longo do interacção. Globalmente, os resultados obtidos foram encorajadores e trouxeram contributos para ajudar a avançar nesta linha de pesquisa.

5.6 Conclusões Neste capítulo, foi apresentado o procedimento da elaboração do protótipo movieClouds, dividido nas várias etapas: Análise de Requisitos, onde se caracterizou o problema e definiram objectivos; Classificação de Conteúdos, onde se descreveu como é feita a classificação das legendas (retirando o discurso e as emoções expressas) e do áudio (detectando os eventos sonoros e o mood) dos filmes, bem como as emoções sentidas; Desenho, onde se apresenta a interface e os mecanismos de interacção; a Arquitectura, que descreve algumas opções de implementação e desafios encontrados; e 78

por último, Avaliação com Utilizadores, onde se descrevem os objectivos, método, e resultados da avaliação de usabilidade do protótipo. Enquanto se tirou partido dos cenários para validar os requisitos e diferentes especificidades importantes que se vieram a dar resposta no desenho, foi possível concluir-se que, a partir das avaliações com utilizadores, os requisitos não funcionais considerados para este protótipo foram satisfeitos, e o movieClouds foi considerado útil e relativamente fácil de usar, especialmente na vista do filme. Os utilizadores apreciaram o conceito e a possibilidade de apresentar, visualizar e explorar os filmes segundo perspectivas diferentes no espaço dos filmes, através das Tag Clouds, e no filme, através das suas timelines, onde se podem comparar eventos das diferentes perspectivas. Os utilizadores voltaram a sugerir a integração de algumas funcionalidades, neste caso em especial as timelines, nas redes sociais, demonstrando que actualmente é um assunto em voga.

79

80

Capítulo 6 Considerações Finais e Trabalho Futuro Este trabalho focou-se no acesso, exploração e visualização de filmes baseados nas suas propriedades emocionais, expressas nos filmes ou sentidas pelos espectadores. Neste capítulo é apresentada uma análise do trabalho realizado no âmbito desta dissertação, assim como perspectivas para o trabalho futuro.

6.1 Considerações Finais Depois de identificada a motivação, foi estudado o estado de arte nas áreas mais relacionadas com este trabalho e foram propostas diferentes soluções em dois protótipos: o iFelt e o movieClouds, e ainda efectuado um estudo do impacto emocional dos filmes nos espectadores. O iFelt apresenta os filmes classificados de acordo com emoções sentidas ao nível de cenas emocionais na perspectiva de cada utilizador, de todos os utilizadores e pelas espectativas dos realizadores, de forma a facilitar aos utilizadores a obtenção de perspectivas globais e detalhadas sobre a dominância das emoções e a sua ocorrência ao longo do tempo na visualização dos filmes. Fornece ainda alternativas de apresentação do espaço de filmes para facilitar os diferentes tipos de procura. Os mecanismos aplicados focaram-se em emoções sentidas para interagir com filmes e cenas dos filmes. Apresentou-se uma alternativa ao espaço de filmes comum, a Wheel, e a divisão do filme em cenas emocionais. Embora numa primeira fase estes conceitos não fossem totalmente compreendidos, acabaram por ser considerados funcionalidades muito úteis, satisfatórias e fáceis de usar para ganhar maior consciência sobre as cenas emocionais dos filmes e fazer resumos baseados em emoções. O iFelt foca-se na exploração de filmes na internet, mas a mesma aproximação, eventualmente com algumas adaptações, pode ser utilizada para explorar qualquer tipo de vídeo, como por exemplo o caso dos vídeos promocionais que tipicamente pretendem gerar sentimentos nos espectadores. O estudo e o questionário sobre o impacto das emoções nos filmes reforçaram a ideia de que as emoções são um meio viável e interessante de exploração dos filmes. 81

Observou-se ainda que, dada a variedade de nomenclaturas das emoções utilizadas pelos participantes, a lista de 6 emoções de Ekman, como a utilizada no iFelt, pode ser insuficiente para os utilizadores se exprimirem ou encontrarem informação emocional relevante relativamente a filmes. O movieClouds possibilita visualizar num espaço de partículas os filmes com as diferentes perspectivas do conteúdo do filme (legendas, emoções expressas, eventos sonoros, mood do áudio, bem como as emoções sentidas pelos espectadores), onde se podem localizar e comparar os filmes de acordo com as suas propriedades nessas perspectivas. Este protótipo também utiliza emoções sentidas, mas foca-se maioritariamente em emoções expressas nos filmes, veiculadas nas diferentes perspectivas do seu conteúdo - especialmente no áudio e legendas, onde a maioria da semântica é expressa - para aceder, explorar e visualizar filmes. Baseia-se no paradigma das Tag Clouds para uma representação unificada das diferentes perspectivas do conteúdo dos filmes, o que acabou por ser bem aceite pelos utilizadores, e possibilita a apresentação de resumos dos conteúdos com riqueza semântica. Ao nível da visualização, foram adoptadas cores aleatórias mas coerentes para destacar as tags em todas as vistas. Isto ajudou a lidar com a diversidade de tags, mas não facilita particularmente a comparação e percepção da semântica sobre e de acordo com as diferentes perspectivas do conteúdo. Através deste trabalho conseguiu-se obter considerações relevantes sobre a utilização das emoções para o acesso, exploração e visualização dos filmes com base na informação contida nas diferentes perspectivas do seu conteúdo, enfatizando as emoções expressas nos filmes e sentidas pelos espectadores. O trabalho desenvolvido nesta dissertação foi publicado em três artigos longos em conferências internacionais em áreas de referência (Oliveira, E., et. al. 2011; Chambel, T., et. al. 2011; Martins, P., et. al. 2011).

6.2 Trabalho Futuro Os próximos passos serão de melhoramento das funcionalidades existentes e desenvolvimentos de outras novas, tendo em conta as reacções e sugestões dos utilizadores na avaliação, bem como o desenvolvimento de ideias originais não incluídas nestas fases do protótipo. Algumas dessas funcionalidades incluem:  Estender os conceitos de espaços de filmes de modo a apresentar segundo perspectivas e preferências com mais do que um critério.  Possibilidade de pesquisar filmes com determinadas características de diferentes perspectivas, (e.g. permitir que o utilizador desenhe a sua timeline e pesquise filmes

82

com um padrão semelhante, ou que especifique percentagens de determinadas características).  Explorar outras representações do espaço de filmes, disponibilizando métodos de selecção e filtração mais sofisticados.  Incluir suporte histórico para informação emocional. Possibilitando a visualização da evolução dos estados emocionais dos utilizadores ao visualizarem filmes, ou a evolução de certas propriedades ao longo de uma série.  Considerar outros modelos de emoções que melhor reflictam o que é mais relevante para os utilizadores.  Tornar a informação mais disponível na Internet através de um ambiente de partilha e recomendações com base na classificação emocional dos filmes, útil para os utilizadores em geral, mas particularmente para directores de filme e actores.  Fazer recomendações com base no actual estado emocional do utilizador, ou uma emoção escolhida, ou do historial de selecções e visionamentos. A implementação de mecanismos de pesquisa possibilitará tornar os sistemas ainda mais poderosos e flexíveis. Usando, por exemplo, informação de um filme para procurar outros com características semelhantes, reforçando o suporte existente de uma vista de filmes similares no espaço, procurando filmes com propriedades específicas. Desta forma, aumenta-se a capacidade da navegação e procura exploratória. O poder e flexibilidade de fornecer panoramas sintéticos e permitir uma análise mas detalhada nas diferentes perspectivas do conteúdo dos filmes pode ser interessante na elaboração de estudos dos media, para a industria cinematográfica, assim como para o espectador comum. Estas serão as linhas em que me irei guiar na evolução dos protótipos descritos neste trabalho.

83

84

Referências Bibliográficas Arijon, D. “Grammar of the film language. Focal Press”. 1976. Ahlberg, C. & Truvé, S. “Tight coupling: Guiding user actions in a direct manipulation retrieval system.” In People and computers: Proc. Of HCI'95, Huddersfield, Aug. pp.305-321. 1995. Bardzell, S., Bardzell, J., and Pace, T. “Understanding Affective Interaction: Emotion, Engagement, and Internet Videos”. In Proc. of IEEE ACII, Amst., NL, 10-12 Sep (2009). Boehm B, "A Spiral Model of Software Development and Enhancement", ACM SIGSOFT Software Engineering Notes", "ACM", 11(4):14-24, August 1986. Brave S., Nass C. “Emotion in human-computer interaction, The human-computer interaction hand ook: fundamentals, evolving technologies and emerging applications”, Lawrence Erlbaum Associates, Inc., Mahwah, NJ, 2002 Chambel T., Neves S., Sousa C., and Francisco R., "Synesthetic Video: Hearing Colors, Seeing Sounds". In Proceedings of Academic MindTrek'2010: Envisioning Future Media Environments, in cooperation with ACM SIGCHI & SIGMM, Ambient Media track, pp.130-133, Tampere, Finland, Oct 6th-8th, 2010. Chambel, T., Oliveira, E., Martins, P. "Being Happy, Healthy and Whole Watching Movies that Affect our Emotions". In Proceedings of ACII'2011: The 4th International Conference on Affective Computing and Intelligent Interaction, Memphis, TN, USA, Oct 9-12th, Springer-Verlag Berlin, Heidelberg, pp.35-45, 2011. Chen, Y. Exploratory Browsing: Enhancing the Browsing Experience with Media Collections, PhD thesis, Ludwig-Maximilians-Universität München, June, 2010. Christel, M.. “Amplifying Video Information-Seeking Success through Rich, Exploratory Interfaces, Studies in Computational Intelligence”, Volume 142/2008, 2130. 2008. 85

Christel, M. Kanade, T. Mauldin, M. Reddy R., Sirbu, M. Stevens S., and Wactlar, H. ”Informedia Digital Video Li rary”. Commun. ACM 38, 4. April, 1995. Cowie, R., Douglas-Cowie, E., Appolloni, B., Taylor, J., Romano, A., & Fellenz, W. “What a neural net needs to know about emotion words”. In N. Mastorakis (Ed.), Computational Intelligence and Applications (pp. 109-114). World Scientific & Engineering Society Press. 1999. Cytowic, Richard E. “Synesthesia: A Union of the Senses” (2nd edition). Cambridge, Massachusetts: MIT Press. .2002. Damasio, A. Descartes' Error. Harper Perennial (1995). Daniel, G. and Chen, M. “Video Visualization” In Proc. of the 14th IEEE Visualization 2003 (Vis'03). IEEE Visualization. IEEE Computer Society, Washington, DC, 54. 2003. Davis, F.D. “Perceived usefulness, perceived ease of use, and user acceptance of information technology”, MIS Quarterly 13(3), 319-340. 1989. Ekman, P. & Friesen, W. V. “The repertoire of nonverbal behavior: Categories, origins, usage, and coding”. Semiotica, 1, 49–98. 1969. Ekman, P. “Universals and Cultural Differences in Facial Expressions of Emotion.” In J. Cole (Ed.), Nebraska Symposium on Motivation (Vol. 19, pp.207-282). University of Nebraska Press. 1972. Ekman, P. “Are there asic emotions?“, Psychological Review, 99(3): 550-553. 1992. Fontaine, J. R., Scherer, K. R., Roesch, E. B., & Ellsworth, P. C. “The World of Emotions Is Not Two-Dimensional”. Psychological Science, 18(12), 1050-1057. 2007. Frijda, N. H. “The Emotions”. Cambridge, UK: Cambridge University Press. 1986. Gross, J. J. “Handbook of Emotion Regulation”. New York: Guilford Press. 2007. Gross, J., & Levenson, R. Emotion Elicitation Using Films. Cognition & Emotion, (9)1, (1995). Hauptmann, A. G. “Lessons for the Future from a Decade of Informedia Video Analysis Research”. Int. Conf. on Image and Video Retrieval, Singapure, July 20-22. LNCS, vol 3568, pp.1-10, Aug, 2005.

86

Hearst, M., and Rosner, D. “Tag Clouds: Data Analysis Tool or Social Signaller?”. In Proc. of HICSS 41. 2008. Huppert, F. “Positive emotions and cognition: developmental, neuroscience and health perspectives”. In Forgas J.P. (Ed.), Hearts and minds: Affective influences on social cognition and behavior. Psychology Press, New York, (2006). Isen A. M., Daubman K. A., and Nowicki G. P. “Positive affect facilitates creative problem solving”. Journal of personality and social psychology, 52:1122–31 (1987). James, W. What is an Emotion?. Mind, 9(34),188-205 (1884). Kleinginna, P.R., & Kleinginna, A.M. “A categorized list of emotion definitions with suggestions for a consensual definition”. Motivation and Emotion, 5, 345-379. 1981. Langlois T., Cham el T., Oliveira E., Carvalho P., Marques G., and Falc o A. “VIRUS: video information retrieval using su titles”. In Proceedings of the 14th International Academic MindTrek Conference: Envisioning Future Media Environments (MindTrek '10). ACM, New York, NY, USA, 197-200. 2010. Levin, G. and Collaborators Catalogues and Lists, An Informal Catalogue of Slit-Scan Video Artworks and Research, http://www.flong.com/texts/lists/slit_scan/. 2005-2008 Likert, Rensis. "A Technique for the Measurement of Attitudes", Archives of Psychology 140: pp. 1-55. 1932. Lohmann, S., Ziegler, J. and Tetzlaff, L. “Comparison of Tag Cloud Layouts: TaskRelated Performance and Visual Exploration”. Proc. of INTERACT'09 Part I, SpringerVerlag Berlin, Heidelberg. 392–404. 2009. Lund, A. M. “Measuring usability with the USE questionnaire. Usability and User Experience”, 8(2). 8. 2001. Marques, G., Langlois, T., Gouyon, F., Lopes, M., & Sordo, M. “Short-term Feature Space and Music Genre Classification.” Journal of New Music Research, Special Issue: Music and Machine Learning, 40(2), 2011. Marques, G., Domigues, M., Langlois, T,, & Gouyon, F. “Three Current Issues In Music Autotagging”. In Proc. of ISMIR’ 2011, Miami, FL, USA, Oct.24-28, 2011.

87

Martinho, J. and Cham el, T. “ColorsInMotion: interactive visualization and exploration of video spaces”. In Proceedings of the 13th International MindTrek Conference: Everyday Life in the Ubiquitous Era (MindTrek '09). ACM, New York, NY, USA, 190-197. 2009. Martins, P., Langlois, T., Chambel, T., "MovieClouds: Content-Based Overviews and Exploratory Browsing of Movies". In Proceedings of Academic MindTrek'2011: Envisioning Future Media Environments, in cooperation with ACM SIGCHI & SIGMM, pp.133-140, Tampere, Finland, September 28-30, 2011. Mauss, I. B. & Robinson, M. D. “Measures of emotion: A review”. Cognition & Emotion, 23(2), 209-237. 2009. Milgram, S. and Jodelet, D. Psychological Maps of Paris. In Environmental Psychology, W. Proshansky and L. Rivlin (Eds.), 104-124. NY: Holt, Rinehart, & Winston. 1976. Morville, Peter. Rosenfeld, Louis. Third Edition. Chapter 12: Design and Decumentation. In O’reilly, Information Architecture for World Wide Web (p 307-313). December, 2006. Münsterberg, H. The film: A psychological study: The silent photoplay in 1916. Dover Public (1970). Nielsen, J. Usability engineering. San Diego, CA: Academic Press. 1993. Nielsen, J. “Designing Web Usability: The Practice of Simplicity”. Indianapolis: New Riders Publishing. 2000. Oliveira, E., Chambel, T. "Emotional Video Album: getting emotions into the picture", emotion-in-hci'2008, The 4th Workshop on Emotion in Human-Computer Interaction: Designing for People, at HCI'2008, the 22nd BCS HCI Group conference on HCI: Culture, Creativity, Interaction, Liverpool, UK, September 1-5, 2008. Oliveira, E. and Chambel, T. “Emotional access and interaction with videos.” InProceedings of the 13th International MindTrek Conference: Everyday Life in the Ubiquitous Era(MindTrek '09). ACM, New York, NY, USA, 218-219. 2009. Oliveira, E., Martins, P., & Chambel, T. “iFelt: Accessing Movies Through Our Emotions.” In Proceedings of EuroiTV’2011, Lis on, Portugal, Jun 29 - Jul 1, 2011 a.

88

Oliveira, E., Benovoy, M., Ribeiro, N., & Chambel, T. “Towards Emotional Interaction: Using Movies to Automatically Learn Users' Emotional States.” In Proceedings of Interact, Lisbon, Portugal, Sep 5-9, 2011 b. Ordelman, R., de Jong, F., & Larson, M. “Enhanced multimedia content access and exploitation using semantic speech retrieval.” In Proceedings of IEEE Int. Conf. on Semantic Computing ICSC'09, Berkeley, CA, USA. 2009. Ortony, A., Clore, G. L., & Collins, A. “The Cognitive Structure of Emotion”. Cambridge, UK: Cambridge University Press. 1988. Philippot, P. “Inducing and assessing differentiated emotion-feeling states in the laboratory”. Cognition and Emotion, 7, 171-193. 1993. Plutchik, R. “Emotion: A psychoevolutionary synthesis”. Harper & Row New York. 1980. Rainville, P., Bechara, A., Naqvi, N., & Damasio, A. R. “Basic emotions are associated with distinct patterns of cardiorespiratory activity”. International Journal of Psychophysiology, Vol. 61, Issue 1, July. 5-18. 2006. Reenskaug, T. M. H. “Models - Views – Controllers”. Xero PARC technical note. December, 1979) Rivadeneira, A., Gruen, D., Muller, M., and Millen, D. “Getting Our Heads in the Clouds: Toward Evaluation Studies of Tagclouds”. In Proc. of CHI’06. 2006. Rocha T. and Chambel T., “VideoSpace: A 3D Video Experience.” In Artech 2008 Proceedings of the 4th International Conference on Digital Arts. Universidade Católica Portuguesa/Porto – Escola das Artes, 305-310. 2008. Russell J. “A circumflex model of affect”. Journal of Personality and Social Psychology, 39:1161–1178. 1980. Scherer, K. R. “Appraisal considered as a process of multi-level sequential checking”. In K. R. Scherer, A. Schorr, & T. Johnstone (Eds.). Appraisal processes in emotion: Theory, Methods, Research (pp. 92–120). New York and Oxford: Oxford University Press. 2001. Scherer KR. “What are emotions? and how can they be measured?” Social Science Information, 44(4):695. 2005.

89

Shneiderman, "Designing the User Interface". Addison-Wesley Longman Inc., Reading Massachusetts. (638 pp). 1998. Venkatesh V., Morris M. G., Davis, G.B. & Davis F. D. “User acceptance of information technology: toward a unified view”, MIS quarterly, 27(3), 425-478. 2003. Wattenburg, M., and Viegas, F. “Tag Clouds and the Case for Vernacular Visualization”. ACM Interactions, XV.4. 2008. Westermann, R., Spies, K., Stahl, G., Hesse, F.W. Relative effectiveness and validity of mood induction procedures: a meta-analysis. Eur. Journal of Social Psychology, Vol. 26, No. 4., pp. 557-580. 1996. Yoo H. and Cho S. “Video scene retrieval with interactive genetic algorithm”, Multimedia Tools and Applications, 34, September, 317-336. 2007.

90

Referências Internet (url-ASP) The Official Microsoft ASP.NET Site http://www.asp.net/ (url-APTR) Associated Press Timeline Reader. http://html5.labs.ap.org (url-BHT) British History Timeline. http://www.bbc.co.uk/history/interactive/timelines/british/index_embed.shtml (url-CAL500) CAL500 music autotagging dataset. http://mkl.ucsd.edu/dataset/cal500 (url-CSS) Cascading Style Sheets home page http://www.w3.org/Style/CSS/ (url-C#) C# Language Specification, 4th Edition. http://www.ecma-international.org/publications/files/ECMA-ST/Ecma-334.pdf (url-Emo) Emotionally}Vague. http://www.emotionallyvague.com (url-FBuilder) Adobe Flash Builder 4. http://www.adobe.com/products/flash.html (url-Flash) Adobe Flash CS5. http://www.adobe.com/products/flash.html (url-HTML) HTML w3c page http://www.w3.org/html/ (url-IMDb) Internet Movies Database. http://www.imdb.com (url-Java) What is Java http://www.java.com/en/download/whatis_java.jsp (url-JavaScript) Javascript W3School learning page http://www.w3schools.com/js/default.asp (url-Map) Mappiness. http://www.mappiness.org.uk (url-Max/MSP/Jitter) Cycling74 – Max 5 http://www.cycling74.com/products/max5 (url-Musicovery) Musicovery. http://musicovery.com (url-openFrameworks) openFrameworks. http://www.openframeworks.cc/ (url-OSMF) Open Source Media Framework. http://www.osmf.org/ (url-PHP) Official page http://www.php.net/ 91

(url-Processing) Processing. http://processing.org/ (url-Rock) Rockola fm. http://www.rockola.fm (url-Synesketch) Synesketch. http://www.synesketch.krcadinac.com (url-TextMate) TextMate http://macromates.com/ (url-TweenLite) TweenLite. http://www.greensock.com/tweenlite/ (url-VideoSphere) Videosphere. http://www.bestiario.org/research/videosphere/ (url-w3) World Wide Web Consortium. http://www.w3.com (url-WeFeelFine) We Feel Fine. http://www.wefeelfine.org (url-Wordle) Wordle. http://www.wordle.net (url-Youtube) Youtube. http://www.youtube.com (url-Vimeo) Vimeo. http://www.vimeo.com

92

ANEXO A Guião de Entrevista da Avaliação do iFelt Parte 1 - Explicação sobre o sistema e o que se vai avaliar O sistema iFelt é na sua essência um arquivo de filmes que incorpora um player e gere a informação emocional dos utilizadores, associada aos filmes. A aplicação armazena filmes e classifica-os por emoções (alegria, medo, tristeza, raiva e nojo), permitindo pesquisar, navegar e visualizar de acordo com estas perspectivas. Evidenciar que as pessoas devem ser o mais sinceras possível pois só assim será útil o teste, omitir que o sistema é criado por nós. (Para o avaliado não ser influenciado na avaliação) Pretendemos com esta experiência avaliar a usabilidade do sistema.

Com esta experiência, pretende-se avaliar a utilidade, satisfação, facilidade de uso: acesso:pesquisa/navegação e percepção/visualização do sistema iFelt.

93

94

Parte 2 - Dados do Entrevistador e do Entrevistado Número da Entrevista:_____________________________________ Entrevistador:____________________________________________ Como é feito o registo:_____________________________________ Sobre o entrevistado: Dados pessoais: 1. Idade:________ 2. Sexo: F ☐ M ☐ 3. Profissão: _____________________________________________________ Costumes Cinematográficos na Internet: 4. Já viu filmes online? Sim ☐ Não ☐ 5. Com que frequência vê filmes online?_______________________________________________________ 6. Que tipo de serviços online costuma utilizar Imdb ☐ mubi ☐ Vimeo ☐ Google ☐ outros?___________________________________ Costumes Cinematográficos sem ser na Internet: 7. Gosta de cinema? Sim ☐ Não ☐ 8. Com que frequência vai ao cinema?___________________________________ 9. Que tipo de filmes gosta: Cómicos ☐ Acção ☐ Drama ☐ Romance ☐ Terror ☐ Fantasia ☐ Animação ☐ Ficção científica ☐ Musicais ☐ 10. Prefere os filmes típicos de Hollywood, ou filmes alternativos (europeus, chineses, japoneses, africanos, medio-oriente)? 11. Onde preferencialmente vê filmes?________________________________ 12. Há algum tipo de filme que não goste de ver?________________________ 13. Conhece algum realizador? Tem algum preferido? ____________________ 14. Conhece algum actor? Tem algum preferido? ________________________ Informação sobre emoções: 15. Já chorou em filmes? Sim ☐ Não ☐ 16. Costuma emocionar-se? Sim ☐ Não ☐ 17. Qual o filme que mais o marcou?_____________________________________________________________ 18. Como descreve esse filme, em 3 palavras? _____________ _______________ ______________

95

96

Parte 3 - Execução das Tarefas T1 - Identifique no espaço de vídeos os 5 filmes mais alegres. A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Qual a variante que prefere? A4 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A5 Comentários e Sugestões:

T2 - Qual a perspectiva dos realizadores sobre estes mesmo filmes? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

97

T3 - Aceda ao filme 28 dias? Qual a emoção dominante? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

T4 - Qual a sequência de emoções deste filme? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

98

T5 - Percentagem das ou da emoção menos dominante? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

T6 - A sua classificação emocional deste filme é análoga à classificação de todos os utilizadores? E em relação à esperada (p/ realizador)? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

99

T7 -Encontre o filme com maior percentagem de cenas tristes. A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

T8 - Qual a emoção menos presente nestas cenas? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

100

T9 -Quais as outras emoções nesse filme? Em que percentagem? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

T10 - Aceda às cenas tristes deste filme A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

101

T11 - Qual a emoção mais e menos sentida nos filmes que já viu? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

T12 - Quantos filmes classificou? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

102

T14 - Quais as emoções dominantes dos 3 últimos filmes vistos A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A4 Comentários e Sugestões:

103

104

Parte 4 - Avaliação Global O que mais gostou:

O que menos gostou:

Responda às perguntas de acordo coma seguinte escala Desacordo Fortemente 1---2---3---4---5 Concordo Fortemente É útil: É fácil de usar: É simples de usar: E amigável a interface: E fácil aprender a usar: É rápido aprender: Estou satisfeito: Recomendaria a amigos: É engraçado | divertido | cool (fun): Comentários e Sugestões:

105

106

ANEXO B Guião do Questionário do Estudo sobre o Impacto Emocional dos Filmes Questões Q1 Q2 Q3 Q4

Q5 Q6 Q7 Q8

Há pessoas que dizem que ver um filme lhes anima a alma ou por outro lado entristece. Concorda? Recorro a filmes para me dispor num determinado estado emocional? Sinto necessidade de ver filmes? Que género de filme o faz sentir: enérgico deprimido inspirado motivado alegre triste enojado assustado Recorro a filmes para me dispor num determinado estado emocional? Qual a sensação que mais procura através de filmes Um filme que tenha sido relevante para si. Que tipo de sensação sentiu?

107

108

ANEXO C Guião da Entrevista de Avaliação do movieClouds T1 - Identifique as 3 emoções expressas nas legendas mais frequentes em todos os filmes. A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Qual a variante que prefere? (Juntas ou Separadas) - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A5 Comentários e Sugestões:

109

T2 - Identifique a palavra mais dominante encontrada no conjunto das legendas dos filmes, qual o filme em que mais domina? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Qual a variante que prefere? (Juntas ou Separadas) - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A5 Comentários e Sugestões:

T3 - A palavra mais dominante do filme Back to the Future é análoga à palavra mais dominante do conjunto de filmes? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Qual a variante que prefere? (Juntas ou Separadas) - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil Estou satisfeito É fácil de usar É fácil de perceber A5 Comentários e Sugestões:

110

T4 - Identifique qual o segundo evento sonoro mais frequente no filme La Vita è Bella. A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Qual a variante que prefere? (Juntas ou Separadas) - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil É fácil de usar Estou satisfeito É fácil de perceber A5 Comentários e Sugestões:

T5 - Aceda ao filme La Vita è Bella, e visualize a segunda ocorrência do do mood FESTIVE? A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil É fácil de usar Estou satisfeito É fácil de perceber A4 Comentários e Sugestões:

111

T6 - Compare com o mood HAPPY, e visualize o mood FESTIVE seguinte. A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil É fácil de usar Estou satisfeito É fácil de perceber A4 Comentários e Sugestões:

T7 - Visualize todas as emoções sentidas no filme. A1 Concluiu? (sim/não) A2 Tempo (pouco / normal / muito) A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil É fácil de usar Estou satisfeito É fácil de perceber A4 Comentários e Sugestões:

112

T8 Avaliação final A1 O que mais gostou? A2 O que menos gostou? A3 Responda de acordo com a seguinte escala: - Discordo Fortemente 1-2-3-4-5 Concordo Fortemente É útil É fácil de usar Estou satisfeito É fácil de perceber A4 Comentários e Sugestões:

113