Lien copié

Desired Identities : New technology-based metamorphosis in Japan

Share On Facebook
Share On Twitter
Share On Linkedin

Le mot Kyara-ka recouvre les pratiques qui, au Japon,  permettent et visent à se transformer en personnage fictif. Le colloque “Desired Identities, New Technology-based Metamorphosis in Japan”, qui porte sur ces pratiques est aujourd’hui en ligne : https://www.youtube.com/playlist?list=PLq_kZgugXgOGpkUqIpWOd6mRqlxvzEF-T. Organisé dans le cadre du projet EMTECH, “Emotional Machines: The Technological Transformation of Intimacy in Japan” et le Musée du Quai Branly Jacques Chirac, le colloque présente et analyse les stratégies et les pratiques liées à la présentation de soi, notamment via de nouvelles tehnologies (avatar, vocaloid, e-cosplay…).

Kyara-ka signifie « se transformer en personnage » (Aihara Hiroyuki, 2007) – qui donne maintenant naissance à ce que Nozawa Shunsuke (2013) nomme « un art émergent de l’auto-modélisation ». Basé sur des techniques de déguisement élaborées, le phénomène kyara-ka recouvre une grande variété de stratégies et de pratiques liées à la présentation de soi. La plus connue est bien sûr le cosplay, qui permet à des hommes et de femmes d’occulter leur identité et de se comporter comme des personnages de fiction. Le kigurumi – version radicale du cosplay – requiert la fabrication artisanale d’une seconde peau, d’une tête semblable à un casque et, plus récemment, d’un vocoder. Il s’avère que le kyara-ka a également contribué à l’apparition d’un mouvement : celui des personnes qui enregistrent leur voix en utilisant des logiciels de synthèse dans le but de devenir ce qu’ils appellent des utaloid (chanteurs artificiels). Le phénomène se trouve aussi à l’origine de tendances très fortes : des filtres graphiques et vocaux sont massivement utilisés pour mettre en ligne des séquences virales TikTok dans lesquelles des humains apparaissent sous la forme de personnages animés. Des applications vidéo sont développées en masse pour filmer un humain et le commuter en avatar. Les VirtualTubers – qui sont de vraies personnes dissimulées sous les traits de héros ou d’héroïnes de manga – sont suivis par des millions d’abonnés sur YouTube. La plus célèbre prétend n’être qu’une intelligence artificielle. Il se peut que certains VTubers ne soient effectivement que l’équivalent d’Idoles Virtuelles (c’est-à-dire des produits conçus par des agences) mais leur popularité est telle que plusieurs d’entre eux sont devenus les personnages d’un jeu de simulation amoureuse. Étant donné que personne ne connaît leur visage, ils pourraient tout aussi bien n’être que des fictions » est-il expliqué dans l’appel à projet du groupe de recherche EMTECH, sur les travaux duquel se fonde le colloque  (http://japinc.org/wp-content/uploads/2019/11/Call-for-Papers-EMTECH-bilingue4.pdf).

D’une durée de cinq ans, les travaux du groupe de recherche européen EMTECH sont menés par l’European Research Council and accueillis par la Freie Universität Berlin, avec des partenaires au Japon ( https://www.geschkult.fu-berlin.de/en/e/emtech/index.html) : “ an international and interdisciplinary research project that examines the relationship between aesthetic works on human-machine interaction in Japan and advances in artificial emotional intelligence. Through the analysis of new storytelling techniques, virtual spaces, and ethnographic observations of human-robot interaction in homes and public spaces, EMTECH’s purpose is to collect qualitative data on our expanding capacities to relate emotionally to and using technology. The project’s ultimate aim is to find out how humans create affective bonds to (emotionally-intelligent) machines and what implications this has on social issues in the private and public spheres in everyday life in Japan ».

Trois directions de recherche principales se dégagent pour EMTECH : 

Organisateurs : Elena Giannoulis, Agnès Giard and Berthold Frommann. Contact : agnes.giard@fu-berlin.de

 

 

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*