Le festival Scopitone est un jeune festival de musique et d’arts numériques sur Nantes (2002, 2004, 2005 et 2006) qui grandit à une vitesse assez impressionnante. Pour vous donner une idée, voilà un morceau de la prog’ de cet été pour le lieu de nuit (orienté musique, donc) :
Coldcut, Laurent Garnier, Bugge Wesseltof, Emilie Simon, Erik Truffaz, Le Peuple de l’Herbe, Kid Loco, Amon Tobin, Asian Dub Foudation, Troublemakers, Zenzile, …
Nous ("CQFD") avons eu l’occasion de participer par trois fois à ce festival, sur le lieu de jour (orienté arts numériques), pour exposer Raydium (le moteur 3D dont il est question dans ce blog, pour ceux qui suivent pas). Nous disposions alors d’un stand dans l’espace "associations" pendant les deux jours du festival, et ces différentes rencontres avec un public plus que varié ont toujours été particulièrement intéressantes. Quelques articles sur ce blog parlaient déjà de ce sujet :
– Moteur 3D / Moteur de jeu : Comment présenter les concepts au quidam moyen ? (Scopitone 2004)
– Raydium : des images et peu de mots (Scopitone 2005)
Eh bien nous avons l’opportunité de participer à nouveau au festival de l’année prochaine (septembre / octobre 2007 ?), et d’une manière complétement différente, cette fois !
Au choix :
– Projection vidéo en temps réel derrière les artistes musicaux du lieu de nuit sur d’immenses écrans sur et autour de la scène (!)
– Création d’une animation complète , dans une pièce complétement dédiée à notre … "oeuvre".
lieu de nuit …
… ou lieu de jour ?
Même si la première option est très (très) tentante, nous avons décidé (lors d’une réunion hier) d’opter pour la seconde, en particulier car nous sommes très peu confiants entre notre capacité à faire des trucs graphiquements sympathiques (et projeter un truc tout laid devant une foule de 4000 personnes, bof). La décision n’est ceci dit pas définitive (quel groupe de musique ? quel style graphique ? abstrait ? réaliste ? quel genre d’intéractions temps réel ? …), nous allons parler de ça avec eux bientot.
Le thème qui ressort après réflexion : l’interaction entre le public et un monde autonome.
Techniquement, nous allons projeter sur une "table" une simulation de vie, utilisant une colonie de fourmis et un petit écosystème (nourriture, végétation, phéromones). L’interaction consiste à venir perturber la colonie, en déplacant des objets de la scène (roches), nourriture, en effacant les traces des fourmis, voire même en tuant les fourmis. Nous pensions permettre aux gens d’interagir directement sur la table, à la main, mais nous n’avons pas trouvé de solution technique efficace à ce problème (en connaissez-vous ?).
Je m’oriente donc vers une solution à base de pointeur laser :
… avec un système de tracking utilisant une webcam. Le système reste très naturel pour le public (on vise directement la table), permet de tracker plusieurs "cibles" en même temps, ne coute quasi rien, et demande un calibrage relativement simple (sensibilité et "mapping" des coordonnées de la webcam vers celles de la table).
Tout est à faire ! Je vais tenter de mettre à jour ce blog tout au long de l’évolution du projet. En espérant qu’on arrive au bout, et que ça ressemble effectivement au projet présenté ici 🙂
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.