Hep !
Question coté son car j’ai eu à faire à une bizarrerie… Et je n’ai aucun doute quant au format de mes fichiers sons, je gère très bien ce domaine.
En gros déjà on dirait qu’un son pour être joué doit être “créé” ou être disposé sur la scène avant toute chose ? vrai ?
Ensuite on dirait que la position où on place le son sur la scène joue ? j’entends par là que j’ai placé 2 sons mono sur la gauche (genre à -1000px en X), et du coup… Ca ne joue ces sons sur des collisions que sur le canal gauche…
De plus, j’ai 2 fois le même son mais légèrement différent, dans ma source de synthé créée, même courbe, même dynamique et niveau de Db… les 2 sont réglés à volume 100 et atténuation 30 (dans les param d’objets) => mais il n’y en a qu’un seul qui prend vraiment l’atténuation (je précise qu’il s’agit de 2 objets différents se référant à 2 fichiers sons différents).
Je suis perdu sur l’atténuation, concrètement que ça fait ?? Ca agit comme un compresseur audio ?? Ou c’est un duplicata du volume auquel cas totalement inutile ?
Pourquoi dois-je tjrs mettre la distance minimale à 100 ? (sans quoi le son ne joue jamais !)
Etant donné que ma scène est un plan fixe je n’utilise pas de caméra… Dois-je pour autant utiliser un “écouteur” pour la spatialisation, ou la spatialisation s’opère en fonction de la position de l’objet son sur la scène ??
Je me répète un peu dans les questions formulés ou je pourrais par moi meme faire des tests pour répondre à certaine, mais là j’ai des trucs tellement aléatoires que ça frise l’ésotérique !