IA pour le développement de jeux Création d’un jeu de ferme en 5 jours. Partie 1

IA pour le développement de jeux création jeu de ferme en 5 jours - Partie 1.

Bienvenue dans l’IA pour le développement de jeux ! Dans cette série, nous utiliserons des outils d’IA pour créer un jeu de ferme entièrement fonctionnel en seulement 5 jours. À la fin de cette série, vous aurez appris comment incorporer une variété d’outils d’IA dans votre flux de travail de développement de jeux. Je vais vous montrer comment utiliser des outils d’IA pour :

  1. Style artistique
  2. Conception de jeu
  3. Actifs 3D
  4. Actifs 2D
  5. Histoire

Vous voulez la version vidéo rapide ? Vous pouvez la regarder ici. Sinon, si vous voulez les détails techniques, continuez à lire !

Note : Ce tutoriel s’adresse aux lecteurs qui sont familiers avec le développement Unity et C#. Si vous êtes nouveau dans ces technologies, consultez la série Unity pour les débutants avant de continuer.

Jour 1 : Style artistique

La première étape de notre processus de développement de jeu consiste à décider du style artistique. Pour décider du style artistique de notre jeu de ferme, nous utiliserons un outil appelé Stable Diffusion. Stable Diffusion est un modèle open-source qui génère des images basées sur des descriptions textuelles. Nous utiliserons cet outil pour créer un style visuel pour notre jeu.

Configuration de Stable Diffusion

Il existe quelques options pour exécuter Stable Diffusion : localement ou en ligne. Si vous êtes sur un ordinateur de bureau avec une bonne carte graphique et que vous souhaitez disposer de l’ensemble des fonctionnalités, je vous recommande de l’exécuter localement. Sinon, vous pouvez utiliser une solution en ligne.

Localement

Nous allons exécuter Stable Diffusion localement en utilisant l’interface utilisateur web Automatic1111. C’est une solution populaire pour exécuter Stable Diffusion localement, mais cela nécessite quelques connaissances techniques pour la configuration. Si vous êtes sur Windows et disposez d’une carte graphique Nvidia avec au moins 8 gigaoctets de mémoire, suivez les instructions ci-dessous. Sinon, vous pouvez trouver des instructions pour d’autres plateformes dans le fichier README du dépôt GitHub, ou vous pouvez opter pour une solution en ligne.

Installation sur Windows :

Exigences : Une carte graphique Nvidia avec au moins 8 gigaoctets de mémoire.

  1. Installez Python 3.10.6. N’oubliez pas de cocher “Ajouter Python au PATH” lors de l’installation.
  2. Installez git.
  3. Clonez le dépôt en tapant la commande suivante dans l’invite de commande :
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
  1. Téléchargez les poids Stable Diffusion 1.5. Placez-les dans le répertoire models du dépôt cloné.
  2. Exécutez l’interface utilisateur web en exécutant webui-user.bat dans le dépôt cloné.
  3. Accédez à localhost://7860 pour utiliser l’interface utilisateur web. Si tout fonctionne correctement, cela devrait ressembler à ceci :

En ligne

Si vous ne répondez pas aux exigences pour exécuter Stable Diffusion localement, ou si vous préférez une solution plus simplifiée, il existe de nombreuses façons d’exécuter Stable Diffusion en ligne.

Les solutions gratuites comprennent de nombreux espaces ici sur 🤗 Hugging Face, tels que la démo Stable Diffusion 2.1 ou le webui camemduru. Vous pouvez trouver une liste de services en ligne supplémentaires ici. Vous pouvez même utiliser les Diffusers de 🤗 pour créer votre propre solution gratuite ! Vous pouvez trouver un exemple de code simple pour commencer ici.

Remarque : Certaines parties de cette série utiliseront des fonctionnalités avancées telles que image2image, qui peuvent ne pas être disponibles sur tous les services en ligne.

Génération d’art conceptuel

Générons un peu d’art conceptuel. Les étapes sont simples :

  1. Tapez ce que vous voulez.
  2. Cliquez sur générer.

Mais comment obtenir les résultats que vous souhaitez réellement ? La formulation peut être un art en soi, donc ce n’est pas grave si les premières images que vous générez ne sont pas géniales. Il existe de nombreuses ressources incroyables pour améliorer votre formulation. J’ai réalisé une vidéo de 20 secondes sur le sujet. Vous pouvez également trouver ce guide écrit plus détaillé.

Le point commun de ces éléments est d’utiliser une source telle que lexica.art pour voir ce que d’autres ont généré avec Stable Diffusion. Recherchez des images similaires au style que vous souhaitez et inspirez-vous-en. Il n’y a pas de bonne ou de mauvaise réponse ici, mais voici quelques conseils pour générer des concepts artistiques avec Stable Diffusion 1.5 :

  • Contrainte la forme de la sortie avec des mots tels que isométrique, simple, formes solides. Cela produit des styles plus faciles à reproduire dans le jeu.
  • Certains mots-clés, tels que low poly, bien qu’ils soient pertinents, ont tendance à produire des résultats de moindre qualité. Essayez de trouver des mots-clés alternatifs qui ne dégradent pas les résultats.
  • L’utilisation de noms d’artistes spécifiques est un moyen puissant de guider le modèle vers des styles spécifiques avec des résultats de meilleure qualité.

J’ai opté pour la proposition suivante : rendu isométrique d’une ferme près d’une rivière, formes simples et solides, James Gilleard, Atey Ghailan. Voici le résultat :

Mise en place dans Unity

Maintenant, comment transformons-nous ce concept artistique en jeu ? Nous utiliserons Unity, un moteur de jeu populaire, pour donner vie à notre jeu.

  1. Créez un projet Unity en utilisant Unity 2021.9.3f1 avec le Pipeline de Rendu Universel.
  2. Construisez la scène en utilisant des formes de base. Par exemple, pour ajouter un cube, faites un clic droit -> 3D Object -> Cube.

  1. Configurez vos matériaux en vous basant sur le concept artistique. J’utilise les matériaux de base intégrés.

  1. Configurez votre éclairage. J’utilise un soleil chaud (#FFE08C, intensité 1.25) avec un éclairage ambiant doux (#B3AF91).

  1. Configurez votre caméra en utilisant une projection orthographique pour correspondre à la projection du concept artistique.

  1. Ajoutez de l’eau. J’utilise le shader d’eau stylisée provenant de l’Asset Store Unity.

  1. Enfin, configurez le post-traitement. J’utilise le tonemapping ACES et une exposition de +0.2.

C’est tout ! Une scène simple mais attrayante, réalisée en moins d’une journée ! Vous avez des questions ? Vous souhaitez vous impliquer davantage ? Rejoignez le Discord de Hugging Face !

Cliquez ici pour lire la partie 2, où nous utilisons l’IA pour la conception de jeux.

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more