Skip to content

Latest commit

 

History

History

api

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

PASS-CULTURE-API

Voici le backend de l'application pass Culture; il est lancé via docker compose en utilisant le fichier docker-compose-backend.yml du répertoire parent de api: pass-culture-main.

Plus de détails sur le lancement de l'infra docker compose sont accessibles dans le README de pass-culture-main

OpenAPI

Une documentation Swagger des APIs est générée selon l'OpenAPI Specification (OAS3) grâce à un schéma généré par Spectree :

Liens des mocks API

Démarrage du serveur back api

1. Installation des dépendances

Poetry

Avec Python 3.11 :

curl -sSL https://install.python-poetry.org | python3 -
poetry env use python3.11
poetry install --with dev

L'activation de l'environnement virtuel se fait par la commande

poetry shell

Pour un usage avancé, se référer à la documentation de poetry

NOTE : L'ajout de dépendance doit se faire par Poetry pour mettre à jour le fichier lock.

Squawk

Le lint des migrations, effectué lors du hook de precommit, nécessite Squawk — a linter for Postgres migrations.

npm install --global squawk-cli

Weasyprint (facultatif)

La génération de PDF via weasyprint nécessite également de suivre ces étapes d'installation.

2. Lancement de l'api

Un fois installé les dépendances, on peut utiliser les commandes suivantes (qui utilisent docker compose)

# Start api and backoffice
pc start-backend
# Restart after cleaning databases; it will also remove data from your sandbox
pc restart-backend

Database de jeu

Afin de naviguer/tester différentes situations de données, il existe dans api des scripts permettant d'engendrer des bases de données "sandbox".

La plus conséquente est industrial, elle se créée avec cette commande:

pc sandbox -n industrial

Troubleshooting:

Si la commande sandbox renvoie des erreurs que je n'arrive pas à résoudre, tester de supprimer et reconstruire sa BDD locale. Pour ça:

  • stopper les images lancées
  • run: docker rm -f pc-postgres <= suppression container
  • run: docker volume rm pass-culture-main_postgres_data <= suppression données
  • relancer: pc start-backend
  • puis relancer: pc sandbox -n industrial

Tests

Une fois le le backend lancé, les tests peuvent être exécutés avec ou sans docker compose

1. Lancement des tests avec docker compose

pc test-backend # Pour lancer tous les tests backend
pc test-backoffice # pour lancer tous les tests du backoffice
pc test-backend tests/core/offers/test_api.py::CreateOfferTest::test_create_offer_from_scratch # Pour lancer un test en particulier

2. Lancement des tests depuis la ligne de commande dans l'environnement poetry

pytest -m 'not backoffice' # lance tous les tests hors backoffice
pytest -m 'backoffice' # lance tous les tests du backoffice
pytest tests/core/offers/test_api.py::CreateOfferTest::test_create_offer_from_scratch # Pour lancer un test en particulier
pytest -m backoffice /tests/routes/backoffice/pivots_test.py::GetPivotsPageTest::test_get_pivots_page # Pour lancer un test du backoffice

Il également possible d'accéder à stdin/stdout via le paramètre -s, par exemple pour utiliser des breakpoints.


Troubleshoot :

Si les tests ne se lancent pas avec Docker, il faut recréer la base de données de tests et relancer le cache redis

  • Soit en démarrant les conteneurs de la base de données pc-postgres-test (spécifique aux tests) et du cache redis via docker compose
    docker compose -f ../docker-compose-backend.yml up -d postgres-test redis
  • Soit en démarrant ces conteneurs via docker
docker run -d --name postgres -p 5434:5432 \
--env-file ../env_file \
-v postgres_local_data:/var/lib/postgresql/data \
postgis/postgis:15-3.4-alpine

docker run -d --name redis -p 6379:6379 \
    -v redis_local_data:/data \
    redis redis-server

3. Ecriture des tests

Les tests utilisent leur propre base de données. Si un test a besoin d'accéder à la base de données, il faut décorer la fonction ou la classe avec :

@pytest.mark.usefixtures("db_session")

pour encapsuler le test dans une transaction. On peut aussi marquer le module entier en ajoutant sous les imports :

pytestmark = pytest.mark.usefixtures("db_session")

Les différentes fixtures utilisées dans les tests sont définies dans tests/conftest.py

Secrets et variables d'environnement

Les variables d'environnement nécessaires au bon fonctionnement mais qui porte des données sensibles (identifiants, clés d'API, ...) ne sont pas enregistrés dans les fichiers d'environnement du dépôt. Il faut les ajouter dans le fichier api/.env.local.secret .

Scan du repo par GitGuardian

Une Github Action est lancée à chaque push sur le repo, lançant un scan de fuites de secrets GitGuardian. Pour ignorer un faux positif, il convient d'ajouter un commentaire inline dans le code: # ggignore cf https://github.com/GitGuardian/ggshield#in-code

Authentification Backend pour Flask-Admin

Le backend ne permet pas (encore) de s'authentifier directement. On peut s'authentifier de deux manières:

  • En se connectant sur Pro. Une fois authentifié, un cookie de session est stocké et le back validera le cookie.
  • Sans session depuis le front Pro, une authentification est proposée via Google Account. Seuls les utilisateurs du projet passculture.app sont autorisés.

Connexion aux bases de données

Il est possible de se connecter aux bases de données lancées via docker compose en utilisant les informations ci-dessous

  • pc-postgres

    • user : pass_culture
    • password : passq
    • port : 5434
    • database : pass_culture
  • pc-postgres-test

    • user : pytest
    • password : pytest
    • port : 5433
    • database : pass_culture

Ajout de données avec les factories

  • Lancer python avec docker: pc python
  • Dans l'éditeur de code, identifier la factory pcapi.core. Tous les arguments sont renseignés par défaut et peuvent être surchargés.
  • importer la factory et l'utiliser: les données sont disponibles en localhost

exemple 1 - créer un utilisateur

>>> from pcapi.core.users.factories import UserFactory;
>>> UserFactory(email='[email protected]’);

On peut ensuite se connecter avec ce mail et le mot de passe par défaut en localhost.

exemple 2 - création d'un utilisateur et d'une structure liée

>>> from pcapi.core.users.factories import UserFactory;
>>> user = UserFactory(email='[email protected]’)
>>> from pcapi.core.offerers.factories import OffererFactory
>>> factory = OffererFactory(siren=444444444)
>>> from pcapi.core.offerers.factories import UserOffererFactory
>>> UserOffererFactory(user, offerer)

On peut aussi surcharger directement les arguments des factories appelées par d'autres factories, en préfixant l'argument avec le nom de la factory secondaire suivie d'un double underscore. Les deux lignes suivantes sont équivalentes à celles qui précèdent:

>>> from pcapi.core.offerers.factories import UserOffererFactory
>>> UserOffererFactory(user__email='[email protected]’, offerer__siren=444444444)

en cas d’erreur, rollback avant de recommencer la transaction

>>> from pcapi.models import db
>>> db.session.rollback()

Linter et hooks

Pour une meilleure expérience de développement sur le repo API, des hooks (pre-commit , pre-push ) s'exécutent lorsqu'un commit est effectué sur le projet API,

L'environnement python en local est nécessaire pour que les outils d'analyse de code (isort, batch, pylint...) se lancent.

Si les hooks ne se lancent pas, lancer pc install-hooks (commande incluse dans pc install)

Ecriture d'une tâche automatique (cron)

Les commandes à lancer régulièrement (par example des synchro journalières) sont définies dans les fichiers src/pcapi/*/commands.py Pour que les commandes soient enregistrées par Flask, il faut que le fichier path/to/commands.py soit référencé dans la fonction install_commands de api/src/pcapi/scripts/install.py

Pour que les commandes soient exécutées, il faut ouvrir une PR sur le repo pass-culture/pass-culture-deployment Les infos sont dans le README

Lancement du backend sans utiliser docker compose

Pour repasser sur docker par la suite, la NOTE en fin de ce paragraphe est importante

Dépendances

Afin de passer uniquement par les commandes flask, les dépendances suivantes doivent également être installées:

  • Postgresql

    Il est préférable de cibler la version utilisée en production. Celle-ci se retrouve dans le fichier docker-compose-backend. À date de rédaction c'est la version postgresql 15 qui est utilisé.

    Les informations générales sur les étapes d'installation en fonction des OS sont disponibles sur le lien https://www.postgresql.org/download/

    Nous recommandons d'intaller postgres.app depuis ce lien Postgres.app

    note n'oubliez pas d'initialiser votre base de données, par exemple en faisant:

    $ psql -U postgres
    > CREATE ROLE <myuser> LOGIN password 'secret';
    > CREATE DATABASE <myuser> ENCODING 'UTF8' OWNER <myuser>;
  • Postgis

    Verifier que PostGIS est bien installé. Pour cela, connectez vous à votre base de données créé ci dessus et faites:

    ```sql
    CREATE EXTENSION IF NOT EXISTS postgis;
    ```
    

    Si cette commande échoue, il faut installer PostGIS dans les systèmes d'exploitation qui ne le fournissent pas avec PostgreSQL:

    • Ubuntu:
      • Configurer le repo apt de postgresql
      • installer postgis-15
      sudo apt install postgresql-15-postgis-3
    
    • Windows: après l'installation de PostgreSQL, Stackbuilder permet d'installer PostGIS
    • MacOS: PostGIS est fourni avec la distribution Postgres.app. Il n'y a malheureusement pas de paquet officiel de postgis@15 via brew, cependant il existe une recette personnalisée : brew install ozeias/postgresql/postgis@15. En cas d'erreur supplémentaire, voir https://github.com/orgs/Homebrew/discussions/3987
  • Redis

    Le lien officiel pour l'installation: https://redis.io/docs/latest/operate/oss_and_stack/install/install-redis/

Initialisations

Pour initialiser l'application, vous devez suivre les étapes suivantes :

  • Soit en lançant la commande suivante qui va créer les bases de données pour l'api et pour les tests, installer les extensions postgres et jouer les migrations.

    pc setup-no-docker
  • Soit en réalisant les étapes suivantes une par une:

    • Créer les users suivants depuis psql:
    CREATE ROLE pass_culture SUPERUSER LOGIN PASSWORD 'passq';
    CREATE ROLE pytest SUPERUSER LOGIN PASSWORD 'pytest';
    • Créer les databases associés à ces rôles

    (cf. les commandes recreate_database recreate_database_test dans le fichier start_backend_no_docker)

    • Ajouter les variables suivantes au fichier .env.local.secret

    Il se trouve la racine du dossier api/ (note: modifier <port> avec le port de votre serveur postgresql, habituellement 5432):

    DATABASE_URL=postgresql://pass_culture:passq@localhost:<port>/pass_culture
    DATABASE_URL_TEST=postgresql://pytest:pytest@localhost:<port>/pass_culture_test
    FLASK_BACKOFFICE_PORT=5002
    • Installer les extensions et jouer les migrations en ayant dans le poetry shell :
    flask install_postgres_extensions
    alembic upgrade pre@head
    alembic upgrade post@head

Lancement de l'application

  • Soit via python
python src/pcapi/app.py # pour l'API
python src/pcapi/backofficeapp.py # pour le Backoffice 
  • Soit via les commandes pc

Cette façon de faire s'assure de l'existence des composants logiciels (redis, extensions, postgres)) et d'être dans le bon environnement)

# Lancer l'API
pc start-api-no-docker
# Lancer le Backoffice
pc start-backoffice-no-docker
# Nettoyer les DB, reconstruire la sandbox et jouer les migrations
pc restart-api-no-docker
# Supprimer et recréer les DB (test et data)
pc reset-db-no-docker
# Supprimer et recréer la DB de test
pc reset-db-test-no-docker

Pour lancer les tests, utiliser directement pytest, cf lancement des tests depuis la ligne de commandes

Pour recréer la sandbox, utiliser la commande:

flask sandbox -n industrial

NOTE Si vous souhaitez (ré)utiliser docker par la suite, n'oubliez pas de commenter DATABASE_URL, DATABASE_URL_TESTet FLASK_BACKOFFICE_PORT dans .env.local.secret, et d'arrêter le service redis-server

IDE

PyCharm(IntelliJ)

Lancement des tests

Configurer le working directory par défaut pour être toujours à la racine de ce projet pycharm-test-config

Debugging

Pour debugger sous IntelliJ Pycharm, configurer la configuration de lancement python en précisant :

  • Le script à lancer : scr/pcapi/app.py

  • Les variables d'environnement DATABASE_URL et PORT (Sinon le port sera 5001)

  • Le répertoire de lancement (Working directory) qui doit pointer vers api

    pycharm-test-config

VS Code

Le fichier de configuration vscode permet notamment de lancer black et isort lorsqu'un fichier est sauvegardé.

Vérifier que l'interpréteur python utilisé par VSCode est le bon. Taper cmd+shift+P puis Python: select interpreter et choisir le python précédemment installé en local (virtual env ou pyenv).

Contributing

Des fichiers CONTRIBUTING.md à la racine de différents modules Python du projet apporteront des détails et conseils spécifiques.

Troubleshooting

Installation de psycopg2

Installer openssl avec brew install openssl.

Ajouter openssl au path LIBRARY_PATH (path for intel chip brew) export LIBRARY_PATH=$LIBRARY_PATH:/usr/local/opt/openssl/lib/.

Sur mac, vous pouvez aussi avoir besoin de lancer brew install postgresql.

Autre piste.

Tests qui échouent

Problème de cache

Après avoir lancé les tests avec Docker (pc test-backend), les tests peuvent échouer en les lançant avec Python (python -m pytest)

Il faut supprimer les fichiers de cache de pré-compilation de Python, par exemple avec la commande suivante

find . -type f -name "*.py[co]" -delete -or -type d -name "__pycache__" -delete

Problème de DeprecationWarning

En lançant les tests avec python -m pytest, si les tests échouent avec ce message E DeprecationWarning: 'cgi' is deprecated and slated for removal in Python 3.13 , il faut les relancer en ajoutant le flag suivant à la commande : -W ignore::DeprecationWarning (ou éventuellement ajouter un alias au terminal)

Nettoyage des images docker

Lors d'un changement dans le fichier requirements.py, une nouvelle image docker de l'api est générée. Il convient de régulièrement supprimer les images "dangling" pour ne pas qu'elles prennent trop de place sur le disque local. (cf doc docker).

docker image prune