7 novembre 2024

Krusell France

Ta dose d'actu digital !

Filtre de sécurité activé : réponses filtrées sur différentes questions de routine

gemini - Safety config doesn't have any effect
Rate this post

Aujourd’hui, nous abordons un sujet crucial en matière de technologie et d’intelligence artificielle. Les réponses filtrées dans les situations les plus banales peuvent poser problème.

Configuration de sécurité et réponses filtrées :

En utilisant la configuration de sécurité suivante :

block_level = generative_models.HarmBlockThreshold.BLOCK_ONLY_HIGH

safety_config = [generative_models.SafetySetting(category=generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT, threshold=block_level), generative_models.SafetySetting(category=generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT, threshold=block_level), generative_models.SafetySetting(category=generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH, threshold=block_level), generative_models.SafetySetting(category=generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT, threshold=block_level)]

et en l’utilisant avec :

response = session.chat.send_message(input, safety_settings=safety_config)

Il apparaît que même sur des questions basiques, comme des noms d’entreprises, les réponses sont filtrées.

Problème de configuration et plan payant :

Il semblerait que le paramètre `BLOCK_NONE` ne soit désormais disponible qu’avec des abonnements payants. Cependant, ce n’est pas le souci rencontré ici, car le paramètre API est bien accepté (et j’utilise un compte payant).

Source : www.googlecloudcommunity.com

  • mia dufresne portrait redactrice

    Mia est une rédactrice spécialisée dans les produits tech et l'IA, avec une formation en data science et une passion pour l'innovation. Elle explore les dernières avancées en IA, leurs applications pratiques et leurs implications éthiques.

    Voir toutes les publications