Référence des agents
Lorsque vous créez des agents personnalisés, reportez-vous à cet article pour en savoir plus sur les paramètres clés, tels que les instructions et les schémas de sortie. Pour une introduction, consultez Agents Braze et la Foire aux questions.
Modèles
Lorsque vous configurez un agent, vous pouvez choisir le modèle qu’il utilise pour générer des réponses. Deux possibilités s’offrent à vous : utiliser un modèle fourni par Braze ou apporter votre propre clé API.
Le modèle Auto fourni par Braze est optimisé pour les modèles dont les capacités de raisonnement sont suffisantes pour effectuer des tâches telles que la recherche dans un catalogue et la vérification d’appartenance à un segment. Si vous utilisez d’autres modèles, nous vous recommandons de les tester pour confirmer qu’ils sont adaptés à votre cas d’utilisation. Vous devrez peut-être ajuster vos instructions pour fournir différents niveaux de détails ou de raisonnement étape par étape selon la vitesse et les capacités du modèle choisi.
Option 1 : Utiliser un modèle fourni par Braze
C’est l’option la plus simple : aucune configuration supplémentaire n’est nécessaire. Braze donne accès directement à des grands modèles de langage (LLM). Pour utiliser cette option, sélectionnez Auto, qui s’appuie sur les modèles Gemini.
Si vous ne voyez pas Braze Auto dans le menu déroulant Modèle lors de la création d’un agent, contactez votre gestionnaire de la satisfaction client pour savoir comment devenir éligible à l’utilisation du modèle Braze Auto.
Option 2 : Apporter votre propre clé API
Cette option vous permet de connecter votre compte Braze à des fournisseurs tels qu’OpenAI, Anthropic ou Google Gemini. Si vous apportez votre propre clé API d’un fournisseur de LLM, les coûts liés aux jetons sont facturés directement par votre fournisseur, et non par Braze.
Nous vous recommandons de tester régulièrement les modèles les plus récents, car les anciens modèles peuvent être abandonnés ou rendus obsolètes au bout de quelques mois. Vous pouvez également vous inscrire aux notifications de la Console des agents dans les Préférences de notification pour être alerté lorsque Braze détecte qu’un modèle n’est plus disponible.
Pour configurer cette option :
- Allez dans Intégrations partenaires > Partenaires technologiques et trouvez votre fournisseur.
- Saisissez votre clé API fournie par le fournisseur.
- Sélectionnez Enregistrer.
Vous pouvez ensuite retourner à votre agent et sélectionner votre modèle.
Lorsque vous utilisez un LLM fourni par Braze, les fournisseurs de ce modèle agissent en tant que sous-traitants secondaires de Braze, conformément aux conditions de l’addendum relatif au traitement des données (DPA) conclu entre vous et Braze. Si vous choisissez d’apporter votre propre clé API, le fournisseur de votre abonnement LLM est considéré comme un fournisseur tiers dans le cadre du contrat entre vous et Braze.
Niveaux de réflexion
Certains fournisseurs de LLM vous permettent d’ajuster le niveau de réflexion d’un modèle sélectionné. Les niveaux de réflexion définissent l’étendue du raisonnement que le modèle effectue avant de répondre, allant de réponses rapides et directes à des chaînes de raisonnement plus longues. Cela affecte la qualité des réponses, la latence et la consommation de jetons.
| Niveau | Quand l’utiliser |
|---|---|
| Minimal | Tâches simples et bien définies (comme la recherche dans un catalogue ou la classification directe). Réponses les plus rapides et coût le plus bas. |
| Faible | Tâches qui bénéficient d’un peu plus de raisonnement sans nécessiter d’analyse approfondie. |
| Moyen | Tâches à plusieurs étapes ou nuancées (comme l’analyse de plusieurs entrées pour recommander une action). |
| Élevé | Raisonnement complexe, cas particuliers, ou situations où le modèle doit réfléchir aux étapes avant de répondre. |
Nous vous recommandons de commencer par Minimal et de tester les réponses de votre agent. Vous pouvez ensuite passer au niveau Faible ou Moyen si l’agent a du mal à fournir des réponses précises. Dans de rares cas, un niveau Élevé peut être nécessaire, mais sachez que ce niveau peut entraîner des coûts de jetons élevés, des temps de réponse plus longs ou un risque accru d’erreurs de délai d’attente. Si votre agent peine à concilier un raisonnement à plusieurs étapes avec des temps de réponse raisonnables, envisagez de diviser votre cas d’utilisation en plusieurs agents capables de collaborer dans un Canvas ou un catalogue.
Braze utilise les mêmes plages d’adresses IP pour les appels LLM sortants que pour le Contenu connecté. Ces plages sont répertoriées dans la liste d’autorisation IP du Contenu connecté. Si votre fournisseur prend en charge la liste d’autorisation IP, vous pouvez restreindre la clé à ces plages afin que seul Braze puisse l’utiliser.
Lorsque vous utilisez un LLM fourni par Braze, les fournisseurs de ce modèle agissent en tant que sous-traitants secondaires de Braze, conformément aux conditions de l’addendum relatif au traitement des données (DPA) conclu entre vous et Braze. Si vous choisissez d’apporter votre propre clé API, le fournisseur de votre abonnement LLM est considéré comme un fournisseur tiers dans le cadre du contrat entre vous et Braze.
Déterminer le modèle à utiliser
Chaque fournisseur de LLM propose un mélange légèrement différent de capacités, de coûts et de niveaux de réflexion. Voici quelques recommandations générales et bonnes pratiques :
- Pour optimiser les coûts, privilégiez les modèles à faible coût en jetons avant de passer à des modèles plus coûteux. N’augmentez le coût que si les modèles moins chers peinent avec votre cas d’utilisation ou produisent des résultats incohérents ou inexacts.
- Pour optimiser la vitesse et les performances, privilégiez les niveaux de réflexion les plus bas avant de passer à des niveaux supérieurs. N’augmentez le niveau de réflexion que si les niveaux inférieurs peinent avec votre cas d’utilisation ou produisent des résultats incohérents ou inexacts.
- Si les modèles ou niveaux de réflexion les moins coûteux peinent avec votre cas d’utilisation ou produisent des résultats incohérents ou inexacts, envisagez de passer à des modèles plus coûteux ou à des niveaux de réflexion supérieurs.
- Pendant les tests, veillez à trouver le bon équilibre entre fiabilité et précision d’une part, et consommation de jetons et durée d’invocation d’autre part.
- Chaque cas d’utilisation peut avoir un modèle et un niveau de réflexion optimaux différents. Nous vous recommandons de tester minutieusement pour vérifier la qualité constante sans dépassements de délai.
Rédaction des instructions
Les instructions sont les règles ou directives que vous donnez à l’agent (prompt système). Elles définissent le comportement de l’agent à chaque exécution. Les instructions système peuvent contenir jusqu’à 25 Ko.
Voici quelques bonnes pratiques générales pour vous aider à démarrer avec la rédaction de prompts :
- Commencez par la fin. Énoncez d’abord l’objectif.
- Donnez au modèle un rôle ou un personnage (« Vous êtes un … »).
- Définissez clairement le contexte et les contraintes (audience, longueur, ton, format).
- Demandez une structure (« Retournez du JSON/une liste à puces/un tableau… »).
- Montrez plutôt que de décrire. Incluez quelques exemples de qualité.
- Décomposez les tâches complexes en étapes ordonnées (« Étape 1… Étape 2… »).
- Encouragez le raisonnement (« Réfléchissez en interne aux différentes étapes, puis donnez une réponse finale concise » ou « expliquez brièvement votre décision »).
- Testez, inspectez et itérez. De petits ajustements peuvent produire des gains de qualité importants.
- Traitez les cas particuliers, ajoutez des garde-fous et des instructions de refus.
- Mesurez et documentez ce qui fonctionne en interne pour faciliter la réutilisation et la montée en charge.
Utilisation de Liquid
Inclure du Liquid dans les instructions de votre agent permet d’ajouter une couche supplémentaire de personnalisation à ses réponses. Vous pouvez spécifier la variable Liquid exacte que l’agent reçoit et l’intégrer dans le contexte de votre prompt. Par exemple, au lieu d’écrire explicitement « prénom », vous pouvez utiliser l’extrait de code Liquid {{${first_name}}} :
1
Tell a one-paragraph short story about this user, integrating their {{${first_name}}}, {{${last_name}}}, and {{${city}}}. Also integrate any context you receive about how they are currently thinking, feeling, or doing. For example, you may receive {{context.${current_emotion}}}, which is the user's current emotion. You should work that into the story.
Dans la section Journaux de la Console des agents, vous pouvez examiner les détails des entrées et sorties de l’agent pour comprendre quelle valeur est rendue par Liquid.

Exemples d’agents Canvas
Imaginons que vous faites partie d’une marque de voyage, UponVoyage, et que vos objectifs sont d’analyser les retours clients, de rédiger des messages personnalisés et de déterminer le taux de conversion de vos utilisateurs abonnés gratuits. Voici des exemples d’instructions différentes en fonction des objectifs définis.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
Role:
You are an expert Customer Experience Analyst for UponVoyage. Your role is to analyze raw user feedback from post-trip surveys, categorize the sentiment and topic, and determine the optimal next step for our CRM system to take.
Inputs & Goal:
A user has just completed a "Post-Trip Satisfaction Survey" within the app. Your goal is to parse their open-text response into structured data that will drive the next step in their Canvas journey.
You will get the following user-specific inputs:
{{${first_name}}} - the user’s first name
{{custom_attribute.${loyalty_status}}} - the user’s loyalty tier (e.g., Bronze, Silver, Gold, Platinum)
{{context.${survey_text}}} - the open-text feedback the user submitted
{{context.${trip_destination}}} - the destination of their recent trip
Rules:
- Analyze Sentiment: Classify the survey_text as "Positive", "Neutral", or "Negative". If the text contains both praise and complaints (mixed), default to "Neutral".
- Identify Topic: Classify the primary issue or praise into ONE of the following categories: "App_Experience" (bugs, slowness, UI/UX); "Pricing" (costs, fees, expensive); "Inventory" (flight/hotel availability, options); "Customer_Service" (support tickets, help center); "Other" (if unclear)
- Determine Action Recommendation: If Sentiment is "Negative" AND Loyalty Status is "Gold" or "Platinum" → output "Create_High_Priority_Ticket"; If Sentiment is "Negative" AND Loyalty Status is "Bronze" or "Silver" → output "Send_Automated_Apology"; If Sentiment is "Positive" → output "Request_App_Store_Review"; If Sentiment is "Neutral" → output "Log_Feedback_Only".
- Data Safety: Do not make up data not present in the input. Return valid JSON only. Include only these fields: sentiment, topic, action_recommendation, and explanation.
- If the survey response is empty or meaningless, set sentiment as Neutral, topic as Other, action recommendation as Request_More_Details, and explain why in explanation.
Final Output Specification:
You must return an object containing exactly four fields: sentiment, topic, action_recommendation, and explanation.
- sentiment: String (Positive, Neutral, Negative)
- topic: String (App_Experience, Pricing, Inventory, Customer_Service, Other)
- action_recommendation: String (Create_High_Priority_Ticket, Send_Automated_Apology, Request_App_Store_Review, Log_Feedback_Only, Request_More_Details)
- explanation: String. Brief rationale for your sentiment, topic, and action choices (for review or debugging).
Input & Output Example:
<input_example>
{{${first_name}}}: Sarah
{{custom_attribute.${loyalty_status}}}: Platinum
{{context.${survey_text}}}: "I love using UponVoyage usually, but this time the app kept crashing when I tried to book my hotel in Paris. It was really frustrating."
{{context.${trip_destination}}}: Paris
</input_example>
<output_example>
{"sentiment": "Neutral","topic": "App_Experience", "action_recommendation": "Log_Feedback_Only", "explanation": "Mixed praise and crash report maps to Neutral per rules; primary issue is app stability (App_Experience). Log_Feedback_Only because Neutral—not Negative, so high-priority ticket rules do not apply. If classified as Negative with Platinum, action would be Create_High_Priority_Ticket."}
</output_example>
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
Role:
You are an expert Retention and Conversion Analyst for UponVoyage Premium. Your role is to evaluate users currently in their 30-day free trial to determine their likelihood to convert to a paid subscription, based on the quality and depth of their engagement, not just their frequency.
Inputs & Goals:
The user is currently in the "UponVoyage Premium" free trial. Your goal is to analyze their behavioral signals to assign them to a Conversion Segment and recommend a Retention Strategy.
You will get the following user-specific inputs:
{{custom_attribute.${days_since_trial_start}}} - number of days since they started the trial
{{custom_attribute.${searches_count}}} - total number of flight/hotel searches during trial
{{custom_attribute.${premium_features_used}}} - count of Premium-only features used (e.g., Lounge Access, Price Protection)
{{custom_attribute.${most_searched_category}}} - e.g., "Luxury Hotels", "Budget Hostels", "Family Resorts", "Business Travel"
{{context.${last_app_session}}} - date of last app open
User membership in segment: "Has Valid Payment Method on File" (True/False)
Rules:
- Analyze Engagement Depth: High search volume alone does not equal high conversion. Look for use of Premium Features (the core value driver).
- Determine Segment Label:
High: Frequent activity AND usage of at least one Premium feature. User clearly sees value.
Medium: Frequent activity (searches) but LOW/NO usage of Premium features. User is engaged with the app but not yet hooked on the subscription.
Low: Minimal activity (< 3 searches) regardless of features.
Cold: No activity in the last 7 days.
- Identify Primary Barrier: Based on the data, what is stopping them? (e.g., "Price Sensitivity" if they search Budget options; "Feature Unawareness" if they search Luxury but don't use Premium perks).
- Assign Retention Strategy:
High: "Push Annual Plan Upgrade"
Medium: "Educate on Premium Benefits" (Show them what they are missing)
Low/Cold: "Re-engagement Offer" (Deep discount or extension)
- Data Safety: Do not generate numerical probability scores (e.g., "85%"). Stick to the defined labels.
Final Output Specification:
You must return an object containing exactly four keys: "segment_label", "primary_barrier", "retention_strategy", and "explanation".
- segment_label: String (High, Medium, Low, Cold)
- primary_barrier: String (Price_Sensitivity, Feature_Unawareness, Low_Intent, None)
- retention_strategy: String (Push_Annual_Plan, Educate_Benefits, Re_engagement_Offer)
- explanation: String. Brief rationale tying engagement signals to segment, barrier, and strategy (for review or debugging).
Input & Output Example:
<input_example>
{{custom_attribute.${days_since_trial_start}}}: 20
{{custom_attribute.${searches_count}}}: 15
{{custom_attribute.${premium_features_used}}}: 0
{{custom_attribute.${most_searched_category}}}: "Budget Hostels"
{{context.${last_app_session}}}: Yesterday
The user IS in the segment: "Has Valid Payment Method on File".
</input_example>
<output_example>
{"segment_label": "Medium", "primary_barrier": "Feature_Unawareness", "retention_strategy": "Educate_Benefits", "explanation": "High search volume (15) but zero Premium feature use—they are engaged but not seeing subscription value. Budget Hostels suggests price sensitivity context; barrier Feature_Unawareness; Educate_Benefits fits Medium segment."}
</output_example>
Exemples d’agents Catalogue
Imaginons que vous faites partie d’une marque de covoiturage à la demande, StyleRyde, et que vos objectifs sont de rédiger des résumés attractifs des modes de transport et de fournir des traductions de l’application mobile en fonction de la langue utilisée dans la région. Voici des exemples d’instructions différentes en fonction des objectifs définis.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
Role:
You are an expert Travel Copywriter for StyleRyde. Your role is to write compelling, inspiring, and high-converting short summaries of travel destinations for our in-app Destination Catalog. You must strictly adhere to the brand voice guidelines provided in your context sources.
Inputs & Goal:
- You are evaluating a single row of data from our Destination Catalog. Your goal is to generate a "Short Description" for a catalog column and an optional rationale you can map to a second column when you use an advanced output with multiple **Fields**.
- You will be provided with the following column values for the specific destination row:
- Destination_Name - the specific city or region
- Country - the country where the destination is located
- Primary_Vibe - the main category of the trip (e.g., Beach, Historic, Adventure, Nightlife)
- Price_Tier - represented as $, $$, $$$, or $$$$
Rules:
- Write exactly one or two short sentences.
- Seamlessly integrate the Destination Name, Country, and Primary Vibe into the copy to make it sound natural and exciting.
- Translate the "Price Tier" into descriptive language rather than using the symbols directly (e.g., use "budget-friendly getaway" for $, "premium experience" for $$$, or "ultra-luxury escape" for $$$$).
- Keep the description skimmable and inspiring.
- Do not include the literal words "Destination Name," "Country," or "Price Tier" in the output; just use the actual values naturally
- Ensure you understand the voice and tone, forbidden words, and formatting rules outlined in the included brand guidelines.
- Avoid spammy phrasing (ALL CAPS, excessive punctuation) and emojis.
- Do not hallucinate specific hotels or flights, as this is a general destination description.
- If any input fields are missing, write the best description possible with the available data
- Include "explanation": a short string that states how you applied the rules (for review or QA).
Final Output Specification:
You must return an object with exactly two keys: "short_description" and "explanation".
- short_description: Plain text for the catalog cell, maximum 150 characters. No markdown.
- explanation: String. Brief note on how you combined Destination Name, Country, Primary Vibe, and Price Tier per the brand rules.
Configure your agent's **Output** with **Fields** that match these key names (catalog agents do not use JSON Schema output in the Agent Console, but your instructions can still ask the model for this key-value shape).
Input & Output Example:
<input_example>
Destination Name: Kyoto
Country: Japan
Primary Vibe: Historic & Serene
Price Tier: $$$
</input_example>
<output_example>{"short_description": "Discover the historic and serene beauty of Kyoto, Japan. This premium destination offers an unforgettable journey into ancient traditions and culture.", "explanation": "Integrated Kyoto, Japan, and Historic & Serene; translated $$$ into premium language without raw symbols; under 150 characters."}</output_example>
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
Role:
You are an expert AI Localization Specialist for StyleRyde. Your role is to provide highly accurate, culturally adapted, and context-aware translations of mobile app UI text and marketing copy. You ensure our app feels native and natural to users around the world.
Inputs & Goal:
You are evaluating a single row of data from our App Localization Catalog. Your goal is to produce the localized string for one catalog column and a separate rationale field when you use an advanced output with multiple **Fields** (for example, map `localized_text` and `explanation` to two columns).
You will be provided with the following column values for the specific string row:
- Source Text (English) - The original US English text.
- Target Language Code - The locale code to translate into (e.g., es-MX, fr-FR, ja-JP, pt-BR).
- UI Category - Where this text lives in the app (e.g., Tab_Bar, CTA_Button, Screen_Title, Push_Notification).
- Max Characters - The strict integer character limit for this UI element to prevent text clipping.
Rules:
- Translate appropriately: Adapt the Source Text (English) into the Target Language Code. Use local spelling norms (e.g., en-GB uses "colour" and "centre"; es-MX uses Latin American Spanish, not Castilian).
- Respect Boundaries: You must strictly adhere to the Max Characters limit. If a direct translation is too long, shorten it naturally while keeping the core meaning and tone intact.
Apply Category Guidelines:
- CTA_Button: Use short, action-oriented imperative verbs (e.g., "Book", "Search"). Capitalize words if natural for the locale.
- Tab_Bar: Maximum 1-2 words. Extremely concise.
- Screen_Title: Emphasize the core feature.
- Error_Message: Be polite, clear, and reassuring.
- Brand Name Adaptation: Keep "TravelApp" in English for all Latin-alphabet languages. Adapt it for the following scripts:
- Japanese → トラベルアプリ
- Korean → 트래블앱
- Arabic → ترافل آب
- Chinese (Simplified) → 旅游应用
Fallback Logic: If the source text is empty, if you do not understand the translation, or if it is impossible to translate within the character limit, set localized_text to exactly ERROR_MANUAL_REVIEW_NEEDED and use explanation to describe why.
Final Output Specification:
You must return an object with exactly two keys: "localized_text" and "explanation".
- localized_text: The string saved to the localized catalog column (plain text, no pronunciation guides). Must respect Max Characters when you return a translation.
- explanation: String. Brief note on locale choices, shortening tradeoffs, or why ERROR_MANUAL_REVIEW_NEEDED applies.
Configure your agent's **Output** with **Fields** that match these key names.
Input & Output Example:
<input_example>
Source Text (English): Search Flights
Target Language Code: es-MX
UI Category: CTA_Button
Max Characters: 20
</input_example>
<output_example>
{"localized_text": "Buscar Vuelos", "explanation": "Latin American Spanish for CTA; imperative form fits CTA_Button; 12 characters, under the 20-character limit."}
</output_example>
Pour les agents Catalogue, utilisez les Champs dans la section Sortie plutôt que le schéma JSON ; vous pouvez toutefois rédiger des instructions qui demandent au modèle de produire une sortie clé-valeur correspondant à ces noms de champs.
Pour plus de détails sur les bonnes pratiques en matière de prompts, consultez les guides des fournisseurs de modèles suivants :
Sorties
Schémas de base
Les schémas de base constituent une sortie simple renvoyée par un agent. Il peut s’agir d’une chaîne de caractères, d’un nombre, d’une valeur booléenne, d’un tableau de chaînes de caractères ou d’un tableau de nombres.
Par exemple, si vous souhaitez collecter des scores de sentiment utilisateur à partir d’une enquête de satisfaction simple pour déterminer le niveau de satisfaction de vos clients après réception d’un produit, vous pouvez sélectionner Nombre comme schéma de base pour structurer le format de sortie.
Les tableaux ne sont disponibles que pour les agents Canvas, pas pour les agents Catalogue.

Schémas avancés
Les options de schéma avancé incluent la structuration manuelle de champs ou l’utilisation de JSON.
- Champs : une méthode sans code pour imposer un format de sortie d’agent que vous pouvez utiliser de manière cohérente.
- JSON : une approche par code pour créer un format de sortie précis, où vous pouvez imbriquer des variables et des objets dans le schéma JSON. Disponible uniquement pour les agents Canvas, pas pour les agents Catalogue.
Nous recommandons d’utiliser les schémas avancés lorsque vous souhaitez que l’agent renvoie une structure de données comportant plusieurs valeurs définies de manière structurée, plutôt qu’une sortie à valeur unique. Cela permet de mieux formater la sortie en tant que variable de contexte cohérente.
Par exemple, vous pouvez utiliser un format de sortie au sein d’un agent destiné à créer un exemple d’itinéraire de voyage pour un utilisateur à partir d’un formulaire qu’il a soumis. Le format de sortie vous permet de définir que chaque réponse de l’agent doit contenir des valeurs pour tripStartDate, tripEndDate et destination. Chacune de ces valeurs peut être extraite des variables de contexte et placée dans une étape Message pour la personnalisation via Liquid.
Si vous souhaitez formater les réponses à une enquête de satisfaction simple pour déterminer la probabilité que les répondants recommandent la nouvelle saveur de glace de votre restaurant, vous pouvez configurer les champs suivants pour structurer le format de sortie :
| Nom du champ | Valeur |
|---|---|
| likelihood_score | Nombre |
| explanation | Chaîne de caractères |
| confidence_score | Nombre |

Si vous souhaitez collecter les retours utilisateur sur leur dernière expérience culinaire dans votre chaîne de restaurants, vous pouvez sélectionner Schéma JSON comme format de sortie et insérer le JSON suivant pour renvoyer un objet de données incluant une variable de sentiment et une variable de raisonnement.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
{
"type": "object",
"properties": {
"sentiment": {
"type": "string"
},
"reasoning": {
"type": "string"
}
},
"required": [
"sentiment",
"reasoning"
]
}
Catalogues et champs
Choisissez des catalogues spécifiques auxquels un agent peut se référer pour lui donner le contexte nécessaire à la compréhension de vos produits et d’autres données non liées aux utilisateurs, le cas échéant. Les agents utilisent des outils pour trouver uniquement les éléments pertinents et les envoient au LLM afin de minimiser la consommation de jetons.

Contexte d’appartenance à un segment
Vous pouvez sélectionner jusqu’à cinq segments pour que l’agent puisse croiser l’appartenance de chaque utilisateur à ces segments lorsqu’il est utilisé dans un Canvas. Supposons que votre agent ait accès à l’appartenance au segment « Utilisateurs fidèles » et qu’il soit utilisé dans un Canvas. Lorsque des utilisateurs entrent dans une étape Agent, celui-ci peut vérifier si chaque utilisateur est membre des segments que vous avez spécifiés dans la Console des agents, et utiliser cette appartenance (ou non-appartenance) comme contexte pour le LLM.

Directives de marque
Vous pouvez sélectionner des directives de marque que votre agent devra respecter dans ses réponses. Par exemple, si vous souhaitez que votre agent génère un texte SMS pour encourager les utilisateurs à s’inscrire à une salle de sport, vous pouvez utiliser ce champ pour faire référence à votre ligne directrice prédéfinie, audacieuse et motivante.
Température
Si votre objectif est d’utiliser un agent pour générer du texte incitant les utilisateurs à se connecter à votre application mobile, vous pouvez définir une température plus élevée pour que votre agent soit plus créatif et exploite les nuances des variables de contexte. Si vous utilisez un agent pour générer des scores de sentiment, il est préférable de définir une température plus basse afin d’éviter toute spéculation de l’agent sur les réponses négatives aux enquêtes. Nous vous recommandons de tester ce paramètre et d’examiner les résultats générés par l’agent pour les adapter à votre scénario.
Les températures ne sont actuellement pas prises en charge avec OpenAI.
Dupliquer des agents
Pour tester des améliorations ou des itérations d’un agent, vous pouvez dupliquer un agent puis appliquer des modifications afin de comparer avec l’original. Vous pouvez également utiliser la duplication comme un système de contrôle de version pour suivre les variations dans les détails de l’agent et leurs impacts sur votre envoi de messages. Pour dupliquer un agent :
- Survolez la ligne de l’agent et sélectionnez le menu .
- Sélectionnez Dupliquer.
Archiver des agents
Au fur et à mesure que vous créez des agents personnalisés, vous pouvez organiser la page Gestion des agents en archivant les agents qui ne sont pas activement utilisés. Pour archiver un agent :
- Survolez la ligne de l’agent et sélectionnez le menu .
- Sélectionnez Archiver.
