Exemplos Práticos de Uso¶
Veja casos reais de uso do Create Agents AI.
Assistente Educacional¶
import asyncio
from createagents import CreateAgent
async def main():
professor = CreateAgent(
provider="openai",
model="gpt-4",
name="Professor Virtual",
instructions="Você é um professor didático."
)
resposta = await professor.chat("Explique recursão em programação")
print(resposta)
asyncio.run(main())
Assistente Corporativo¶
import asyncio
from createagents import CreateAgent
async def main():
assistente = CreateAgent(
provider="openai",
model="gpt-4",
name="Assistente Executivo",
instructions="Use linguagem formal.",
tools=["currentdate"]
)
resposta = await assistente.chat("Que dia é hoje? Preciso agendar uma reunião")
print(resposta)
asyncio.run(main())
Assistente de Programação¶
import asyncio
from createagents import CreateAgent
async def main():
code_expert = CreateAgent(
provider="openai",
model="gpt-4",
name="Python Expert",
instructions="Especialista em Python."
)
codigo = await code_expert.chat("Crie uma função que valida CPF brasileiro.")
print(codigo)
asyncio.run(main())
Tradutor Profissional¶
import asyncio
from createagents import CreateAgent
async def main():
tradutor = CreateAgent(
provider="openai",
model="gpt-4",
name="Tradutor Especializado",
instructions="Você é um tradutor profissional."
)
resposta = await tradutor.chat(
"Traduza para inglês: 'A arquitetura clean separa as regras de negócio da infraestrutura.'"
)
print(resposta)
asyncio.run(main())
Analista de Dados¶
import asyncio
from createagents import CreateAgent
async def main():
analista = CreateAgent(
provider="ollama",
model="llama3.2",
name="Data Analyst",
instructions="Forneça insights acionáveis."
)
dados = "Vendas Q1: Jan=100k, Fev=150k, Mar=120k"
resposta = await analista.chat(f"Analise estes dados: {dados}")
print(resposta)
asyncio.run(main())
Chatbot Interativo (Use a CLI!)¶
Recomendado: Para chatbots interativos, use a CLI integrada:
from createagents import CreateAgent
agent = CreateAgent(
provider="openai",
model="gpt-4",
name="Assistente Amigável",
)
# Inicia CLI interativa
agent.start_cli()
A CLI oferece:
- Interface colorida e formatada
- Comandos
/help,/metrics,/configs,/tools,/clear - Streaming em tempo real
- Indicadores de status
Chat Simples (Loop Manual)¶
import asyncio
async def main():
chatbot = CreateAgent(
provider="openai",
model="gpt-4",
name="Chatbot Simples",
)
print("Digite 'sair' para encerrar.\n")
while True:
user_input = input("Você: ")
if user_input.lower() in ["sair", "exit", "quit"]:
break
# Streaming
response = await chatbot.chat(user_input)
print("Bot: ", end='', flush=True)
async for token in response:
print(token, end='', flush=True)
print("\n")
asyncio.run(main())
Agente Local com Ollama¶
import asyncio
from createagents import CreateAgent
async def main():
agente_local = CreateAgent(
provider="ollama",
model="llama3.2",
name="Assistente Privado",
instructions="Você é um assistente local."
)
resposta = await agente_local.chat("Explique machine learning em termos simples")
print(resposta)
asyncio.run(main())
Streaming em Tempo Real¶
import asyncio
async def streaming_example():
agent = CreateAgent(
provider="openai",
model="gpt-4",
)
print("Escrevendo artigo em tempo real:\n")
response = await agent.chat("Escreva um artigo sobre Clean Architecture")
# Exibe token por token
async for token in response:
print(token, end='', flush=True)
print("\n\n--- Finalizado ---")
asyncio.run(streaming_example())
Streaming com Ollama¶
import asyncio
async def ollama_streaming():
local_agent = CreateAgent(
provider="ollama",
model="llama3.2",
name="Assistente Local",
)
response = await local_agent.chat("Explique o que é LLM")
async for chunk in response:
print(chunk, end='', flush=True)
print()
asyncio.run(ollama_streaming())