Manténgase al día con todas las últimas adiciones y mejoras que hemos realizado en AI Content Labs.
Septiembre 2025
- 06/09/2025: Nuevas funcionalidades en la plataforma:
- Se crea la opción para ejecutar flujos a través de API (beta).
- Se agregan integraciones con Pixabay, Pexels y Unsplash.
- 01/09/2025: Incorporación de nuevos modelos de inteligencia artificial:
- Modelos de OpenAI:
- ‘gpt-5’
- ‘gpt-5-mini’
- ‘gpt-5-nano’
- ‘gpt-5-chat’
- Modelos de Azure:
- ‘gpt-5’
- ‘gpt-5-mini’
- ‘gpt-5-nano’
- ‘gpt-5-chat’
- Modelos de AI Content Labs:
- ‘gpt-5’
- ‘gpt-5-mini’
- ‘gpt-5-nano’
- ‘gpt-5-chat’
- ‘gemini-2.5-flash-image-preview’
- Modelos de Vertex AI:
- ‘gemini-2.5-flash-image-preview’
- Modelos de Google:
- ‘gemini-2.5-flash-image-preview’
- Modelos de OpenAI:
Agosto 2025
- 01/08/2025: Actualización y cambios en modelos:
- Se agregan modelos de Vertex AI para texto/imagen a video:
- ‘veo-3.0-generate-preview’
- ‘veo-3.0-fast-generate-preview’
- ‘veo-3.0-generate-001’
- ‘veo-3.0-fast-generate-001’
- Se agrega el modelo ‘gpt-image-1’ de Azure.
- Se añade ‘imagen-4.0-fast-generate-preview-06-06’ de Vertex AI.
- Se incorporan ‘o3’ y ‘o3-pro’ de Azure.
- Se eliminan modelos deprecados como ‘gemini-2.5-pro-preview’, ‘r1-1776’, ‘claude-3-sonnet’, entre otros.
- Se agregan modelos de Vertex AI para texto/imagen a video:
Junio 2025
- 05/06/2025: Nuevas incorporaciones y actualizaciones de modelos de IA:
- Openrouter:
- ‘deepseek/deepseek-r1-0528’
- ‘google/gemini-2.5-pro-preview’
- ‘google/gemini-2.5-flash-preview-05-20:thinking’
- ‘google/gemini-2.5-flash-preview-05-20’
- ‘google/gemini-2.5-flash-preview’
- ‘google/gemini-2.5-flash-preview:thinking’
- ‘google/gemini-2.5-pro-preview-03-25’
- ‘anthropic/claude-opus-4’
- ‘anthropic/claude-sonnet-4’
- Anthropic:
- ‘claude-opus-4-0’
- ‘claude-sonnet-4-0’
- Fal.ai:
- ‘fal-ai/flux-pro/kontext/max/text-to-image’
- ‘fal-ai/flux-pro/kontext/text-to-image’
- ‘fal-ai/imagen4/preview’
- ‘fal-ai/flux-pro/kontext’
- ‘fal-ai/flux-pro/kontext/max’
- ‘fal-ai/flux-pro/kontext/max/multi’
- ‘fal-ai/kling-video/v2.1/master/image-to-video’
- ‘fal-ai/kling-video/v2.1/master/text-to-video’
- ‘fal-ai/kling-video/v2.1/pro/image-to-video’
- ‘fal-ai/kling-video/v2.1/standard/image-to-video’
- ‘fal-ai/pixverse/v4.5/image-to-video’
- ‘fal-ai/pixverse/v4.5/image-to-video/fast’
- ‘fal-ai/pixverse/v4.5/text-to-video’
- ‘fal-ai/pixverse/v4.5/text-to-video/fast’
- ‘fal-ai/pixverse/v4.5/effects’
- ‘fal-ai/pixverse/v4.5/transition’
- Vertex ai:
- ‘gemini-2.5-flash-preview-05-20’
- ‘gemini-2.5-pro-preview-05-06’
- ‘imagen-4.0-generate-preview-05-20’
- ‘imagen-4.0-ultra-generate-exp-05-20’
- AI Content Labs:
- ‘gemini-2.5-flash-preview-05-20’
- ‘gemini-2.5-pro-preview-05-06’
- Openrouter:
Mayo 2025
- 02/05/2025: Incorporación de nuevos modelos de IA:
- OpenAI:
- ‘gpt-image-1’ (texto a imagen e imagen a imagen)
- Vertex AI:
- ‘imagen-3.0-capability-001|Default’
- ‘imagen-3.0-capability-001|Controlled customization’
- ‘imagen-3.0-capability-001|Inpaint Insertion’
- ‘imagen-3.0-capability-001|Inpaint Removal’
- ‘imagen-3.0-capability-001|Background Swap’
- Azure:
- Se elimina el modelo ‘dall-e-2’, ya no disponible.
- OpenAI:
- 02/05/2025: Nuevas herramientas disponibles en el nodo ‘Multimedia Tools’:
- Get Audio Metadata
- Get Video Metadata
- Merge Videos
- Add Subtitles to Video
- Add Watermark to Video
- Audio Speed Adjustment
- Video Speed Adjustment
- Audio Trimming
- Video Trimming
- Extract Audio from Video
- Merge Audio Files
- Add Audio to Video
- Extract paragraph duration from SRT file
Estas herramientas funcionan con sistema de créditos. Por ahora los valores de uso son de prueba y se definirán de manera oficial más adelante.
Abril 2025
- 17/04/2025: Correcciones y nuevos modelos de IA:
- Se corrige un error por el cual, en algunos casos, no se visualizaban los resultados generados con IA en la vista del editor del flujo.
- 17/04/2025: Incorporación de nuevos modelos de inteligencia artificial:
- Modelos de Fal.ai:
- ‘cassetteai/music-generator’
- ‘fal-ai/kling-video/v2/master/image-to-video’
- ‘fal-ai/kling-video/v2/master/text-to-video’
- ‘fal-ai/vidu/image-to-video’
- ‘fal-ai/vidu/reference-to-video’
- ‘fal-ai/vidu/start-end-to-video’
- ‘fal-ai/vidu/template-to-video’
- ‘fal-ai/pika/v2/turbo/text-to-video’
- ‘fal-ai/pika/v2/turbo/image-to-video’
- ‘fal-ai/pika/v2.2/text-to-video’
- ‘fal-ai/pika/v2.2/image-to-video’
- ‘fal-ai/pika/v2.1/text-to-video’
- ‘fal-ai/pika/v2.1/image-to-video’
- ‘fal-ai/pika/v1.5/pikaffects’
- ‘fal-ai/ltx-video-v095/image-to-video’
- ‘fal-ai/ltx-video-v095’
- Modelos de OpenRouter:
- ‘openai/o4-mini’
- ‘openai/o4-mini-high’
- ‘openai/o3’
- Modelos de OpenAI:
- ‘o4-mini’
- ‘o3’
- Modelos de Azure:
- ‘o4-mini’
- ‘gpt-4.1-nano’
- ‘gpt-4.1-mini’
- Modelos en AI Content Labs (uso mediante créditos):
- ‘o4-mini’
- ‘gpt-4.1-nano’
- ‘gpt-4.1-mini’
- Modelos de Fal.ai:
- 15/04/2025: Mejoras en las funcionalidades de ejecución e infraestructura:
- Se habilita la ejecución de IA mediante streaming en las plantillas (modelos que lo soportan).
- Se mejora el mensaje de respuesta cuando una imagen no es válida en el modelo ‘gemini-2.0-flash-exp’.
- Los créditos para ejecución en bloque ahora se denominan simplemente créditos. Estos pueden ser utilizados no solo en ejecuciones bulk, sino también en algunos modelos de IA (sin necesidad de ingresar una clave API), así como en herramientas que procesamos en nuestros servidores como manejo de imágenes, PDFs, etc. Estos créditos no afectan el uso de tus propios modelos con tus claves API.
- La ejecución en bulk de un flujo ahora consume 1 solo crédito, en lugar de los 10 que se requerían anteriormente.
- 15/04/2025: Incorporación de nuevos modelos de inteligencia artificial:
- Modelos de OpenRouter:
- ‘deepseek/deepseek-v3-base:free’
- ‘deepseek/deepseek-chat-v3-0324:free’
- ‘deepseek/deepseek-chat-v3-0324’
- ‘x-ai/grok-3-beta’
- ‘x-ai/grok-3-mini-beta’
- ‘google/gemini-2.5-pro-preview-03-25’
- ‘google/gemini-2.5-pro-exp-03-25:free’
- ‘mistralai/mistral-small-3.1-24b-instruct:free’
- ‘mistralai/mistral-small-3.1-24b-instruct’
- ‘meta-llama/llama-4-scout’
- ‘meta-llama/llama-4-scout:free’
- ‘meta-llama/llama-4-maverick:free’
- ‘meta-llama/llama-4-maverick’
- ‘openai/gpt-4.1-nano’
- ‘openai/gpt-4.1-mini’
- ‘openai/gpt-4.1’
- Modelos de OpenAI:
- ‘gpt-4.1-nano’
- ‘gpt-4.1-mini’
- ‘gpt-4.1’
- ‘gpt-4o-mini-tts’
- ‘gpt-4o-mini-transcribe’
- ‘gpt-4o-transcribe’
- Modelos de Vertex AI:
- ‘gemini-2.5-pro-preview-03-25’
- ‘gemini-2.5-pro-exp-03-25’
- ‘veo-2.0-generate-001|text-to-video’
- ‘veo-2.0-generate-001|image-to-video’
- Modelos de Google:
- ‘gemini-2.5-pro-preview-03-25’
- ‘gemini-2.5-pro-exp-03-25’
- ‘imagen-3.0-generate-002’
- ‘veo-2.0-generate-001|text-to-video’
- ‘veo-2.0-generate-001|image-to-video’
- Modelos de xAI:
- ‘grok-3-mini-fast-latest’
- ‘grok-3-mini-latest’
- ‘grok-3-fast-latest’
- ‘grok-3-latest’
- Modelos de Fal.ai:
- Audio: ‘fal-ai/minimax-tts/text-to-speech’, ‘fal-ai/minimax-tts/text-to-speech/turbo’, ‘cassetteai/sound-effects-generator’, ‘fal-ai/mmaudio-v2/text-to-audio’
- Texto a imagen: ‘fal-ai/hidream-i1-full’, ‘fal-ai/hidream-i1-dev’, ‘fal-ai/hidream-i1-fast’
- Imagen a imagen: ‘fal-ai/ghiblify’
- Video AI: ‘fal-ai/wan-effects’, ‘fal-ai/wan-i2v’, ‘fal-ai/wan-pro/image-to-video’, ‘fal-ai/wan-t2v’, ‘fal-ai/wan/v2.1/1.3b/text-to-video’, ‘fal-ai/pixverse/v4/image-to-video’, ‘fal-ai/pixverse/v4/image-to-video/fast’, ‘fal-ai/pixverse/v4/text-to-video’, ‘fal-ai/pixverse/v4/text-to-video/fast’, ‘fal-ai/pixverse/v3.5/effects’, ‘fal-ai/pixverse/v3.5/image-to-video’, ‘fal-ai/pixverse/v3.5/image-to-video/fast’, ‘fal-ai/pixverse/v3.5/text-to-video’, ‘fal-ai/pixverse/v3.5/text-to-video/fast’, ‘fal-ai/veo2/image-to-video’, ‘fal-ai/kling-video/v1.6/standard/effects’, ‘fal-ai/kling-video/v1/standard/effects’, ‘fal-ai/kling-video/v1.5/pro/effect’
- Modelos de Leonardo AI:
- ‘Leonardo Phoenix | Style and Content Reference’
- ‘Leonardo Phoenix 0.9 | Style and Content Reference’
- ‘Flux Dev | Style and Content Reference’
- ‘Flux Schnell | Style and Content Reference’
- ‘Motion 2.0|Image to video’
- ‘Motion 2.0|Text to video’
- Modelos de Minimax:
- ‘image-01’
- Modelos de Azure:
- ‘gpt-4.1’
- Modelos en AI Content Labs (uso mediante créditos):
- Generación de texto: ‘gpt-4.1’, ‘gpt-4o-mini’, ‘o3-mini’, ‘o1-mini’, ‘gpt-4o’, ‘o1’, ‘gpt-4.5-preview’, ‘gemini-2.0-flash-lite-001’, ‘gemini-2.0-flash-001’, ‘gemini-1.5-flash-002’, ‘gemini-2.5-pro-preview-03-25’, ‘gemini-1.5-pro-002’
- Tools: ‘Google Search’, ‘Google Image Search’, ‘Python Code Interpreter’
- Modelos de OpenRouter:
- 15/04/2025: Mejoras adicionales:
- Se agregan nuevas voces disponibles para los modelos TTS de OpenAI.
- Se actualizan parámetros para la generación de texto a imagen en los modelos de Leonardo AI.
- Se agrega configuración de upscale al modelo ‘imagen-03’ de VertexAI.
- Ahora el merge de PDFs permite combinar hasta 50 archivos PDF.
Marzo 2025
- 14/03/2025: Se corrigen bugs menores en la ejecución de flujos.
- 14/03/2025: Ahora es posible generar imágenes usando ‘gemini-2.0-flash-exp’.
- 14/03/2025: Incorporación de nuevos modelos de IA:
- Modelos de OpenRouter:
- ‘google/gemma-3-27b-it:free’
- ‘openai/gpt-4o-search-preview’
- ‘openai/gpt-4o-mini-search-preview’
- Modelos de OpenAI:
- ‘gpt-4o-mini-search-preview’
- ‘gpt-4o-search-preview’
- Modelos de OpenRouter:
- 14/03/2025: Se agrega la opción para establecer separadores personalizados en el ‘Max-Character Smart Split’.
- 09/03/2025: Se agregan como plugins las opciones disponibles en el nodo ‘Render Engine’.
- 09/03/2025: Los nodos que generan audios ahora permiten configurar un nombre para el archivo resultante.
- 09/03/2025: Incorporación de nuevos modelos de IA:
- Modelos de OpenRouter:
- ‘perplexity/sonar-deep-research’
- ‘perplexity/sonar-pro’
- ‘perplexity/sonar-reasoning-pro’
- Modelos de Straico:
- ‘anthropic/claude-3-5-haiku-20241022’
- ‘anthropic/claude-3.7-sonnet’
- ‘anthropic/claude-3.7-sonnet:thinking’
- ‘deepseek/deepseek-r1’
- ‘google/gemini-2.0-flash-001’
- ‘gpt-4.5-preview’
- ‘openai/o1’
- ‘openai/o3-mini-high’
- ‘openai/o3-mini’
- Modelos de OpenRouter:
- 05/03/2025: Incorporación de nuevos modelos de IA:
- Modelos de ElevenLabs:
- ‘tts|eleven_flash_v2_5’
- ‘tts|eleven_flash_v2’
- ‘transcription|scribe_v1’
- ‘voice_changer|eleven_english_sts_v2’
- ‘voice_changer|eleven_multilingual_sts_v2’
- ‘effects|sound_generation’
- ‘audio_isolation|remove_background_noise’
- Modelos de Leonardo AI:
- Versiones de imagen a imagen de los modelos:
- ‘Leonardo Phoenix’
- ‘Leonardo Phoenix 0.9’
- ‘Flux Dev’
- ‘Flux Schnell’
- ‘Leonardo Anime XL’
- ‘Leonardo Kino XL’
- ‘AlbedoBase XL’
- ‘Leonardo Lightning XL’
- ‘Leonardo Vision XL’
- Versiones de imagen a imagen de los modelos:
- Modelos de Ideogram:
- ‘V_2A’
- ‘V_2A_TURBO’
- ‘upscale’
- Versiones de imagen a imagen de los modelos:
- ‘V_1’
- ‘V_1_TURBO’
- ‘V_2’
- ‘V_2_TURBO’
- ‘V_2A’
- ‘V_2A_TURBO’
- Modelos de ElevenLabs:
- 05/03/2025: Mejoras en el nodo Text Splitter:
- Se agregan nuevos métodos de división de texto:
- ‘Pattern-based Split’ (método original basado en patrones).
- ‘Fixed-length Character Split’ (división por longitud fija de caracteres).
- ‘Max-Character Smart Split’ (toma en cuenta un número máximo de caracteres, pero corta el texto en un párrafo u oración para evitar cortes abruptos).
- Se agregan nuevos métodos de división de texto:
Febrero 2025
- 28/02/2025: Se agrega opción para concurrencyJobs en bulkMode, permitiendo elegir cuántos procesos se llevarán en paralelo.
- 28/02/2025: Incorporación de un nuevo nodo ‘Render Engine’, que incluye los métodos:
- HTML a Imagen
- HTML a PDF
- Markdown a PDF
- Unir PDFs
- 28/02/2025: Incorporación de nuevos modelos de IA:
- Modelos de OpenRouter:
- ‘google/gemini-2.0-flash-lite-001’
- ‘openai/gpt-4.5-preview’
- Modelos de OpenAI:
- ‘gpt-4.5-preview’
- Modelos de Google:
- ‘gemini-2.0-flash-lite’
- Modelos de Vertex AI:
- ‘gemini-2.0-flash-lite-001’
- Modelos de Perplexity:
- ‘sonar-deep-research’
- Modelos de Azure:
- ‘gpt-4.5-preview’
- Modelos de Fal.ai:
- ‘fal-ai/minimax-music’
- ‘fal-ai/f5-tts’
- ‘fal-ai/zonos’
- ‘fal-ai/kokoro/american-english’
- ‘fal-ai/kokoro/british-english’
- ‘fal-ai/kokoro/japanese’
- ‘fal-ai/kokoro/mandarin-chinese’
- ‘fal-ai/kokoro/spanish’
- ‘fal-ai/kokoro/french’
- ‘fal-ai/kokoro/hindi’
- ‘fal-ai/kokoro/italian’
- ‘fal-ai/kokoro/brazilian-portuguese’
- ‘fal-ai/playai/tts/v3’
- ‘fal-ai/playai/tts/dialog’
- ‘fal-ai/mmaudio-v2’
- ‘fal-ai/stable-audio’
- ‘fal-ai/yue’
- ‘fal-ai/mmaudio-v2’
- ‘fal-ai/ltx-video’
- Modelos de Minimax:
- ‘speech-01-turbo’
- ‘speech-01-hd’
- ‘speech-01-turbo|large’
- ‘music-01’
- ‘image-01’
- ‘T2V-01-Director’
- ‘I2V-01-Director’
- ‘S2V-01’
- ‘I2V-01’
- ‘I2V-01-live’
- ‘T2V-01’
- Modelos de OpenRouter:
- 28/02/2025: Ahora en los inputs de tipo múltiple, puedes especificar cuántos valores se pueden seleccionar como máximo.
- 24/02/2025: Se agrega un nuevo proveedor de modelos de IA:
- Minimax con los siguientes modelos de texto:
- ‘MiniMax-Text-01’
- ‘DeepSeek-R1’
- ‘abab6.5s-chat’
- Minimax con los siguientes modelos de texto:
- 24/02/2025: Se agregan nuevos modelos de IA:
- Modelos de Anthropic:
- ‘claude-3-7-sonnet-20250219’
- Modelos de Perplexity:
- ‘r1-1776’
- Modelos de OpenAI:
- ‘gpt-4o-audio-preview-2024-10-01’
- ‘gpt-4o-mini-audio-preview’
- Modelos de Azure:
- ‘gpt-4o-audio-preview’
- ‘gpt-4o-mini-audio-preview’
- Modelos de OpenRouter:
- ‘mistralai/mistral-saba’
- ‘perplexity/r1-1776’
- ‘anthropic/claude-3.7-sonnet’
- Modelos de Fal.AI:
- Texto a Imagen:
- ‘fal-ai/imagen3’
- ‘fal-ai/imagen3/fast’
- ‘fal-ai/bria/text-to-image/hd’
- ‘fal-ai/bria/text-to-image/base’
- ‘fal-ai/bria/text-to-image/fast’
- ‘fal-ai/luma-photon’
- ‘fal-ai/luma-photon/flash’
- ‘fal-ai/sana’
- ‘fal-ai/recraft-20b’
- Imagen a Imagen:
- ‘fal-ai/bria/product-shot’
- Video AI:
- ‘fal-ai/minimax/video-01/image-to-video’
- ‘fal-ai/minimax/video-01-subject-reference’
- ‘fal-ai/minimax/video-01-live/image-to-video’
- ‘fal-ai/minimax/video-01-live’
- ‘fal-ai/minimax/video-01-director’
- ‘fal-ai/minimax/video-01’
- ‘fal-ai/hunyuan-video’
- ‘fal-ai/hunyuan-video-img2vid-lora’
- ‘fal-ai/veo2’
- ‘fal-ai/skyreels-i2v’
- ‘fal-ai/haiper-video/v2/image-to-video’
- ‘fal-ai/haiper-video/v2.5/image-to-video/fast’
- ‘fal-ai/haiper-video/v2’
- ‘fal-ai/haiper-video/v2.5/fast’
- Herramientas de imágenes:
- ‘fal-ai/bria/background/replace’
- ‘fal-ai/bria/background/remove’
- Texto a Imagen:
- Modelos de Anthropic:
- 15/02/2025: Cambios y mejoras en el editor de flujos:
- Posibilidad de testear diferentes modelos al mismo tiempo en los nodos de imagen (texto a imagen e imagen a imagen), video, audio, herramientas multimedia, extractor web y búsqueda web, tal como se hace con los nodos prompt.
- Opción para pausar la ejecución del flujo en el editor (se completarán los procesos en curso antes de pausar). Posteriormente, podrá reanudarse la ejecución, salvo que cambien las dependencias de los nodos.
- Edición de los resultados preliminares del flujo en el editor para probar variaciones en los resultados.
- Posibilidad de volver a ejecutar un resultado de un nodo sin necesidad de reiniciar el flujo.
- Visualización del resultado final de nodos concatenados y opción para enviarlo a un webhook directamente desde la interfaz del editor.
- Se agregan los modelos disponibles en los nodos texto a imagen, extractor web y busqueda web como herramientas (tools) disponibles en los nodos Prompt.
- 15/02/2025: Incorporación de nuevos modelos de IA:
- Modelos de OpenRouter:
- ‘qwen/qwen-turbo’
- ‘qwen/qwen2.5-vl-72b-instruct:free’
- ‘qwen/qwen-plus’
- ‘qwen/qwen-max’
- ‘google/gemini-2.0-flash-001’
- ‘google/gemini-2.0-flash-lite-preview-02-05:free’
- ‘google/gemini-2.0-pro-exp-02-05:free’
- ‘openai/o3-mini-high’
- ‘openai/o3-mini’
- ‘openai/o1’
- Modelos de Vertex AI:
- ‘gemini-2.0-flash-001’
- ‘gemini-2.0-flash-lite-preview-02-05’
- ‘gemini-2.0-pro-exp-02-05’
- ‘imagen-3.0-generate-002’
- Modelos de Google:
- ‘gemini-2.0-flash’
- ‘gemini-2.0-pro-exp-02-05’
- ‘gemini-2.0-flash-lite-preview-02-05’
- Modelos de Perplexity:
- ‘sonar-reasoning-pro’
- ‘sonar-reasoning’
- Modelos de Leonardo AI:
- ‘Leonardo Phoenix 0.9’
- ‘Flux Dev’
- ‘Flux Schnell’
- Modelos de OpenRouter:
- 15/02/2025: Retiro de modelos obsoletos y descontinuados:
- Modelos retirados de OpenRouter:
- ‘perplexity/llama-3.1-sonar-huge-128k-online’
- ‘perplexity/llama-3.1-sonar-small-128k-online’
- ‘perplexity/llama-3.1-sonar-small-128k-chat’
- ‘perplexity/llama-3.1-sonar-large-128k-online’
- ‘perplexity/llama-3.1-sonar-large-128k-chat’
- ‘perplexity/llama-3-sonar-small-32k-chat’
- ‘perplexity/llama-3-sonar-small-32k-online’
- ‘perplexity/llama-3-sonar-large-32k-chat’
- ‘perplexity/llama-3-sonar-large-32k-online’
- Modelos retirados de Perplexity:
- ‘llama-3.1-sonar-small-128k-online’
- ‘llama-3.1-sonar-large-128k-online’
- ‘llama-3.1-sonar-huge-128k-online’
- Modelos retirados de OpenRouter:
Enero 2025
- 31/01/2025: Se agregan nuevos modelos:
- OpenRouter:
- ‘deepseek/deepseek-r1-distill-qwen-32b’
- ‘deepseek/deepseek-r1-distill-qwen-14b’
- ‘deepseek/deepseek-r1-distill-qwen-1.5b’
- ‘perplexity/sonar’
- ‘perplexity/sonar-reasoning’
- OpenAI: ‘o3-mini’
- Perplexity:
- ‘sonar-reasoning’
- ‘sonar-pro’
- ‘sonar’
- Groq: ‘deepseek-r1-distill-llama-70b’
- Azure: ‘o3-mini’
- OpenRouter:
- 31/01/2025: En los modelos ‘o1’ y ‘o3-mini’ se agregó la opción para seleccionar el reasoning Effort.
- 27/01/2025: Incorporación de nuevos modelos de inteligencia artificial:
- Modelos de OpenRouter:
- ‘deepseek/deepseek-r1’
- ‘deepseek/deepseek-r1-distill-llama-70b’
- ‘mistralai/codestral-2501’
- Modelo de Deepseek:
- ‘deepseek-reasoner’
- Modelo de Mistral:
- ‘codestral-latest’
- Modelos de OpenRouter:
- 27/01/2025: Cambios en nodos y mejoras en herramientas multimedia:
- El nodo ‘Image Tools’ se ha renombrado como ‘Multimedia Tools’.
- Se incorporan nuevas acciones al nodo ‘Multimedia Tools’:
- Redimensionar|ajustar
- Redimensionar|rellenar
- Redimensionar|forzar
- Recortar
- Desenfocar
- Afinar
- Convertir formato
- Color de fondo
- Brillo
- Contraste
- Equalizar
- Redimensionar y rellenar con color
- Escala de grises
- Ruido
- Reducir proporción
- Ajuste de color RGB
- Rotar
- Esquinas redondeadas
- Saturación
- Marca de agua
- Voltear horizontalmente
- Voltear verticalmente
- Agregar texto
- Establecer fondo para imagen transparente
- 14/01/2025: Mejoras en el scraper por defecto de AICL:
- Ahora es posible seleccionar elementos CSS.
- 14/01/2025: Incorporación de nuevos proveedores y modelos de inteligencia artificial:
- Se añade el proveedor DeepSeek con su modelo ‘deepseek-chat’.
- Modelos de OpenRouter:
- ‘deepseek/deepseek-chat’
- ‘x-ai/grok-2-1212’
- ‘x-ai/grok-2-vision-1212’
- ‘google/gemini-2.0-flash-thinking-exp:free’
- ‘cohere/command-r7b-12-2024’
- Modelos de Vertex AI:
- ‘gemini-2.0-flash-thinking-exp-1219’
- Modelos de Google AI Studio:
- ‘gemini-2.0-flash-thinking-exp-1219’
- Modelos de xAI:
- ‘grok-2-1212’
- ‘grok-2-vision-1212’
- Modelo de Cohere:
- ‘command-r7b-12-2024’
- Nuevos modelos de video de FalAI:
- ‘fal-ai/kling-video/v1.6/pro/image-to-video’
- ‘fal-ai/kling-video/v1.6/standard/image-to-video’
- ‘fal-ai/kling-video/v1.6/standard/text-to-video’
- 14/01/2025: Mejoras en los flujos de trabajo:
- Se incorpora el nodo ‘Text Merger’, que permite combinar los resultados de nodos con múltiples salidas.
- El input tipo ‘files’ ahora permite cargar hasta 20 archivos.
Diciembre 2024
- 17/12/2024: Incorporación de nuevos modelos de IA: ‘fal-ai/leffa/virtual-tryon’, ‘fal-ai/leffa/pose-transfer’, ‘fashn/tryon’.
- 17/12/2024: Se retira modelo ‘gemma-7b-it’ de Grok.
- 12/12/2024: Incorporación de nuevos proveedores y modelos de IA:
- Se añade soporte para XAI con los modelos ‘grok-beta’, ‘grok-vision-beta’.
- Se integra JoggAI con los modelos ‘create_video_from_url’, ‘create_video_from_talking_avatar’.
- Se agrega Straico con los modelos ‘anthropic/claude-3-haiku:beta’, ‘anthropic/claude-3-opus’, ‘anthropic/claude-3-sonnet’, ‘anthropic/claude-3.5-sonnet’, ‘google/gemini-pro-1.5’, ‘openai/gpt-4o-2024-08-06’, ‘openai/gpt-4o’, ‘openai/gpt-4o-mini’, ‘openai/o1-mini’, ‘openai/o1-preview’.
- Se incluyen modelos de Google: ‘gemini-exp-1206’, ‘gemini-2.0-flash-exp’.
- Modelos de Vertex AI añadidos: ‘claude-3-5-sonnet-v2@20241022’, ‘claude-3-5-sonnet@20240620’, ‘gemini-2.0-flash-exp’, ‘gemini-exp-1206’.
- Modelos de Azure agregados: ‘o1-preview’, ‘o1-mini’.
- Se añaden modelos de OpenRouter: ‘amazon/nova-pro-v1’, ‘amazon/nova-lite-v1’, ‘amazon/nova-micro-v1’, ‘google/gemini-2.0-flash-exp:free’, ‘google/gemini-exp-1206:free’, ‘meta-llama/llama-3.3-70b-instruct’.
- Se incorporan modelos de FalAI: ‘fal-ai/ideogram/v2’, ‘fal-ai/ideogram/v2/remix’, ‘fal-ai/kling-video/v1.5/pro/image-to-video’, ‘fal-ai/kling-video/v1.5/pro/text-to-video’, ‘fal-ai/kling-video/v1/pro/image-to-video’, ‘fal-ai/kling-video/v1/pro/text-to-video’, ‘fal-ai/kling-video/v1/standard/image-to-video’, ‘fal-ai/kling-video/v1/standard/text-to-video’.
- 12/12/2024: Retiro de proveedor de IA:
- Se elimina AlephAlpha como proveedor debido al cierre de sus operaciones.
Noviembre 2024
- 28/11/2024: Incorporación de nuevos proveedores de IA y actualización de modelos:
- Se añade soporte para Vertex AI, que permite la generación de texto e imágenes.
- Se integra Ideogram, especializado en la generación de imágenes.
- Se incluye ElevenLabs como proveedor para generación de contenido de audio.
- Ahora es posible utilizar el modelo ‘gpt-4o-audio-preview’ de OpenAI para la creación de audio.
- También se admiten los modelos TTS y Whisper de OpenAI para generación de texto a voz y transcripciones de voz a texto, respectivamente.
- Se habilita la creación de imágenes a través del modelo DALL-E de Azure.
- Se incorporan los nuevos modelos de generación de texto más recientes de los proveedores compatibles.
- 28/11/2024: Mejoras en la interfaz de creación de prompts y flujos:
- La visualización durante la creación de variables ha sido optimizada para mayor claridad.
- Se añade una nueva opción para incluir citas en los modelos que lo soportan: Perplexity, Gemini y Vertex. Cohere ya contaba con esta funcionalidad previamente.
- Ahora es posible adjuntar imágenes, audio y otros archivos a los modelos compatibles al momento de su ejecución.
- 28/11/2024: Actualizaciones en la interfaz y funcionalidades de los flujos de trabajo:
- El nodo «Imagen de IA» ha sido reemplazado por un nodo más descriptivo llamado «Texto a Imagen».
- Se añaden nuevos nodos para ampliar capacidades:
- «Imagen a Imagen» permite transformar una imagen existente utilizando un modelo de IA.
- «Utilidades para Imágenes» ofrece herramientas como mejorar la resolución (upscale) y remover el fondo, entre otras.
- «Video de IA» permite la creación de videos a partir de texto y/o imágenes.
- «Audio de IA» permite generar audio a partir de texto o transcribir el contenido de un archivo de audio.
- Se mejora la visualización al probar la ejecución de flujos, permitiendo alternar entre un formato HTML y el formato estándar.
- El nodo de entrada ahora admite la subida y manejo de archivos.
Octubre 2024
- 23/10/2024: Nuevos Modelos de IA disponibles:
- OpenRouter: ‘x-ai/grok-beta’, ‘nvidia/llama-3.1-nemotron-70b-instruct’, ‘mistralai/ministral-8b’, ‘mistralai/ministral-3b’, ‘anthropic/claude-3.5-sonnet-20240620’, ‘anthropic/claude-3.5-sonnet-20240620:bet’.
- Anthropic: ‘claude-3-5-sonnet-20241022’.
- Mistral: ‘ministral-8b-latest’, ‘ministral-3b-latest’.
- 06/10/2024: Optimización en la ejecución de flujos:
- Los nodos se agrupan por niveles y se ejecutan en paralelo, mejorando significativamente los tiempos de procesamiento.
- Los nodos divididos ahora se procesan en grupos de 5 para evitar límites de tasa en las APIs.
- Se añade la opción de utilizar el resultado del nodo hermano anterior como contexto. Debes tener en cuenta que al activar esta opción, la ejecución será secuencial en lugar de en paralelo para cada división, lo que podría aumentar el tiempo total de procesamiento del flujo.
- Los resultados generados por nodos de imágenes ahora pueden ser utilizados como entrada para otros nodos.
- Se agregó un nuevo nodo «Text Transformer», para manipulación y transformación de texto, incluyendo: Conversión a slug, extracción de partes específicas, cambios de mayúsculas/minúsculas, eliminación de espacios extra, reemplazo de texto, eliminación de puntuación, conteo de palabras/caracteres, conversión a formatos específicos, eliminación de duplicados, escape de HTML, eliminación de etiquetas HTML, normalización, eliminación de formato Markdown, análisis de frecuencia de palabras y recorte de texto.
- 06/10/2024: Mejoras en la ejecución masiva de flujos y plantillas:
- Ahora es posible seleccionar qué nodos específicos deben incluirse en los resultados retornados.
- Los resultados que se generan en formato CSV, como los que se envían al webhook, están disponibles como texto plano y con etiquetas HTML, ofreciendo mayor flexibilidad para el análisis posterior.
- Se ha perfeccionado el formateo Markdown a HTML en las salidas de flujos y plantillas, mejorando la legibilidad y estructura de la información.
- 06/10/2024: Expansión de capacidades en modelos y plugins:
- Los modelos de Google ahora son compatibles con el uso de plugins.
- Introducción de dos nuevos plugins: Búsqueda web con SpaceSerp e Intérprete de Código de Python (versión beta).
- Se introduce la posibilidad de procesar URLs de imágenes como entrada para modelos con capacidad de visión. Esta opción debe ser activada manualmente por el usuario y solo funcionará con modelos que soporten análisis visual.
- 06/10/2024: Actualizaciones en la interfaz de usuario:
- Nuevos íconos para identificar rápidamente las capacidades de los modelos (visión, búsqueda web, uso de plugins).
- Implementación de íconos de candado abierto/cerrado para distinguir fácilmente entre templates y flujos de código abierto y privados.
- 06/10/2024: Incorporación de nuevos modelos de IA:
- OpenRouter: ‘gemini-flash-1.5-8b’, ‘meta-llama/llama-3.2-3b-instruct:free’, ‘meta-llama/llama-3.2-3b-instruct’, ‘meta-llama/llama-3.2-1b-instruct:free’, ‘meta-llama/llama-3.2-1b-instruct’, ‘meta-llama/llama-3.2-90b-vision-instruct’, ‘meta-llama/llama-3.2-11b-vision-instruct:free’, ‘meta-llama/llama-3.2-11b-vision-instruct’, ‘o1-mini’, ‘o1-preview’.
- OpenAI: ‘gpt-4o-2024-05-13’, ‘o1-mini’, ‘o1-preview’.
- Google: ‘gemini-1.5-pro-002’, ‘gemini-1.5-flash-002’, ‘gemini-1.5-flash-8b’, ‘gemini-1.5-flash-8b-exp-0924’.
- Groq: ‘mixtral-8x7b-32768’, ‘llama-3.1-70b-versatile’, ‘llava-v1.5-7b-4096-preview’, ‘llama-guard-3-8b’, ‘llama-3.2-11b-vision-preview’, ‘llama-3.2-1b-preview’, ‘llama3-groq-8b-8192-tool-use-preview’, ‘llama3-groq-70b-8192-tool-use-preview’.
- Mistral: ‘pixtral-12b-2409’, ‘open-codestral-mamba’.
- 06/10/2024: Mejoras adicionales y correcciones:
- Se ha perfeccionado la detección de URLs poco comunes o potencialmente problemáticas en el scraper.
- Mejora en la visualización de los resultados de los agentes cuando se selecciona la opción paso a paso.
- Corrección de errores en la interfaz de usuario en las plantillas que mostraban una fecha de creación inexacta.
Septiembre 2024
- 04/09/2024: Se agregaron nuevos modelos de IA: ‘jamba-1-5-mini’, ‘jamba-1-5-large’ ( AI21Labs y Open Router), ‘gemini-flash-1.5-exp’, ‘gemini-flash-8b-1.5-exp’ (Google Gemini y Open Router), ‘gemini-1.5-pro-exp-0827’ (Google Gemini), ‘command-r-08-2024’ y ‘command-r-plus-08-2024’ (Cohere y Open Router), ‘yi-1.5-34b-chat’ y ‘phi-3.5-mini-128k-instruct’ (Open Router).
- 04/09/2024: Se corrigió un error al guardar plantillas con modelos de Google.
- 03/09/2024: Se solucionó un error al ejecutar en bulk plantillas y flujos con inputs de tipo opciones múltiples.
- 01/09/2024: Se reactivó la opción para webhooks. Ahora puedes enviar la ejecución de tus flujos y plantillas, de forma individual o en bulk, a otras aplicaciones.
- 01/09/2024: La ejecución en bulk de plantillas permite la selección de plugins y cambios en el modelo por defecto. En los flujos, permite reemplazar el modelo principal de ejecución.
Agosto 2024
- 30/08/2024: Nuevos proveedores añadidos: NeuronWriter, SpaceSerp, ValueSerp, Exa.ai, Tavily y ScrapeDo.
- 30/08/2024: Incorporado nuevo nodo «Search Engine» en los flujos.
- 30/08/2024: Añadida opción para obtener el contenido HTML completo al realizar scraping en una URL.
- 30/08/2024: Corregido error que ocurría al seleccionar «Excluir imágenes» en el Scraper, que daba como resultado la devolución del texto «alt» de las imágenes.
- 19/08/2024: Nuevos modelos de IA añadidos: ‘hermes-3-llama-3.1-405b’, ‘hermes-3-llama-3.1-405b:extended’ en Open Router; ‘llama-3.1-sonar-huge-128k-online’ en Open Router y Perplexity; ‘gpt-4o-2024-08-06’, ‘chatgpt-4o-latest’ en OpenAI y Open Router.
- 19/08/2024: Incorporado ScrapeOwl como proveedor de web scraping.
- 19/08/2024: Añadido nodo Scraper a los flujos.
- 19/08/2024: El plugin «Google Custom Search» ahora incluye un filtro para restringir resultados por fechas.
- 19/08/2024: Implementado un máximo de 3 reintentos en caso de fallo del servicio de Fal.ai.
- 19/08/2024: Solucionado error en flujos compuestos únicamente por modelos de imágenes, cuando fallaba uno de los servicios.
- 04/08/2024: FalAI añadido como plugin en plantillas y como nodo en flujos.
- 04/08/2024: Nuevos modelos añadidos: gemini-pro-1.5-exp, disponibles tanto en Google como en OpenRouter.
- 04/08/2024: Nuevos modelos añadidos: 01-ai/yi-large-turbo, disponibles en OpenRouter.
- 04/08/2024: Nuevos modelos añadidos: 01-ai/yi-large-fc, disponibles en OpenRouter.
- 04/08/2024: Nuevos modelos añadidos: 01-ai/yi-vision, disponibles en OpenRouter.
- 03/08/2024: Incorporados múltiples plugins para gráficos estadísticos.
- 03/08/2024: Leonard.ai ahora disponible como plugin para un agente.
- 03/08/2024: Añadido nodo de búsqueda en YouTube, con la capacidad de retornar subtítulos autogenerados si están disponibles.
- 03/08/2024: La búsqueda en YouTube ahora disponible como plugin para un agente.
- 03/08/2024: Nuevos modelos ‘mistral-large’ y ‘mistral-nemo’ disponibles en OpenRouter y Mistral.
- 03/08/2024: Nuevos modelos ‘llama-3.1-sonar-small-128k-online’, ‘llama-3.1-sonar-large-128k-online’, ‘llama-3.1-8b-instruct’, ‘llama-3.1-70b-instruct’, ‘llama-3.1-sonar-small-128k-chat’, ‘llama-3.1-sonar-large-128k-chat’ ahora disponibles en Perplexity.
- 03/08/2024: Eliminados los modelos anteriores en Perplexity, ya que serán retirados el 08/12/2024.
Julio 2024
Mejoras del producto:
- 24/07/2024: Se mejoró los mensajes de error en caso de que falle la ejecución de un servicio en un flujo o plantilla.
- 24/07/2024: Se agregó una capa de caché para reutilizar los resultados de algunas API (Google Custom Search, Frase, etc.)
- 24/07/2024: Se agrega Dalle y Stability como complementos en las plantillas y nodos.
- Ahora puedes indicar qué input aparecerá primero al momento de crear tus flujos.
- Al seleccionar una conexión en la interfaz de flujos, puedes agregar un nuevo nodo sin romper la secuencia. De la misma forma, al eliminar un nodo intermedio, la secuencia creada se mantiene.
- Se agrega el nodo «Frase Search» que permite obtener los clústeres de entidades de los resultados de búsqueda en las SERP de una palabra clave, así como estadísticas y el contenido del mismo.
- Se agrega el nodo de selección de imágenes («Image picker»), que elige el primer resultado de búsqueda de una imagen basada en una consulta. Soporta los repositorios de Pixabay y Pexels.
- Se agregan nuevos complementos para generar gráficos estadísticos y diagramas diversos.
- El complemento de buscador web realiza una de las siguientes tareas al momento de ejecutarse: scrapear, resumir o efectuar una búsqueda semántica dentro del contenido. La mejor acción la determina el agente. En el caso de resumen, utiliza el modelo ‘gpt-4o-mini’ y para la búsqueda semántica el modelo ‘text-embedding-3-small’.
- Se brinda la opción de conocer los pasos seguidos por un agente al usar complementos.
- Ahora se pueden scrapear varias URL y mostrarlas como un solo resultado en la herramienta de acceso rápido.
- Se puede elegir mostrar las fuentes en los resultados de modelos ‘command-r’ y ‘command-r-plus’ de Cohere.
- Ahora se puede configurar el tratamiento de las URL dentro de los prompts.
- Se corrige error al guardar flujos que contenían un prompt con variable del tipo múltiple.
- Se corrigen otros bugs menores.
Modelos añadidos:
- 24/07/2024: Se agregaron los modelos de Llama 3.1 a los proveedores Groq y OpenRouter.
- AI21Labs: Modelo ‘jamba-instruct-preview’.
- OpenAI: Modelo ‘gpt-4o-mini’.
- Stability: Modelos ‘core’ y ‘ultra’.
Nuevas Integraciones con proveedores de IA:
- 24/07/2024: Se agregó la integración de texto a imagen de Leonardo.ai.
- OpenRouter: Se agregaron múltiples modelos.
Abril – Junio 2024
Mejoras del producto:
- Duplicación de Nodos: Ahora se puede duplicar nodos de prompts de IA en los flujos.
- Nuevo Tipo de Nodo: Se ha añadido el nodo de «Texto fijo».
- Compartición Externa: Las salidas de los flujos y las plantillas ahora pueden compartirse externamente.
- Plugins en Plantillas: Se ha añadido la capacidad de usar plugins en plantillas que utilizan algunos modelos de Anthropic.
Modelos añadidos:
- OpenAI: Modelo ‘gpt-4o’.
- Stable Diffusion: Modelos ‘sd3’ y ‘sd3-turbo’.
- Cohere: Modelos ‘command-r’ y ‘command-r-plus’, que incluyen búsqueda de información actualizada en la web.
- Anthropic: Modelo ‘claude-3.5-sonnet’.
Nuevas integraciones con proveedores de IA:
- Google Gemini: Modelos ‘gemini-pro’, ‘gemini-1.5-pro-latest’ y ‘gemini-1.5-flash-latest’.
- Groq: Modelos ‘llama3-8b-8192’, ‘llama3-70b-8192’, ‘mixtral-8x7b-32768’, y ‘gemma-7b-it’.
- Mistral: Modelos ‘open-mistral-7b’, ‘open-mixtral-8x7b’, ‘open-mixtral-8x22b’, ‘mistral-small-latest’, ‘mistral-medium-latest’, y ‘mistral-large-latest’.
- Azure: Modelos ‘gpt-4o’, ‘gpt-35-turbo’, y ‘gpt-35-turbo-instruct’.
- Perplexity: Modelos ‘llama-3-sonar-small-32k-chat’, ‘llama-3-sonar-large-32k-chat’, ‘llama-3-8b-instruct’, ‘llama-3-70b-instruct’, ‘mixtral-8x7b-instruct’, ‘llama-3-sonar-small-32k-online’, y ‘llama-3-sonar-large-32k-online’, estos últimos dos permiten obtener información actualizada de la web.
Bulk Jobs (Beta):
Se ha introducido la opción beta para ejecutar plantillas y flujos en grupos de 100, conocidos como «bulk jobs». Estas ejecuciones utilizan un sistema de créditos, donde ejecutar una plantilla consume un crédito y un flujo diez créditos. Esta funcionalidad puede variar conforme avance a una versión estable.
Enero – Marzo 2024
Actualización de Plantillas y Flujos:
- Versión Estable de Plantillas: Después de un extenso período de pruebas beta, las plantillas han sido optimizadas y ahora forman la versión estable. Para aquellos que prefieren la versión anterior, sigue siendo accesible a través del menú de legado.
- Versión Estable de Flujos: De manera similar a las plantillas, los flujos han sido corregidos por errores identificados durante su fase beta y ahora han pasado a una versión estable. La versión anterior continúa estando disponible en el menú de legado para su uso.
Mejoras en Integración y Funcionalidad:
- Importación de Plantillas y Flujos: Se ha introducido una nueva característica que permite la importación de sus versiones anteriores de plantillas y flujos a la nueva versión, haciendo la transición y actualización de sus proyectos más fluida.
- Actualización de Modelos Claude: Se han incorporado las últimas versiones de los modelos Claude, asegurando el acceso a las más recientes mejoras en inteligencia artificial.
- Prompts Predefinidos: Hemos añadido una amplia selección de prompts predefinidos, diseñados para impulsar su creatividad y eficiencia en la generación de contenido.
- Interfaz Rápida para Herramientas de IA: Presentamos una nueva interfaz que le permite traducir, resumir y reescribir texto de manera eficiente, apoyada por múltiples modelos de IA para realizar estas tareas de manera más efectiva y precisa.
Lanzamiento de Nuestro Nuevo Sitio Web:
- AI Content Labs: Estamos emocionados de anunciar el lanzamiento de nuestro nuevo sitio web www.aicontentlabs.com, donde puede encontrar información detallada sobre todas nuestras herramientas, servicios y las últimas actualizaciones. Le invitamos a explorarlo y descubrir todo lo que hemos preparado para usted.
Estas mejoras están dirigidas a enriquecer su experiencia y expandir las capacidades de nuestros servicios, asegurando que tenga las herramientas más avanzadas para sus proyectos de contenido.
Agosto – Diciembre 2023
Se ha introducido una nueva interfaz para la creación de plantillas (beta) con las siguientes mejoras:
- Diferenciación entre modelos de «chat» y «completación» para agregar mensajes del sistema.
- Capacidad para probar la funcionalidad de la plantilla desde la interfaz de edición.
- Configuraciones tanto simples como avanzadas para ajustar los parámetros de inteligencia artificial.
- Opción para probar múltiples modelos de IA simultáneamente.
- Integración de modelos de Anthropic y Google, además de los previamente incluidos.
- Configuración avanzada para varios tipos de variables, como texto, URL, listas de selección y selección de valores aleatorios.
- Soporte para el uso de complementos en plantillas.
El lanzamiento de una nueva interfaz para la creación de flujos (beta) destaca las siguientes características:
- Los flujos operan independientemente de las plantillas, permitiendo la creación directa de prompts.
- Capacidad para incorporar la creación de imágenes dentro de los flujos.
- Soporte para la división de texto en flujos hasta tres niveles.
- Creación de entradas repetibles y conectadas, ideal para esquemas individuales.
- Funcionalidad para probar flujos directamente en la interfaz de creación.
- Posibilidad de sobrescribir el modelo específico de IA para la ejecución del flujo.
- Opción para duplicar nodos dentro del flujo desde la interfaz.
Actualización del Modelo OpenAI: Los últimos modelos de OpenAI han sido agregados en la plataforma.
Se ha añadido una base para integrar servicios complementarios como complementos, facilitando la integración con Google Search, Wikipedia y Wolfram Alpha.
15 de julio de 2023
- Lanzamiento de Addon para Google Sheets.
7 de julio de 2023
- Reactivación del historial de generación para flujos y plantillas.
- Acceso rápido al historial de generación durante la sesión añadido, accesible desde el widget en la esquina inferior derecha de tu pantalla.
22 de junio de 2023
- Añadido un botón para transferir todas las claves API del líder del equipo a un miembro.
- Ahora, al añadir una API de servicio, se realizará una verificación para comprobar si es una API válida.
- Ahora es factible raspar, resumir y reescribir desde cualquier parte de la aplicación a través del botón ubicado en la esquina inferior derecha.
13 de junio de 2023
- Añadidos nuevos modelos de OpenAI (gpt-4-32k y gpt-3.5-turbo-16k), AI21labs (j2-ultra, j2-mid y j2-light), y Aleph Alpha (Luminous-Base-Control, Luminous-Extended-Control, y Luminous-Supreme-Control).
- Si tienes la clave API para AI21Labs o Frase configurada, podrás raspar URLs. Para las URLs de YouTube, estos servicios no serán necesarios (la información solo se obtendrá de YouTube si el video tiene subtítulos).
- Las URLs ahora pueden ser procesadas dentro del editor de documentos, plantillas y flujos (Nota: Para ser procesadas, el contenido de las URLs será resumido usando ya sea el modelo gpt-3.5-turbo-16k de OpenAI o el modelo de resumen de Cohere).
- Los líderes de equipo ahora deben configurar su clave API para cada uno de sus miembros del equipo.
30 de mayo de 2023
- Reactivado la opción de resumen en el editor de documentos, accesible desde la lista de botones del editor y seleccionando un texto o utilizando la funcionalidad de búsqueda de la integración de Frase.
- Añadido soporte para múltiples modelos, incluyendo Cohere, AI21Labs (solo en inglés), Aleph Alpha, y OpenAI (gpt-3.5-turbo, gpt-4, text-davinci-003) para el resumen.
- Habilitada la opción de Frase para los miembros del equipo.
- Introducidos tonos de voz en el editor de documentos y la función de resumidor.
15 de mayo de 2023
- Ahora ofrecemos la opción de ofrecer claves API personalizadas a los miembros del equipo.
- Hemos añadido una vista del historial de uso de créditos para los miembros del equipo.
- Ahora se puede conceder acceso específico a cada miembro del equipo para las plantillas y flujos del administrador.
7 de mayo de 2023
- Hemos añadido funcionalidad de equipo.
- Ahora está disponible la capacidad de añadir más webhooks basados en el número de miembros del equipo.
24 de marzo de 2023
- Añadido el modelo GPT-4.
- Aumentado el tiempo máximo de ejecución de plantillas a 270 segundos.
- Añadida la funcionalidad de auto-guardado a los documentos. Este cambio también ha afectado al auto-guardado para generaciones de texto en el editor de documentos, donde el contenido producido con el botón «Componer» y «Generar» ya no se guardará en el historial para evitar duplicados. Sin embargo, esta modificación no se aplica a las plantillas o flujos ejecutados en el editor de documentos, que continuarán apareciendo en el historial.
- En el modo Fácil del editor de documentos, los usuarios ahora pueden cambiar el proveedor y el modelo para generar contenido. Nota: Solo se incluyen los modelos más avanzados de cada proveedor.
10 de marzo de 2023
- Se han añadido los modelos Jurassic-2 de AI21Labs.
- Las salidas de plantillas y flujos ahora interpretan la sintaxis mermaid.
- Las salidas generadas en el editor de documentos interpretan la sintaxis Markdown.
- Se han corregido errores menores al eliminar una plantilla que estaba asociada con un flujo.
1 de marzo de 2023
- La API de ChatGPT está integrada en el editor de documentos, plantillas y flujos.
- Añadida la capacidad de compartir plantillas y flujos entre usuarios de la plataforma.
- Ahora se puede hacer opcional la ejecución paso a paso de un flujo.
- Añadido el auto-formato para Markdown en las salidas de flujos, plantillas y vista de historial.
- Añadido el modelo Supreme-control de Aleph Alpha.
- Ahora puedes eliminar hasta 15 documentos a la vez.
- Los flujos de código abierto permiten la duplicación de las plantillas que comprenden.
- Añadidos los modelos de resumen de Aleph Alpha y Cohere en el editor de documentos.
4 de febrero de 2023
- Los resultados divididos por nodos de párrafo ahora pueden ocultarse en flujos.
- Añadida la búsqueda de flujos y plantillas dentro del editor de documentos.
- Los modelos de Cohere fueron actualizados.
16 de enero de 2023
- Ahora se pueden añadir imágenes y videos de YouTube al editor de documentos usando enlaces.
- Aumentado el límite de caracteres para la entrada marcada como dividida en párrafos a 20,000.
- Los flujos ahora pueden encadenar hasta 10 plantillas e incluir 15 entradas.
- Ahora se pueden añadir pesos negativos en el patio de juegos de imágenes para el proveedor Stability.
- Todas las palabras clave de Frase ahora pueden copiarse al editor de documentos.
- El formato rápido de Markdown puede aplicarse al contenido en documentos.
- Añadida la opción de parafraseo con la API de AI21 Labs en el editor de documentos.
- Añadida la opción de resumen en el editor de documentos (Hasta 50,000 caracteres).
- Añadida la opción de reescritura en el editor de documentos (Hasta 50,000 caracteres).
- Ahora puedes ejecutar múltiples flujos, plantillas, resúmenes, reescrituras e imágenes con un solo clic en el editor de documentos usando códigos cortos.
16 de diciembre de 2022
- Añadida la opción de ejecutar flujos paso a paso para propósitos de depuración.
- Se añadieron opciones de integración con las APIs de DeepL y Google Translate para traducción dentro de la plataforma.
- Añadido el atajo de teclado Ctrl+Shift+Enter para ejecutar un comando.
- Añadido un modo fácil en el editor de documentos.
30 de noviembre de 2022
- Añadida la opción de cambiar el modelo en el momento de la ejecución de la plantilla.
- Añadido un modo oscuro.
- Añadida integración con la API de Frase.