Midjourney usa difusão estável?
Com os avanços na IA, agora você tem uma tonelada de serviços que podem ajudá-lo a criar qualquer coisa do zero, até mesmo arte. Uma das ferramentas populares que surgiram recentemente é o Midjourney, um gerador de imagens de IA que pode criar obras de arte impressionantes usando prompts de texto em questão de segundos.
Midjourney usa difusão estável?
Uma simples pesquisa na web revelaria que tipo de tecnologia é usada em ferramentas de geração de imagens como DALL-E e Stable Diffusion. Por exemplo, Stable Diffusion usa um modelo de difusão latente (LDM) que foi desenvolvido pelo grupo CompVis em Munique, bem como um codificador de texto CLIP ViT-L/14 para condicionamento de texto.
Quando se trata de Midjourney, seus criadores não oferecem nenhum tipo de informação sobre quais modelos de treinamento eles usam, ou como tudo acontece, nem divulgaram seu código-fonte ao público. No momento da redação deste artigo, a ferramenta atualmente é executada em seu modelo V5, lançado em 15 de março de 2023. É uma atualização do modelo V4 baseado em uma nova arquitetura e base de código de IA.
Midjourney diz que os novos modelos foram projetados por eles mesmos e foram treinados em seu próprio superaglomerado de IA. O modelo V5 da Midjourney suporta alta coerência e oferece todos os outros recursos avançados encontrados no modelo V4, como solicitação de imagem, multiprompts e a capacidade de adicionar detalhes menores com criaturas, lugares e objetos.
Embora não afirme usar o Stable Diffusion, especula-se que as alterações feitas no modelo Midjourney V5 resultam em imagens bastante semelhantes às feitas por meio do Stable Diffusion v2. Portanto, existe a possibilidade de Midjourney estar usando uma versão diferente do modelo de difusão latente que alimenta o Stable Diffusion ou compartilha certos elementos do Stable Diffusion v2.
Como o Midjourney difere da difusão estável
Com base nas respectivas operações, a Stable Diffusion incentiva um modelo de código aberto, pois compartilha seu código-fonte para que outros o usem ou desenvolvam. Qualquer pessoa pode usar seu código e projetar seu próprio modelo ajustando a configuração da maneira que desejar usando a difusão estável. Esse não é o caso da Midjourney, pois a empresa oferece sua ferramenta de geração de imagens como um produto proprietário, onde afirma desenvolver e treinar o modelo por conta própria e ainda não lançou um código-fonte para uso de terceiros.
Quando se trata de entrada, o Midjourney usará seu conceito principal e adicionará elementos próprios para gerar imagens. Nesse processo, algumas de suas palavras-chave de entrada podem ser ignoradas durante a geração, pois a ferramenta criará suas próprias iterações com cores, iluminação e outros elementos relevantes. Se você deseja replicar essas imagens no Stable Diffusion, você terá que fornecer um prompt mais longo com mais detalhes do que você pode ter inserido no Midjourney.
As imagens criadas no Stable Diffusion podem parecer semelhantes e aleatórias àquelas que você gera usando o DALL-E. A produção de Midjourney às vezes pode parecer única, muitas vezes inclinando-se para fundos mais escuros ou mais dramáticos. Você pode criar imagens de aparência distinta no Midjourney com prompts decentes, enquanto pode precisar adicionar mais detalhes e ser mais específico se desejar gerá-los no Stable Diffusion. Isso pode ser bom ou ruim, dependendo do nível de personalização que você deseja aproveitar.
Em termos de uso, é o Stable Diffusion que oferece a biblioteca para criar mais imagens, pois pode ser usado gratuitamente e, na maioria das vezes, você possui os direitos das imagens que gera. Midjourney, por outro lado, oferece apenas uma avaliação limitada que você pode usar para gerar até 25 criações. Depois disso, pode ser necessário assinar o nível pago, o que pode custar de US $ 8 a US $ 48 por mês, e seus direitos de uso podem variar dependendo do plano que você assina.
Isso é tudo o que você precisa saber sobre se o Midjourney usa difusão estável.
Deixe um comentário