Apple ha presentato un modello di AI per la modifica delle immagini basato su comandi di testo
Laurenz Heymann/Unsplash.
Apple, insieme ai ricercatori dell'Università della California, ha sviluppato e pubblicato un modello di intelligenza artificiale chiamato MLLM-Guided Image Editing (MGIE). Consente di apportare modifiche alle immagini sulla base di istruzioni testuali in linguaggio naturale.
Ecco cosa sappiamo
MGIE utilizza la tecnologia dei modelli multimodali di grandi linguaggi. Ciò consente di interpretare comandi brevi e ambigui dell'utente per modificare ulteriormente le foto. Ad esempio, il comando "rendi più sana" per uno scatto di pizza può essere interpretato dall'intelligenza artificiale come la necessità di aggiungere ingredienti vegetali.
Oltre ad apportare modifiche importanti ai contenuti, il modello è in grado di eseguire operazioni di base come il ritaglio, la rotazione, il ridimensionamento e la correzione del colore delle immagini. L'intelligenza artificiale può anche elaborare singole regioni per trasformare determinati oggetti.
MGIE è disponibile su GitHub. Inoltre, Apple ha pubblicato una versione demo del servizio sulla risorsa Hugging Face.
Non è ancora noto se l'azienda intenda integrare la tecnologia nei propri prodotti.
Fonte: Engadget