Tilbage til bloggen

AI unhyped: Visuel input og output

AI unhyped: Visual input & output

Dette indlæg er fra vores e-mail nyhedsbrev. Tilmeld dig her til at modtage regelmæssige opdateringer om AI fra Applai.

AI uhyped

Hej  👋, det er Mathias fra Applai. Her er hvad du behøver at vide til 16. oktober 2023 i 3 minutter og 52 sekunder.

I denne udgave dækker vi:

  • Nye visuelle muligheder i ChatGPT
  • Sådan får du ChatGPT til at generere billeder for dig
  • Nyheder fra Applai

Så når du har læst dette nyhedsbrev, vil du både vide, hvordan du bruger billeder som input og som output i ChatGPT, og oven i købet vil du vide, hvad vi har gang i for øjeblikket i Applai ... Men først:

Hvorfor laver vi nu et nyhedsbrev?

Hvis du følger AI-nyheder på LinkedIn eller X (tidligere kendt som Twitter), bliver du sandsynligvis bombarderet med historier om, hvordan et eller andet vilkårligt nyt lille værktøj vil "revolutionere" verden, som vi kender den. Det er faktisk sjældent tilfældet.

Se for eksempel indlæg som dette... "Det har ændret alt"... Virkelig? 🤔

Så hvorfor har vi brug for en anden AI-nyhedskilde, spørger du måske. Denne sensationslyst på sociale medier er præcis hvorfor vi synes, vi har noget at bidrage med i dette nyhedsbrev, "AI unhyped". Heri piller vi larmen væk, og skriver om de nyheder og nye funktioner, som vi synes er fede. Og hvis der er en uge, hvor der ikke sker noget større, sender vi bare ikke et nyhedsbrev.

Både Victor og jeg er glade for at rejse med dig. I denne uge fokuserer vi udelukkende på nye visuelle muligheder i ChatGPT fra OpenAI. Nye funktioner bliver rullet ud til brugere, der gør det muligt for ChatGPT både at forstå visuelle input og generere visuelle output. Og det synes vi er ret fedt. Klar til at dykke ned i denne uges indsigt? Her går vi! 👇

Denne uges historier:

Visuelt input i ChatGPT: GPT-4V

Billeder taler højere end ord - måske også til ChatGPT...

Hvad sker der her?

GPT-4V er det seneste barn på blokken og gæt hvad? 'V'et' står for vision. I ChatGPT kan brugerne nu bruge den nyeste version af GPT-4V, som har evnen til at forstå og behandle visuelle input. Det betyder, at du kan vedhæfte et billede med din prompt, og lade ChatGPT forstå både teksten og billedet 📸 Du kan læse mere om, hvordan det fungerer, og hvordan det er beskyttet her: OpenAI's GPT-4V Deep Dive

Hvad betyder det?

Det handler ikke længere kun om tekstanalyse. Uanset om det er et billede af en håndskrevet note eller en dårlig tegning, kan ChatGPT dechifrere og generere svar baseret på det. Hvor fedt er det? 🤯

For ikke så længe siden var vi for eksempel nødt til at finde på et navn til dette nyhedsbrev. Hvor gammeldags det end lyder, brainstormede vi på nogle navne (OK, vi fik ganske vist lidt hjælp til den del fra ChatGPT), skrev de navne, vi kunne lide mest på Post-It-sedler, og bad derefter nogle gode venner af Applai om at stemme på det navn, de foretrak. Vi tog blot et billede af noterne, uploadede det til ChatGPT og bad det om at dokumentere vores lille session. Se hvordan det gik her:

Det er fedt, ikke? Og det ville selvfølgelig ikke have været så stor en opgave at dokumentere afstemningerne mellem vores tre navneforslag, men forestil dig mulighederne i dette med meget større sessioner eller workshops. Du kan se andre gode eksempler på use-cases af ChatGPT med GPT-4V fra X-brugeren, Nomad, her.

Hvorfor skulle jeg bekymre mig?

For ChatGPT Plus-brugere er dette en superfed ny funktion. Men selvom du ikke er Plus-bruger, er her et lusket tip: du kan give det et spin gratis på Bing Chat.

I øjeblikket er GPT-4V ikke tilgængelig gennem en åben API som det er tilfældet for f.eks. tekstversionen af ​​GPT-4. Men OpenAI har annonceret, at en GPT-4V API vil være tilgængelig senere på efteråret. Vi kan i Applai selvfølgelig ikke vente med at få fingrene i GPT-4V gennem API'et, så vi kan begynde at bygge det ind i Applai Chat 🛠️ Men indtil videre er vi også ret begejstrede for bare at lege med det på ChatGPT...

Fortsæt med at læse:

OpenAI's GPT-4V Deep Dive

Tråd på X med use-cases af Nomad.

OK, det var visuelle input i ChatGPT. Men ChatGPT kan nu også generere billedoutput:

Visuelt output i ChatGPT: Dall-E 3

Kunstig intelligens møder Picasso.

Hvad sker der her?

DALL-E 3 er den nyeste version af billedmodellen fra OpenAI, og den bringer med sig evnen til at generere visuelle output. Det giver brugerne en unik mulighed for at blive kreativ med kunstgenerering, billeder og grafik. Og dette bliver også rullet ud til brugere i ChatGPT lige nu.

Hvad betyder det?

Lad os sige, at du har brug for en visuel repræsentation til et projekt. Du kan måske skitsere en indledende idé og med DALL-E 3 forfine det koncept til en mere poleret grafik. Dette kan bruges til logoer, illustrationer eller andet visuelt indhold for den sags skyld. Nu kan du gøre alt det inde i ChatGPT og få billedoutput ud af ChatGPT.

For nylig forsøgte vi at konvertere nogle af vores brainstormede skitser til detaljerede billeder ved hjælp af DALL-E 3. Se resultaterne her:

Hvorfor skulle jeg bekymre mig?

For dem, der har adgang til ChatGPT Plus, er DALL-E 3 en ekstra funktion, du kan udforske. Hvis du ikke er Plus-bruger, et tip: Du kan eksperimentere med en lignende funktionalitet på Microsoft Bing Image Creator uden omkostninger.

Fortsæt med at læse:

OpenAI's Dall-E 3 forklaret

Kan du ikke vente med at begynde at generere billeder i ChatGPT? Måske skulle du bare for at læse denne uges sidste historie, hvor vi forbinder prikkerne... Visuelt input, billedoutput 🤯

GPT-4V & DALL-E 3 i ChatGPT

ChatGPT: Fra Vision til Visuals

Hvad sker der her?

Ved at integrere mulighederne i GPT-4V og DALL-E 3 kan ChatGPT nu ikke kun forstå visuelle input, men kan også generere og forfine visuals - på samme tid!

Hvad betyder det?

Har du en grov skitse til et projekt? Du kan potentielt forfine og transformere dette koncept til en detaljeret grafik. Kombinationen af ​​GPT-4V og DALL-E 3 i ChatGPT udvider helt sikkert grænserne for, hvad vi kan opnå visuelt.

For eksempel brugte vi for nylig denne kombination til at omdanne en simpel doodle lavet under en team-brainstormsession til en detaljeret illustration. Resultatet? En visuelt tiltalende gengivelse af vores oprindelige idé, og noget, der i hvert fald er meget tættere på for eksempel at blive delt med kunder eller interessenter.

Hvorfor skulle jeg bekymre mig?

GPT-4V og DALL-E 3 er virkelig fede funktioner i ChatGPT i sig selv, men tilsammen muliggør de virkelig en masse nye use-cases til ChatGPT. Vi tror stadig ikke, at noget af dette vil erstatte gode grafiske designere, men nu er tidlige faser og idéer om visuelle projekter meget tilgængelige for alle inde i ChatGPT - og så kan du ringe til en designer til de udfordrende opgaver.

Det var alle eksterne nyheder for den seneste uge. Men da vi har din opmærksomhed, vil vi også gerne dele nogle af de ting, vi har gang i i Applai.

Seneste nyt fra Applai...

Hvad er der sket i Applai for nylig? Vi har haft travlt med alverdens ting, men blandt højdepunkterne er selvfølgelig lanceringen af ​​netop dette nyhedsbrev, du læser. Vi er rigtig spændte på at høre, hvad du synes om det, og hvis du har nogle forslag til ting, vi bør gøre anderledes. Ræk ud til mathias@applai.io hvis du har kommentarer - hører vi gerne fra dig.

Udover vores nyhedsbrev har Victor haft travlt med præsentationer og kurser i den seneste uge. Han havde blandt andet kursusdag i Køge i denne uge, med en gruppe super engagerede fagfolk fra lokale virksomheder. Tjek LinkedIn-opslaget om den oplevelse her.

Deling og feedback

Det var alt fra denne første udgave af AI unhyped. Hvordan gjorde vi,? Ræk ud til mathias@applai.io hvis du har feedback. Og hvis der er nogen nyheder, du mener fortjente en plads i dette nyhedsbrev, men ikke fik en, vil vi meget gerne høre om det!

Og vi er selvfølgelig også meget glade, hvis du hjælper os med at sprede budskabet. Så del venligst AIunhyped med dine kolleger og venner. Del dette tilmeldingslink med dem 💌

Indtil vores næste udgave

Mathias Villads ✌️

Tilbage til bloggen