15 minute read

n REPORTAGE: AI-FOTOGRAFI

Next Article
n INTERVJU: KODAK

n INTERVJU: KODAK

Text: Michael Dee Foto: Canon, Skylum, Robbie Barratt, Obvious Art/Christie’s, Trevor Paglen, Rizzoli & Stephanie Dinks

Ett verktyg i fotografi och bildskapande

Advertisement

Utvecklingen med AI inom kamera- och redigeringsteknologi går riktigt snabbt just nu. Det blir allt svårare att avgöra var gränsen går mellan att ta en bild, redigera och manipulera den. Och här är det framför allt två sektorer som driver på – mobil- och proffskamerasektorn. Det är inte bara proffs som vill kunna ta bättre bilder, utan även amatörer, med sina mobiltelefoner. På annat håll har teknologin skapat en helt ny estetik inom konsten.

Lanserad i september. Canon EOS R3 är utrustad med ögonspårning. Användaren tittar genom kameran, AI-systemet registrerar vad användaren tittar på, och tar bilden.

AI har snabbt blivit vad man kallar ett “buzzword” inom fotografi, och utvecklingen går så snabbt att i stort sett alla smartmobiler idag är utrustade med någon form av artificiell intelligens för sina kameror. Med dessa AIprocessorer behöver amatören bara rikta kameran mot objektet och så registreras motivet automatiskt. AI:n räknar ut vad som är förgrund och bakgrund, anpassar bildformatet efter ljusförhållandena i miljön och mycket mer. När fotot väl är taget tillåts användaren att justera färgnivåer, ytterlig-

Men det händer mycket på kamerasidan också. De mer sofistikerade AI-kamerorna är idag utrustade med röstaktivering. Och nej, vi pratar inte om röstkomandon för att knäppa en bild, här rör det sig snarare om mer avancerade kommandon för att exempelvis ta ljussvaga eller -starka bilder, eller filma i slowmotion.

Utvecklingen går snabbt även inom redigering på mjukvarusidan. Här har vi bland annat Adobe Lightroom och Sensei, som möjliggör för blixtsnabb redigering av bilder. Även i den senaste versionen av

Photoshop finns ett porträttfilter liknande det som finns på mobiler och ett AI-filter kallat Depth Blur som låter användaren bestämma skärpedjupet och sudda ut bakgrunden på ett intelligent sätt. Sensei använder AI för att automatiskt redigera även mycket omfattande bildmaterial, där den kan känna igen objekt och dessutom lägga till rörelser och djup, justera positionen på människor och objekt, eller färglägga svartvita bilder. Alltså flera saker som brukade

Djup inlärning är det vi koncentrerar oss mest på för det är där vi kan utföra de största förbättringarna. MICHAEL BURNHILL

are ljusinställningar och kan till och med byta ut bakgrunden om hen vill.

AI-teknologin i mobilkameror fokuserar delvis på att kompensera för avsaknaden av zoomobjektiv och simulering av komplexa linssystem. AI-systemen studerar även vilka bilder du tycker om att ta och anpassar kamerans inställningar därefter. En del mobilkameror utför även automatisk retuschering, till exempel utjämning av hudtoner och borttagning av fläckar i hud. ta upp väldigt mycket tid för fotografen och redigeraren.

Skylum

Skylum tillhör pionjärerna inom AIredigering, och deras mjukvara Luminar AI var deras första AI-baserade mjukvara. Det var smidigt att använda för amatörer, billigt i förhållande till proffsmjukvarorna, men ändå väldigt avancerat. Den känner igen och kan urskilja olika typer av objekt och områden i ett motiv, inte bara toner och färger. Den är också utrustad med funktionen AI Sky Replacement som möjliggör för snabbt byte av himmel, och addering av moln, ljus, stjärnor och reflektioner i vatten.

Hur AI-verktygen än kommer att utvecklas så talas det redan om stora förändringar i form av besparingar för en del, och färre arbetstillfällen för andra. Låt oss ta mäklarna som ett exempel. En proffsfotograf sa nyligen till mig: “Varför ska jag anlita en proffsfotograf att fotografera en lyxig lägenhet som en sommarvikarierande gymnasielev kan fixa?”

Europachefen för Canon

Så var är utvecklingen på väg? Vi frågar Michael Burnhill, Europachef för teknisk

Den AI-baserade mjukvaran Luminar AI gör det möjligt att snabbt ändra karaktär på till exempel bilder av landskap och städer.

support på Canon, ett av de branschledande företagen inom AI och kamerateknologi.

När började Canon utforska AI?

– Vi började faktiskt med AI redan på 90-talet, inte AI som vi förstår det idag utan det som kallades “fuzzy logic”. Arbetet drevs på av vår ambition att få våra kameror att se som en människa ser, och fatta de beslut som våra hjärnor gör. I början var det dock inte stillbildskameror vi främst var inriktade på, utan videokameror. De tidigaste videokamerorna hade fokusering som flippade fram och tillbaka så att man närmast blev sjösjuk så Canon jobbade stenhårt för att skapa system som höll, ja, Hollywoodstandard. Videokameror som filmade som

Michael Burnhill, Europachef för teknisk support på Canon. Företaget gav sig in i AI redan på 90-talet, i form av “fuzzy logic”.

Med kameran Canon EOS 1D X Mark III klev Canon på allvar in i AI-världen. PowerShot PICK använder AI för att upptäcka, känna igen, följa och fotografera till exempel en individ i en folksamling.

Kreativt fotografi går inte att ersätta. Där krävs fantasi. MICHAEL BURNHILL

hjärnan uppfattar rörelser i omgivningen, mjukt och naturligt, inte att fokus gick ut och in hela tiden.

Canon EOS 1D X Mark III, som lanserades i januari 2020, var utrustad med just ett sådant där AI-baserat fokuseringssystem. – Det var där vi på allvar introducerade djupinlärnings-algoritmer i våra kameror, med kraftfulla processorer, och än viktigare “detection power”, så att kameran känner igen objekt i tillräckligt hög upplösning. Metering-sensorn på 1D är tillräckligt kraftig för det. Vårt system kan känna igen färger och ansiktsformer men nästa steg var att känna igen även ögon.

Canon PowerShot PICK

Ett annat viktigt framsteg var Canon PowerShot PICK, som använder AI för att upptäcka, känna igen, följa och fotografera, till exempel en individ i en folksamling. – Det är en väldigt praktisk funktion. Rent allmänt vill vi med AI hjälpa folk att ta bättre bilder och hur kameran interagerar med människor. Marknaden för kompaktkameror har närmast gått upp i rök på grund av mobiler, så vi tittar på andra typer av kameror som tar bättre bilder. Bilder av typen “le för kameran” blir ganska stela. De bästa bilderna kommer till i de oväntade, magiska ögonblicken. Med Instagram och allt annat är vi omgivna av bilder och folk vill kunna ta bättre bilder för att kunna hävda sig. Folk som inte är fotografer vet hur bra, spännande bilder ser ut och AI ska hjälpa dem att ta dem. Där kameran lär sig vad den ska ta bilder av. Våra system är baserade på djup inlärning eftersom våra kameror, till skillnad mot mobiler, inte är kopplade till någon server i molnet. De arbetar i isolering och måste fungera var användaren än befinner sig, om det är på en savann eller Nordpolen. Och det är stabiliteten som är så viktig för proffsen. De processorer som sitter i våra kameror har kanske bara 25% av den styrka som finns i en mobil men å andra sidan ska en mobil klara av så mycket annat också.

I höst lanserar ni EOS R3. Kan du berätta om hur AI används i den?

– Den kommer att ha en ännu starkare Pattern Matching-funktion. Den kan följa objekt i extremt hög fart, till exempel bilar i formel 1 och känna igen den, ihop med hjälmen på föraren, och ansiktet. En annan finess på R3 är Eye Tracking, där användaren tittar genom kameran, AI registrerar vad användaren tittar på, och tar bilden. Det är som ett interface mellan hjärnan och ögat. Om en kändisfotograf som jobbar för en tabloid och som står bredvid röda mattan så är sannolikt stjärnan i den inhemska dokusåpan mer intressant än Brad Pitt och det är bara att rikta ögat.

Finns det aspekter av AI som Canon beslutat att undvika?

– Djup inlärning är det vi koncentrerar oss mest på för det är där vi kan utföra de största förbättringarna. I traditionell fotografi var det en massa olika element som skulle klaffa, fokusering, komposition, exponeringstid, bländare, djup etcetera. Alltså det rent mekaniska. Vad vi vill göra är att ta bort allt det och låta folk vara kreativa i stället. Och de allra bästa fotograferna jag har träffat genom åren är också de minst tekniska individer jag stött på! Kameran är ett verktyg för deras idéer. Vi satsar på djup inlärning och undviker personlig inlärning eftersom det är baserat på hur pass bra individen är som fotograf. Förbättring innebär att mjukvaran kan analysera att vissa delar av en bild behöver högre upplösning än andra, minska ljusföroreningar med mera och utföra det selektivt så att det inte ser kantigt ut. Ljusföroreningar syns till exempel bättre på en himmel än i en skog.

Många proffsfotografer betonar också snabbheten som AI gett dem.

– Snabbhet är A och O. De behöver snabbt kunna skicka i väg bilder, ladda upp på sociala medier etcetera. Alltså ta bilden, och snabbt redigera den. Som exempel kan jag nämna att vid 100-metersloppet på

Olympiaden i Tokyo, så tog det mindre än 30 sekunder för fotograferna som använde Canon att ta bilden av mållinjen, redigera den, och förse den med textfil, till att deras kunder mottog bilden, eller att de laddade upp den till en bildbyrå. I filen ingick också all data, exakt när bilden togs, av vem, GPSkoordinater och pris. Det är riktigt snabbt! På den tiden då fotografer använde film tog det 24 timmar att vända på en bild.

Dålig AI?

AI har blivit ett “buzzword”. Finns det exempel på dålig användning av AI inom fotografi? – AI kommer i så många olika former. Men det finns också en regel som säger, “Skräp in, skräp ut”. En av Canons fördelar är vår storlek, att vi har ett nätverk av fotografer och agenturer vi kan anlita för djup inlärning. Det är därför vi har blivit branschledande. Jag vill också påpeka att vi i inlärningsprocessen också kastar in dåliga bilder, suddiga, dåliga kompositioner etcetera, så att systemen lär sig skillnaden mellan bra och dåliga bilder. Till skillnad mot våra konkurrenter så har vi många olika avdelningar inom företaget som vi drar nytta av, till exempel övervakningskameror och medicinska kameror. Det finns många korsbefruktningar mellan dem både vad gäller idéer och teknologi. Så om du tar vår ögonspårning på EOS R3, så utvecklades det systemet ursprungligen för medicinskt bruk, för att undersöka ögon.

Det finns idag en hel del oro bland många proffsfotografer, att de kommer förlora mycket jobb?

– Det handlar om rutinmässiga bilder, tagna enligt löpande band-principen. Ta bara alla bilder som ska tas till e-handeln. Den sidan är under snabb och dramatisk utveckling och går inte att stoppa. Men kreativt fotografi går inte att ersätta. Där krävs fantasi. Problemet för många fotografer är de där tråkiga jobben som betalade hyran för studion.

I dagsläget varnas det för ett antal sektorer där proffsfotografer kommer att få stark konkurrens från AI. Rutinmässiga porträtt, personalfoto, bilder av produkter, mat- och arkivfoto, är alla områden där AI börjat användas. En sektor där man åtminstone i dagsläget tycks ta det lugnt är inom bröllopsfotografi och det beror på att jobbet inte bara kräver teknisk skicklighet, utan också en hel del psykologi för att kunna dirigera större grupper.

Men det är inte bara konkurrensen som oroar fotografer. Många varnar för att AI kommer innebära en utslätning, ett AIutseende helt enkelt, där bilder ser likadana ut och saknar all tillstymmelse till personlighet. Men när jag pratade med den engelske modefotografen Miles Aldridge förra året ansåg han att denna process redan varit i gång ganska länge i det internationella toppskiktet. Och det är här Miles befinner sig. Han har skapat sig en stark profil med sina film noirinspirerade bilder i pangfärger, som bland annat visats på Fotografiska i Stockholm och New York. Miles använder fortfarande film och anser att utslätningen började då de flesta övergick till digitalt fotografi. – De fotografer som inspirerade mig var namn som kom fram under perioden 1950–1970, som Helmut Newton, Richard Avedon och Irving Penn. De hade var och en ett eget sätt att hantera filmens begränsningar, framför allt de svarta tonerna. De jobbade med sina egna assistenter som de lärt upp under lång tid. När man öppnade en tidning såg man direkt vem som tagit bilden. Med det digitala såg tonerna likadana ut och inte bara det. Det blev allt vanligare att assistenter frilansade och hoppade från fotograf till fotograf så att bilder började bli alltmer lika. Och den processen kommer att gå ännu snabbare med AI. I toppskiktet ligger utmaningen därför i att komma på grepp som sticker ut och som känns personliga.

AI-konst

Den AI-teknologi vi berört hittills har handlat om att man försöker lyfta upp både amatörer och proffs till en högre nivå. Men på annat håll används AI för att skapa en ny typ av bilder, med ny estetik. En estetik som vid första anblick ser lite märklig ut. Men om historien lärt oss något så är det att nyskapande till slut ofta tas in i kommersen och AI-konsten är nog inget undantag, och har redan börjat bli riktigt dyr.

Torsdagen den 25 oktober 2018 inledde det stora auktionsverket Christie’s i New York en tre dagar lång auktion kallad Litografier och multipler. Nummer 383, Porträtt av Edmond de Belamy hade uppskattats till 7000–10 000 dollar i katalogen. När klubban föll efter en otroligt hätsk budgivning låg slutpriset på 423 500 dollar. Att konstverk går för långt

Obvious Art, Porträtt av Edmond de Belamy från 2018. AI-porträttet såldes på auktion i New York 2018 för 423 500 dollar.

över uppskattat pris är inte ovanligt. Det ovanliga i detta fall var att verket skapats med artificiell intelligens.

Försäljningen av porträttet av Edmond de Belamy fick enorm uppmärksamhet. Debatten var högljudd. Var detta att betrakta som verklig konst? Kunde ett dataprogram baserat på maskininlärning verkligen jämställas med mänsklig kreativitet?

Men det var inte den enda diskussionen som utbröt. Bakom målningen stod tre 25-åriga franska studenter som kallade sig Obvious Art, som med porträttet sa sig vilja eller Christie’s, och anklagelsen gick ut på att studenterna var “turister” som hade snyltat och att äran egentligen skulle gått till Robbie Barratt. Och för de som aldrig stött på konst utförd med artificiell intelligens tidigare fanns här en lektion att hämta. Att det alltid finns ett mänskligt element med i spelet.

Inom AI-konsten råder vissa skiljelinjer. Många betraktar Obvious Art som just turister, inte på grund av själva verken utan för att de inte skapat programmet de använder själva. Andra betraktar detta som snobberi och pekar på att de flesta av de

I toppskiktet ligger utmaningen därför i att komma på grepp som sticker ut och som känns personliga. MILES ALDRIDGE

förklara och demokratisera artificiell intelligens genom konst. Och det var också så Christie’s marknadsförde verket.

Bland konstnärer som arbetar med artificiell konst i sina verk var ilskan stor. För de tre studenterna hade nämligen använt sig av en lätt modifierad version av en algoritm som utvecklats av Robbie Barratt, en 19-årig konstnär och programmerare som gjort den tillgänglig som öppen källkod på webben. Detta omnämndes inte av varken Obvious Art, algoritmer som används inom dagens AIkonst utgår från de principer som datageniet Ian Goodfellow 2014 fastställde med sitt program GAN (Generative Adversarial Network). Det är så som den redan omnämnde Robbie Barratt skapat sina nakenstudier och landskapsbilder. Principen är att låta två nätverk tävla med varandra. Det första nätverket, generatorn, samlar in bilder, till exempel porträtt, fotografier eller målningar, och skapar utifrån dessa nya bilder.

Nakenstudie av konstnären och programmeraren Robbie Barratt som gjorde sitt AI-program tillgängligt som öppen källa på webben.

Om det andra nätverket, diskrimineraren, upptäcker att bilden eller bilderna skapats av en dator skickar den tillbaka bilderna till det första nätverket som får göra om. När det andra nätverket väl accepterar en bild, som tagen av en människa, anses den vara okej. Därefter kommer den mänskliga faktorn in. När ser de som använt algoritmen konsten som fullgod? När gör konstpubliken det?

Den kusliga dalen

Även om AI kan förbättra, underlätta, effektivisera och sänka kostnader i en rad olika områden så finns det också en stor oro bland många om var utvecklingen egentligen är på väg. Detta representerades under en stor grupputställning som visades förra året på De Young Museum i San Francisco, kallad Uncanny Valley; Being Human in the Age of AI. Här var syftet att diskutera vårt komplicerade förhållande till AI som kontrollerar mer och mer saker i våra liv. Uncanny Valley (kuslig dal) var ett koncept som den japanske ingenjören Masahiro Mori skapade redan 1970 för att belysa människans existentiella osäkerhet när hon konfronteras med självständiga maskiner som imiterar hennes fysik och mentala processer. Uncanny Valley anspelade också på museets närhet till Silicon Valley, som går i bräschen för utvecklingen av AI, inte minst ansiktsigenkänning.

Debatten kring det sistnämnda går het. Vad innebär AI för individens integritet och rätt till privatliv. Det var också temat för Trevor Paglens verk, De tog ansikten från de anklagade och de döda, en enorm installation med 3 000 porträtt som han täckt ögonen på, från arkiven på The American National Standards Institute. Dessa porträtt, med ögonen synliga, användes till den tidiga ansiktsigenkänningsteknologin, utan personernas vetskap och medgivande.

Vilka värderingar kommer AI:n ha? I sitt verk från 2014 samtalar Stephanie Dinkins med Bina48, en robot som från början saknar begrepp om ras, kön och sociala skillnader, om hur den lär sig om dessa genom maskininlärning.

Men AI märks nu också på andra håll inom konstvärlden. I maj meddelades att ledningen till biennalen i Bukarest 2022 gett jobbet som kurator till Jarvis. Jarvis är, som du kanske gissat, ett AI program, skapat av Spinnverk, en studio i Wien. Och här ska vi inte vänta oss några konstnärliga överraskningar. Jarvis har nämligen programmerats att endast fokusera på konstnärer som redan uppmärksammats i konstvärlden. n

“Färgstark fotografi”. Omslaget till Miles Aldridges bok I Only Want You To Love Me, utgiven av Rizzoli. Miles använder fortfarande film och varnar för att AI kommer att innebära ännu mer utslätning inom fotografi.

This article is from: