"Det finns inga filterbubblor"

Sam Rihani, Sverigechef på Facebook, berättar om Facebooks resa, algoritmernas roll, och filterbubblans ickeexistens.

Facebooks Resa, algoritmernas funktion
Med över ett decennium på företaget har Sverigechefen Sam Rihani varit med på merparten av Facebooks resa. Sam berättar om utvecklingen från startup till global maktspelare, hackarkultur som framgångsfaktor, omvälvande beslut som fattas över en natt och den svåra balansgången mellan olaglig aktivitet och att strypa det fria ordet.

Facebook startade som ett studentprojekt på Harvard, men är idag ett av världens största företag. Nästan tre miljarder människor använder Facebook, liksom åtta av tio svenskar. Facebooks Sverigechef Sam Rihani berättar om resan dit.

– I början när jag kom till Facebook för 12 år sedan var det, som nog de flesta som jobbat i en startup kan känna igen sig i, lite rörigt. Det märktes att det var ett bolag som växte väldigt snabbt på kort tid. Ibland kom det ingen lön och ibland kom det tre samtidigt haha. Då var vi bara 300 anställda globalt, idag är vi nästan 65 tusen. I början fokuserade vi mycket på att se till att alla system fungerade, men framförallt positionera oss som plattform och produkt på marknaden. Mycket var osäkert då och vi ville se till att Facebook inte blev ytterligare en fluga. Men i takt med att vi vuxit har det skapats en otrolig struktur och ordning och reda, vilket behövs i ett så stort bolag. 

“Ett år på Facebook är som sju år på ett annat företag”

På grund av den snabba utvecklingen av produkter, tjänster och teknik i samhället har Facebook behövt anpassa dig därefter för att inte hamna efter. Detta har inneburit allt ifrån 100 upp till 1000 produktlanseringar eller förändringar per år. För ett vanligt bolag tar det kanske tre år att ta ett beslut som de anställda på Facebook tar på en vecka menar Sam. Hur lyckas man ta så stora och snabba beslut när det påverkar så många människor? Sam förklarar.

– Det handlar om struktur i digitaliseringen samt informationsflödet. Informationen är transparent och öppen, vilket gör att man kan motivera för människor vad man gör och varför det är viktigt. 

– Till exempel när vi ställde om från desktop på bolaget till mobil 2012, den processen tog kanske en månad i realiteten. Men beslutet togs från en dag till en annan. “Från och med imorgon ska alla ingenjörer bara koda för mobilen”. Det beslutet togs för att man förstod att mobilen är det sättet vi kommer göra allt på i framtiden. Och med facit i hand var det väldigt smart. Sen finns det såklart andra saker som påverkar med. Men det bottnar i underbyggda beslut med data som motiverar, och då tror jag det blir enkelt att få med sig folk. 

“Det finns inga filterbubblor på Facebook”

En annan sak många förknippar starkt med Facebook är algoritmer. Förenklat kan man förklara algoritmer som en lista av uppsatta instruktioner som ett program får för att veta hur den ska agera i olika situationer för att lösa ett problem. Detta måste ske i ett ändligt antal steg. Algoritmerna finns alltså i massa kodrader som, till exempel i sociala medier, ser till att person A får se det som hen är intresserad av medan det andra sorteras bort. Facebook är ett av de företag som tog algoritmerna till den breda publiken, och det faktum att användarna får riktat innehåll har både hyllats och kritiserats. Sam ger sin syn på saken. 

– Det är att likställa med hur en redaktör arbetar på tidningen. Där är det ju någon som bestämmer vilken information som ska tryckas och skickas ut till brevlådorna imorgon. Och jag ser det lite på samma sätt, att algoritmerna hjälper oss välja ut och presentera det som är relevant för personen i fråga. Det är omöjligt för en person att konsumera all information som finns tillgänglig online. Så istället för att sitta hela dagen och skrolla med tummen på din telefon kan algoritmerna välja ut de bitar som är mest relevanta för dig. 

 Angående filterbubblor fortsätter Sam förklara att han inte tycker att det finns någon filterbubbla på Facebook. Han menar på att det är så otroligt många människor som använder plattformen, och att de flesta är vänner med flera 100 personer, därför är det näst intill omöjligt att alla dessa personer skulle ha och ge samma åsikter som en själv. Istället, menar har, får man ta del av många olika människors perspektiv och synsätt, vilket är mer transparent än förr när all information kom ifrån tidningar istället för privatpersoner. Facebook ger människor en röst.

Balansgången mellan olaglig aktivitet och att ge utrymme för det fria ordet

Facebook har fått utstå en hel del kritik under åren. Inte minst för all mobbning och diskriminering som sker på plattformen. Vissa menar på att de inte gör tillräckligt mycket för att motverka den hatiska och olagliga aktiviteten, medan andra kritiserar dem för att ta bort för mycket och på så sätt strypa det fria ordet. Hur hanterar man denna balansgång?  

 – Det är verkligen en balansgång. Vissa vill att vi ska ta bort mer medan andra anser att vi redan gör det för mycket. Detta är en särskilt stor utmaning eftersom plattformen är global med nästan tre miljarder användare som alla har olika språk, kulturer, värderingar, lagar, regler, och normer. Vad som är okej i ett land kan vara absolut förbjudet i ett annat. Så det är en balansgång som vi jobbar på hela tiden. Men det tar tid att sätta gränser och veta hur vi ska jobba med det. Målet är såklart att alla människor ska vara trygga på Facebook, och vi tar bort miljontals saker varje dag – både inlägg, kommentarer, och konton. Men vi vill också ge människor en röst, för som jag var inne på tidigare är det viktigt att ha en röst och kunna använda den för att skapa förändring hos sig själv, sitt liv, och för samhället. Men vi kommer aldrig tolerera hat, hot, och rasism. Eller att man blir utsatt på grund av sitt kön, sexuella läggning, religion osv. Så för oss handlar det om att fortsätta bygga ett system och verktyg som hjälper oss upptäcka dessa saker, och där tycker jag att vi kommit långt. Vi har något som heter “transparensrapport” där vi delar med oss om hur mycket vi tar bort varje kvartal. Senaste kvartalet tog vi bort 97% av allt det som vi anser är hat eller hot. För tre år sedan låg samma siffra på 23%. Så vi har kommit långt. 97% är väldigt bra, med det är fortfarande 3% kvar som vi ständigt arbetar aktivt med att få bort. Det är en jätteviktig prioritet.

Facebooks Resa, algoritmernas funktion

Vill du veta mer?

Lämna dina uppgifter så hör vi av oss.

Integritetspolicy

Ta del av fler blogginlägg