Facebook, in een zeer interessante oefening van transparantie, onthulde wat de interne regels zijn die de basis vormen van de gemeenschapsnormen voor berichten die door gebruikers op het netwerk worden gepubliceerd. Na vele jaren waarin iedereen wilde weten hoe Facebook beslist welke berichten binnen zijn sociale netwerk zijn toegestaan, bracht het Cambridge Analytica-schandaal deze zeer belangrijke informatie naar voren.
Facebook besloot het afgelopen jaar deze regels veel strenger op te leggen, waardoor steeds meer berichten werden uitgeschakeld of verwijderd, zonder dat mensen duidelijk wisten wat de aanleiding was voor de beslissingen van het bedrijf. Omdat er het afgelopen jaar zoveel vragen zijn verschenen, hebben die van Facebook besloten informatie te publiceren over hoe deze standaarden tot stand zijn gekomen, op basis waarvan de communities in het sociale netwerk worden gemonitord en beschermd.
Facebook legt uit welke soorten berichten op het netwerk zijn toegestaan en geblokkeerd
Facebook legt in het onderstaande persbericht uit hoe het deze zeer belangrijke regels implementeert, zodat nu iedereen moet weten wat voor soort inhoud ze kunnen publiceren en welke inhoud niet beschikbaar mag zijn op het netwerk. Ook beschrijft Facebook de manieren waarop iemand de beslissing van het Amerikaanse bedrijf om een bepaald bericht te blokkeren kan aanvallen, zodat je ook weet hoe je jezelf kunt beschermen tegen een onrechtmatige beslissing.
Tenslotte beschrijft Facebook ook de manieren waarop iedereen kan bijdragen aan de verbetering van de standaarden op basis waarvan de communicatie binnen het sociale netwerk wordt beschermd, waarbij hij blijkbaar ook suggesties accepteert. Dat gezegd hebbende, raad ik je aan heel aandachtig te lezen wat Facebook te zeggen heeft.
“Voor de eerste keer geeft Facebook details vrij over zijn interne regels die de basis vormen van de gemeenschapsnormen
Een van de meest gestelde vragen over Facebook is hoe het bepaalt wat voor soort inhoud op zijn sociale platform moet worden toegestaan. Dit is een van de belangrijkste beslissingen van Facebook, omdat het een essentieel element is om ervoor te zorgen dat het platform een veilige en open ruimte is waar verschillende standpunten kunnen worden besproken.
Facebook heeft een reeks Community Standards, die al enkele jaren actief zijn, die laten zien welk type inhoud wordt geaccepteerd en welk type inhoud van het sociale platform wordt verwijderd. Vandaag zet Facebook een stap voorwaarts en maakt voor het eerst de interne regels van het bedrijf voor het naleven van deze normen openbaar. Het sociale netwerk lanceert ook de mogelijkheid voor gebruikers om beslissingen die over sommige berichten zijn genomen aan te vechten en een herevaluatie aan te vragen, wanneer zij denken dat er een fout is gemaakt.
Het besluit van Facebook om deze interne regels te publiceren is gebaseerd op twee redenen. Ten eerste zullen ze gebruikers helpen de criteria te begrijpen die in aanmerking worden genomen bij het nemen van een beslissing over genuanceerde situaties. Ten tweede zal het vanwege deze details voor iedereen, inclusief experts op verschillende terreinen, veel gemakkelijker zijn om feedback te geven, zodat deze regels – en de besluiten die daarnaar worden genomen – in de loop van de tijd kunnen worden verbeterd.
Het beleidsontwikkelingsproces
Het inhoudsbeleidsteam van Facebook is verantwoordelijk voor het ontwikkelen van de gemeenschapsnormen van het sociale netwerk. Facebook heeft medewerkers in elf kantoren over de hele wereld, waaronder experts op het gebied van zaken als haatzaaiende uitlatingen, de veiligheid van kinderen en terrorisme. Velen van hen bestudeerden expressie- en veiligheidskwesties lang voordat ze deel uitmaakten van het sociale platformteam.
“Ik heb tijdens mijn tijd als aanklager aan een grote verscheidenheid aan zaken gewerkt, van de veiligheid van kinderen tot terrorismebestrijding, en tot de andere leden van het team behoren onder meer een voormalig crisisadviseur voor verkrachting, een academicus die zijn hele carrière haatorganisaties heeft bestudeerd, een mensenrechtenorganisatie en een mensenrechtenorganisatie. advocaat en een leraar. Elke week vraagt ons team om input van experts en organisaties buiten Facebook, zodat we de verschillende perspectieven op veiligheid en vrije meningsuiting en de impact van ons beleid op verschillende gemeenschappen wereldwijd beter kunnen begrijpen.” - zegt Monika Bickert, vice-president van Global Product Management, Facebook
Op basis van deze feedback en veranderingen in sociale normen en taalgebruik evolueren de normen van Facebook in de loop van de tijd. Wat niet is veranderd – en niet zal veranderen – zijn de fundamentele principes van veiligheid, meningsuiting en eerlijkheid waarop deze normen zijn gebaseerd. Om gesprekken te kunnen beginnen en verbindingen te kunnen leggen, moeten mensen weten dat ze veilig zijn. Facebook moet ook een plek zijn waar mensen vrijuit hun mening kunnen uiten, ook al zijn sommigen het er misschien niet mee eens.
Dit kan een uitdaging zijn gezien het mondiale karakter van de Facebook-service. Daarom is eerlijkheid zo'n belangrijk principe: het platform streeft ernaar deze normen consistent en eerlijk toe te passen op alle gemeenschappen en culturen. Deze principes worden expliciet vermeld in de preambule van de normen en komen tot leven door de redenering achter elk afzonderlijk beleid te delen.
Toepassen
Het beleid van Facebook is slechts zo goed als de vastberadenheid en nauwkeurigheid waarmee het wordt gehandhaafd – en dat is niet perfect. De uitdaging is om potentiële schendingen van deze normen te identificeren, zodat deze kunnen worden onderzocht. Technologie kan hier helpen. Er wordt een combinatie van kunstmatige intelligentie en gebruikersrapportage gebruikt om berichten, afbeeldingen of andere inhoud te identificeren die mogelijk in strijd is met de communitynormen. Deze rapporten worden beoordeeld door het community operations-team, dat 24 uur per dag werkt, in meer dan 24 talen. Tegen eind 40 zullen er 2018 contentrecensenten zijn – een stijging van 7.500% ten opzichte van vorig jaar rond deze tijd.
Een andere uitdaging is het nauwkeurig handhaven van beleid ten aanzien van gemarkeerde inhoud. In sommige gevallen kunnen er fouten optreden omdat het beleid van Facebook niet duidelijk genoeg is voor contentrecensenten, en waar nodig proberen ze die leemten op te vullen. Fouten gebeuren echter omdat mensen feilbaar zijn. Daarom worden de evaluatieprocessen voortdurend herzien om de juistheid en consistentie van de toepassing van de regels zo goed mogelijk te garanderen. Als onderdeel van dit proces wordt een deel van de inhoud regelmatig opnieuw geëvalueerd om de juistheid van de beslissingen van Facebook-recensenten te verifiëren.
Remedies
“Zelfs met behulp van onze kwalitatieve audits weten we dat we niet altijd gelijk hebben. Daarom hebben we gebruikers toegestaan ons te vragen onze beslissingen te herzien wanneer we hun profiel, pagina of groep hebben verwijderd. Vanaf vandaag breiden we deze mogelijkheid uit en geven we mensen de mogelijkheid om een second opinion te vragen over inhoud die is verwijderd vanwege naaktheid of seksuele activiteit, berichten die aanzetten tot haat en geweld”, zegt Monika Bickert.
Zo werkt het proces:
- Als een foto, video of bericht is verwijderd wegens schending van de communitynormen, krijgt de gebruiker de optie om een beoordeling aan te vragen.
- Beroepen worden binnen 24 uur beoordeeld door het Community Operations-team
- Als er een fout is gemaakt, wordt de inhoud hersteld en wordt de persoon die in beroep is gegaan tegen de oorspronkelijke beslissing hiervan op de hoogte gesteld.
Tegen het einde van het jaar zal dit proces worden uitgebreid tot mensen die inhoud melden en ervan op de hoogte worden gesteld dat deze de communitynormen niet schendt.
Deelname en feedback van de gemeenschap
Facebook geeft toe dat het zijn gemeenschapsnormen kan verbeteren en verfijnen door middel van feedback van gebruikers over de hele wereld. In mei lanceert Facebook Forums: Community Standards, een reeks openbare evenementen in Duitsland, Frankrijk, Groot-Brittannië, India, Singapore, de Verenigde Staten en andere landen waar gebruikersfeedback rechtstreeks wordt ontvangen. Meer details over deze initiatieven zullen beschikbaar zijn zodra ze zijn afgerond.
Zoals Facebook-CEO Mark Zuckerberg begin dit jaar zei: "we zullen niet alle fouten of misbruiken voorkomen, maar we maken momenteel te veel fouten bij het handhaven van ons beleid en het voorkomen van misbruik van onze tools." Publiceer de huidige richtlijnen voor de handhaving – en uitbreiding – van sociale media
de beroepsprocedure – zal een duidelijk traject creëren, dat in de loop van de tijd zal worden verbeterd. Het zijn lastige vraagstukken, maar het mooie is dat er een evolutie in zit."