Meta staat op het punt om de IA te trainen met behulp van openbare inhoud die wordt gedeeld op Facebook en Instagram: de procedure om zich te verzetten en zorgen voor privacy

Half heeft aangekondigd dat het zal beginnen Train zijn kunstmatige intelligentie Het gebruik van openbare inhoud gedeeld op Facebook en Instagraminclusief die van Europese gebruikers. Een beslissing die bezorgdheid en controverse heeft gegenereerd, vooral onder degenen die dat willen Bescherm uw persoonlijke gegevens.

Volgens wat werd gecommuniceerd, zal ik alleen in dienst zijn Openbare inhoud van volwassen gebruikers, dus uitsluitend privéberichten, berichten met beperkte zichtbaarheid en inhoud gepubliceerd door minderjarigen. Dit verwijdert echter niet de risico’s: zelfs als een gebruiker zich verzet, kunnen zijn gegevens nog steeds inkomen trainingsdatasetbijvoorbeeld gepubliceerd door derden of zichtbaar in de opmerkingen over openbare berichten.

Voor tegen het gebruik van iemands inhoudMeta heeft een Online vormtoegankelijk via de pagina gewijd aan Privacy van de AI Op deze link. Na het verzenden, de gebruiker Ontvangt een bevestigingsmail. Slechts één verzoek dekt alles Ontworpen meta -accountdus als u zowel Facebook als Instagram gebruikt, is het niet nodig om de procedure te herhalen.

Tijd geldt: deMetatraining eind mei zal beginnen En na die datum zal het niet langer mogelijk zijn om de reeds verworven inhoud uit te sluiten. Dit maakt het fundamenteel om snel te handelen als u wilt voorkomen dat uw gegevens kunstmatige intelligentie voeden.

De oppositie beschermt niet tegen wat andere gebruikers publiceren

Een relevant probleem is dat de oppositie Andere gebruikers publiceren. Als iemand bijvoorbeeld een foto publiceert waarin we horen of vermelden, kan die informatie nog steeds de training betreden. En het risico neemt toe voor wie omdat het geen manier heeft om toegang te krijgen tot oppositietools.

In het geval van persoonlijke inhoud gegenereerd door Meta AI, a geschil: Het is noodzakelijk om de prompt te geven die het antwoord en een screenshot van het resultaat heeft gegenereerd. Er moet echter worden opgemerkt dat het ontdekken dat ze zijn genoemd, een actieve controle vereist die weinigen zullen doen.

De grootste angst is dat ik vernietig om een Conversational Search Engine vergelijkbaar met perplexiteit, in staat Bied niet -geverifieerde persoonlijke informatie aan. Een stap die twijfels verhoogt, niet alleen over privacy, maar ook over de geloofwaardigheid en betrouwbaarheid van de gegenereerde antwoorden. Desinformatie injecteren die moet worden gegeven aan leermodellen zal de nieuwe een hacking grens?