Apple యొక్క CSAM వ్యవస్థ మోసపోయింది, కానీ కంపెనీకి రెండు రక్షణలు ఉన్నాయి

అప్‌డేట్: Apple సర్వర్ యొక్క రెండవ తనిఖీని ప్రస్తావించింది మరియు ఒక ప్రొఫెషనల్ కంప్యూటర్ విజన్ కంపెనీ దీనిని వివరించే అవకాశాన్ని దిగువ “రెండవ తనిఖీ ఎలా పని చేస్తుంది”లో వివరించింది.
డెవలపర్లు దానిలోని ఇంజినీరింగ్ భాగాలను రివర్స్ చేసిన తర్వాత, Apple CSAM సిస్టమ్ యొక్క ప్రారంభ సంస్కరణ అమాయక చిత్రాన్ని గుర్తించడానికి సమర్థవంతంగా మోసగించబడింది.అయితే, నిజ జీవితంలో అలా జరగకుండా నిరోధించడానికి అదనపు భద్రతలు ఉన్నాయని ఆపిల్ పేర్కొంది.
NeuralHash అల్గోరిథం ఓపెన్ సోర్స్ డెవలపర్ వెబ్‌సైట్ GitHubకి ప్రచురించబడిన తర్వాత తాజా అభివృద్ధి జరిగింది, ఎవరైనా దానితో ప్రయోగాలు చేయవచ్చు...
నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ అండ్ ఎక్స్‌ప్లోయిటెడ్ చిల్డ్రన్ (NCMEC) వంటి సంస్థల నుండి తెలిసిన పిల్లల లైంగిక వేధింపుల మెటీరియల్‌ల డేటాబేస్‌ను దిగుమతి చేసుకోవడం ద్వారా అన్ని CSAM సిస్టమ్‌లు పని చేస్తాయి.డేటాబేస్ చిత్రాల నుండి హ్యాష్‌లు లేదా డిజిటల్ వేలిముద్రల రూపంలో అందించబడుతుంది.
చాలా టెక్నాలజీ దిగ్గజాలు క్లౌడ్‌లో అప్‌లోడ్ చేసిన ఫోటోలను స్కాన్ చేసినప్పటికీ, Apple స్టోర్ చేసిన ఫోటో యొక్క హాష్ విలువను రూపొందించడానికి కస్టమర్ యొక్క iPhoneలో NeuralHash అల్గారిథమ్‌ను ఉపయోగిస్తుంది, ఆపై దానిని CSAM హాష్ విలువ యొక్క డౌన్‌లోడ్ చేసిన కాపీతో పోల్చింది.
నిన్న, ఒక డెవలపర్ Apple యొక్క అల్గారిథమ్‌ను రివర్స్ ఇంజనీర్ చేసినట్లు మరియు GitHubకి కోడ్‌ను విడుదల చేసినట్లు పేర్కొన్నారు-ఈ దావాను Apple సమర్థవంతంగా ధృవీకరించింది.
GitHib విడుదలైన కొద్ది గంటల్లోనే, ఉద్దేశపూర్వక తప్పుడు పాజిటివ్‌ను రూపొందించడానికి పరిశోధకులు అల్గారిథమ్‌ను విజయవంతంగా ఉపయోగించారు-అదే హాష్ విలువను ఉత్పత్తి చేసే రెండు పూర్తిగా భిన్నమైన చిత్రాలు.దీనిని ఘర్షణ అంటారు.
అటువంటి సిస్టమ్‌ల కోసం, ఎల్లప్పుడూ ఢీకొనే ప్రమాదం ఉంటుంది, ఎందుకంటే హాష్ అనేది చిత్రం యొక్క చాలా సరళమైన ప్రాతినిధ్యం, కానీ ఎవరైనా ఇంత త్వరగా చిత్రాన్ని రూపొందించగలగడం ఆశ్చర్యం కలిగిస్తుంది.
ఇక్కడ ఉద్దేశపూర్వక తాకిడి కేవలం భావన యొక్క రుజువు.డెవలపర్‌లకు CSAM హాష్ డేటాబేస్‌కు ప్రాప్యత లేదు, దీనికి నిజ-సమయ సిస్టమ్‌లో తప్పుడు పాజిటివ్‌లను సృష్టించడం అవసరం, అయితే తాకిడి దాడులు సూత్రప్రాయంగా చాలా సులభం అని ఇది రుజువు చేస్తుంది.
అల్గోరిథం దాని స్వంత సిస్టమ్‌కు ఆధారమని ఆపిల్ సమర్థవంతంగా ధృవీకరించింది, అయితే ఇది తుది వెర్షన్ కాదని మదర్‌బోర్డుకు తెలిపింది.దీన్ని ఎప్పుడూ గోప్యంగా ఉంచాలని భావించలేదని కంపెనీ పేర్కొంది.
GitHubలో వినియోగదారు విశ్లేషించిన సంస్కరణ సాధారణ వెర్షన్ అని, iCloud ఫోటో CSAM గుర్తింపు కోసం ఉపయోగించే తుది వెర్షన్ కాదని Apple మదర్‌బోర్డ్‌కి ఇమెయిల్‌లో తెలిపింది.యాపిల్ అల్గారిథమ్‌ను కూడా వెల్లడించింది.
"NeuralHash అల్గోరిథం [...] సంతకం చేయబడిన ఆపరేటింగ్ సిస్టమ్ కోడ్‌లో భాగం [మరియు] భద్రతా పరిశోధకులు దాని ప్రవర్తన వివరణకు అనుగుణంగా ఉందని ధృవీకరించగలరు" అని ఆపిల్ డాక్యుమెంట్ రాసింది.
కంపెనీ మరో రెండు దశలు ఉన్నాయని చెప్పింది: దాని స్వంత సర్వర్‌లో ద్వితీయ (రహస్య) మ్యాచింగ్ సిస్టమ్‌ను అమలు చేయడం మరియు మాన్యువల్ సమీక్ష.
వినియోగదారులు 30-మ్యాచ్ థ్రెషోల్డ్‌ను దాటిన తర్వాత, Apple యొక్క సర్వర్‌లలో నడుస్తున్న రెండవ పబ్లిక్ కాని అల్గోరిథం ఫలితాలను తనిఖీ చేస్తుందని Apple పేర్కొంది.
"CSAM యేతర చిత్రాల విరోధి జోక్యం కారణంగా పరికరంలోని ఎన్‌క్రిప్టెడ్ CSAM డేటాబేస్‌తో తప్పుగా ఉన్న న్యూరల్‌హాష్ సరిపోలే మరియు సరిపోలే థ్రెషోల్డ్‌ను అధిగమించే అవకాశాన్ని తిరస్కరించడానికి ఈ స్వతంత్ర హాష్ ఎంచుకోబడింది."
Roboflow యొక్క బ్రాడ్ డ్వైర్ ఘర్షణ దాడికి సంబంధించిన భావనకు రుజువుగా పోస్ట్ చేసిన రెండు చిత్రాల మధ్య తేడాను సులభంగా గుర్తించడానికి ఒక మార్గాన్ని కనుగొన్నారు.
ఈ చిత్రాలు సారూప్యమైన కానీ విభిన్నమైన నాడీ ఫీచర్ ఎక్స్‌ట్రాక్టర్ OpenAI యొక్క CLIPలో ఎలా కనిపిస్తాయో నాకు ఆసక్తిగా ఉంది.CLIP NeuralHash మాదిరిగానే పనిచేస్తుంది;ఇది చిత్రాన్ని తీసుకుంటుంది మరియు చిత్రం యొక్క కంటెంట్‌కు మ్యాప్ చేసే ఫీచర్ వెక్టర్‌ల సెట్‌ను రూపొందించడానికి న్యూరల్ నెట్‌వర్క్‌ను ఉపయోగిస్తుంది.
కానీ OpenAI నెట్‌వర్క్ భిన్నంగా ఉంటుంది.ఇది ఇమేజ్‌లు మరియు టెక్స్ట్ మధ్య మ్యాప్ చేయగల సాధారణ మోడల్.దీని అర్థం మనం మానవులకు అర్థమయ్యే చిత్ర సమాచారాన్ని సంగ్రహించడానికి దీనిని ఉపయోగించవచ్చు.
నేను పైన ఉన్న రెండు తాకిడి చిత్రాలను అది కూడా మోసగించబడిందో లేదో చూడటానికి CLIP ద్వారా రన్ చేసాను.చిన్న సమాధానం: లేదు.దీనర్థం Apple గుర్తించబడిన CSAM చిత్రాలకు అవి నిజమైనవా లేదా నకిలీవా అని నిర్ధారించడానికి రెండవ ఫీచర్ ఎక్స్‌ట్రాక్టర్ నెట్‌వర్క్‌ను (CLIP వంటివి) వర్తింపజేయగలగాలి.ఒకే సమయంలో రెండు నెట్‌వర్క్‌లను మోసగించే చిత్రాలను రూపొందించడం చాలా కష్టం.
చివరగా, ముందుగా చెప్పినట్లుగా, చిత్రాలు CSAM అని నిర్ధారించడానికి మాన్యువల్‌గా సమీక్షించబడతాయి.
యాపిల్‌ను బాధించాలనుకునే ఎవరైనా మానవ సమీక్షకులకు తప్పుడు పాజిటివ్‌లను అందించడం మాత్రమే నిజమైన ప్రమాదం అని భద్రతా పరిశోధకుడు చెప్పారు.
“యాపిల్ వాస్తవానికి ఈ సిస్టమ్‌ను రూపొందించింది, కాబట్టి హాష్ ఫంక్షన్‌ను రహస్యంగా ఉంచాల్సిన అవసరం లేదు, ఎందుకంటే మీరు 'CSAM యేతర CSAM'తో చేయగలిగినది ఆపిల్ యొక్క ప్రతిస్పందన బృందాన్ని కొన్ని జంక్ చిత్రాలతో బాధించడమే. విశ్లేషణ పైప్‌లైన్‌లో ఉన్న చెత్త తప్పుడు పాజిటివ్‌లు, ”అని బర్కిలీలోని కాలిఫోర్నియా విశ్వవిద్యాలయంలోని ఇన్‌స్టిట్యూట్ ఆఫ్ ఇంటర్నేషనల్ కంప్యూటర్ సైన్స్‌లో సీనియర్ పరిశోధకుడు నికోలస్ వీవర్ మదర్‌బోర్డ్‌తో ఆన్‌లైన్ చాట్‌లో చెప్పారు.
గోప్యత అనేది నేటి ప్రపంచంలో ఆందోళన కలిగించే సమస్య.మా మార్గదర్శకాలలో గోప్యత, భద్రత మొదలైనవాటికి సంబంధించిన అన్ని నివేదికలను అనుసరించండి.
బెన్ లవ్‌జోయ్ బ్రిటీష్ సాంకేతిక రచయిత మరియు 9to5Mac కోసం EU ఎడిటర్.అతను కాలమ్‌లు మరియు డైరీ కథనాలకు ప్రసిద్ధి చెందాడు, మరింత సమగ్రమైన సమీక్షలను పొందడానికి కాలక్రమేణా Apple ఉత్పత్తులతో తన అనుభవాన్ని అన్వేషించాడు.అతను నవలలు కూడా వ్రాస్తాడు, రెండు టెక్నికల్ థ్రిల్లర్‌లు, కొన్ని షార్ట్ సైన్స్ ఫిక్షన్ ఫిల్మ్‌లు మరియు ఒక రోమ్-కామ్ ఉన్నాయి!


పోస్ట్ సమయం: ఆగస్ట్-20-2021