అప్డేట్: Apple సర్వర్ యొక్క రెండవ తనిఖీని ప్రస్తావించింది మరియు ఒక ప్రొఫెషనల్ కంప్యూటర్ విజన్ కంపెనీ దీనిని వివరించే అవకాశాన్ని దిగువ “రెండవ తనిఖీ ఎలా పని చేస్తుంది”లో వివరించింది.
డెవలపర్లు దానిలోని ఇంజినీరింగ్ భాగాలను రివర్స్ చేసిన తర్వాత, Apple CSAM సిస్టమ్ యొక్క ప్రారంభ సంస్కరణ అమాయక చిత్రాన్ని గుర్తించడానికి సమర్థవంతంగా మోసగించబడింది.అయితే, నిజ జీవితంలో అలా జరగకుండా నిరోధించడానికి అదనపు భద్రతలు ఉన్నాయని ఆపిల్ పేర్కొంది.
NeuralHash అల్గోరిథం ఓపెన్ సోర్స్ డెవలపర్ వెబ్సైట్ GitHubకి ప్రచురించబడిన తర్వాత తాజా అభివృద్ధి జరిగింది, ఎవరైనా దానితో ప్రయోగాలు చేయవచ్చు...
నేషనల్ సెంటర్ ఫర్ మిస్సింగ్ అండ్ ఎక్స్ప్లోయిటెడ్ చిల్డ్రన్ (NCMEC) వంటి సంస్థల నుండి తెలిసిన పిల్లల లైంగిక వేధింపుల మెటీరియల్ల డేటాబేస్ను దిగుమతి చేసుకోవడం ద్వారా అన్ని CSAM సిస్టమ్లు పని చేస్తాయి.డేటాబేస్ చిత్రాల నుండి హ్యాష్లు లేదా డిజిటల్ వేలిముద్రల రూపంలో అందించబడుతుంది.
చాలా టెక్నాలజీ దిగ్గజాలు క్లౌడ్లో అప్లోడ్ చేసిన ఫోటోలను స్కాన్ చేసినప్పటికీ, Apple స్టోర్ చేసిన ఫోటో యొక్క హాష్ విలువను రూపొందించడానికి కస్టమర్ యొక్క iPhoneలో NeuralHash అల్గారిథమ్ను ఉపయోగిస్తుంది, ఆపై దానిని CSAM హాష్ విలువ యొక్క డౌన్లోడ్ చేసిన కాపీతో పోల్చింది.
నిన్న, ఒక డెవలపర్ Apple యొక్క అల్గారిథమ్ను రివర్స్ ఇంజనీర్ చేసినట్లు మరియు GitHubకి కోడ్ను విడుదల చేసినట్లు పేర్కొన్నారు-ఈ దావాను Apple సమర్థవంతంగా ధృవీకరించింది.
GitHib విడుదలైన కొద్ది గంటల్లోనే, ఉద్దేశపూర్వక తప్పుడు పాజిటివ్ను రూపొందించడానికి పరిశోధకులు అల్గారిథమ్ను విజయవంతంగా ఉపయోగించారు-అదే హాష్ విలువను ఉత్పత్తి చేసే రెండు పూర్తిగా భిన్నమైన చిత్రాలు.దీనిని ఘర్షణ అంటారు.
అటువంటి సిస్టమ్ల కోసం, ఎల్లప్పుడూ ఢీకొనే ప్రమాదం ఉంటుంది, ఎందుకంటే హాష్ అనేది చిత్రం యొక్క చాలా సరళమైన ప్రాతినిధ్యం, కానీ ఎవరైనా ఇంత త్వరగా చిత్రాన్ని రూపొందించగలగడం ఆశ్చర్యం కలిగిస్తుంది.
ఇక్కడ ఉద్దేశపూర్వక తాకిడి కేవలం భావన యొక్క రుజువు.డెవలపర్లకు CSAM హాష్ డేటాబేస్కు ప్రాప్యత లేదు, దీనికి నిజ-సమయ సిస్టమ్లో తప్పుడు పాజిటివ్లను సృష్టించడం అవసరం, అయితే తాకిడి దాడులు సూత్రప్రాయంగా చాలా సులభం అని ఇది రుజువు చేస్తుంది.
అల్గోరిథం దాని స్వంత సిస్టమ్కు ఆధారమని ఆపిల్ సమర్థవంతంగా ధృవీకరించింది, అయితే ఇది తుది వెర్షన్ కాదని మదర్బోర్డుకు తెలిపింది.దీన్ని ఎప్పుడూ గోప్యంగా ఉంచాలని భావించలేదని కంపెనీ పేర్కొంది.
GitHubలో వినియోగదారు విశ్లేషించిన సంస్కరణ సాధారణ వెర్షన్ అని, iCloud ఫోటో CSAM గుర్తింపు కోసం ఉపయోగించే తుది వెర్షన్ కాదని Apple మదర్బోర్డ్కి ఇమెయిల్లో తెలిపింది.యాపిల్ అల్గారిథమ్ను కూడా వెల్లడించింది.
"NeuralHash అల్గోరిథం [...] సంతకం చేయబడిన ఆపరేటింగ్ సిస్టమ్ కోడ్లో భాగం [మరియు] భద్రతా పరిశోధకులు దాని ప్రవర్తన వివరణకు అనుగుణంగా ఉందని ధృవీకరించగలరు" అని ఆపిల్ డాక్యుమెంట్ రాసింది.
కంపెనీ మరో రెండు దశలు ఉన్నాయని చెప్పింది: దాని స్వంత సర్వర్లో ద్వితీయ (రహస్య) మ్యాచింగ్ సిస్టమ్ను అమలు చేయడం మరియు మాన్యువల్ సమీక్ష.
వినియోగదారులు 30-మ్యాచ్ థ్రెషోల్డ్ను దాటిన తర్వాత, Apple యొక్క సర్వర్లలో నడుస్తున్న రెండవ పబ్లిక్ కాని అల్గోరిథం ఫలితాలను తనిఖీ చేస్తుందని Apple పేర్కొంది.
"CSAM యేతర చిత్రాల విరోధి జోక్యం కారణంగా పరికరంలోని ఎన్క్రిప్టెడ్ CSAM డేటాబేస్తో తప్పుగా ఉన్న న్యూరల్హాష్ సరిపోలే మరియు సరిపోలే థ్రెషోల్డ్ను అధిగమించే అవకాశాన్ని తిరస్కరించడానికి ఈ స్వతంత్ర హాష్ ఎంచుకోబడింది."
Roboflow యొక్క బ్రాడ్ డ్వైర్ ఘర్షణ దాడికి సంబంధించిన భావనకు రుజువుగా పోస్ట్ చేసిన రెండు చిత్రాల మధ్య తేడాను సులభంగా గుర్తించడానికి ఒక మార్గాన్ని కనుగొన్నారు.
ఈ చిత్రాలు సారూప్యమైన కానీ విభిన్నమైన నాడీ ఫీచర్ ఎక్స్ట్రాక్టర్ OpenAI యొక్క CLIPలో ఎలా కనిపిస్తాయో నాకు ఆసక్తిగా ఉంది.CLIP NeuralHash మాదిరిగానే పనిచేస్తుంది;ఇది చిత్రాన్ని తీసుకుంటుంది మరియు చిత్రం యొక్క కంటెంట్కు మ్యాప్ చేసే ఫీచర్ వెక్టర్ల సెట్ను రూపొందించడానికి న్యూరల్ నెట్వర్క్ను ఉపయోగిస్తుంది.
కానీ OpenAI నెట్వర్క్ భిన్నంగా ఉంటుంది.ఇది ఇమేజ్లు మరియు టెక్స్ట్ మధ్య మ్యాప్ చేయగల సాధారణ మోడల్.దీని అర్థం మనం మానవులకు అర్థమయ్యే చిత్ర సమాచారాన్ని సంగ్రహించడానికి దీనిని ఉపయోగించవచ్చు.
నేను పైన ఉన్న రెండు తాకిడి చిత్రాలను అది కూడా మోసగించబడిందో లేదో చూడటానికి CLIP ద్వారా రన్ చేసాను.చిన్న సమాధానం: లేదు.దీనర్థం Apple గుర్తించబడిన CSAM చిత్రాలకు అవి నిజమైనవా లేదా నకిలీవా అని నిర్ధారించడానికి రెండవ ఫీచర్ ఎక్స్ట్రాక్టర్ నెట్వర్క్ను (CLIP వంటివి) వర్తింపజేయగలగాలి.ఒకే సమయంలో రెండు నెట్వర్క్లను మోసగించే చిత్రాలను రూపొందించడం చాలా కష్టం.
చివరగా, ముందుగా చెప్పినట్లుగా, చిత్రాలు CSAM అని నిర్ధారించడానికి మాన్యువల్గా సమీక్షించబడతాయి.
యాపిల్ను బాధించాలనుకునే ఎవరైనా మానవ సమీక్షకులకు తప్పుడు పాజిటివ్లను అందించడం మాత్రమే నిజమైన ప్రమాదం అని భద్రతా పరిశోధకుడు చెప్పారు.
“యాపిల్ వాస్తవానికి ఈ సిస్టమ్ను రూపొందించింది, కాబట్టి హాష్ ఫంక్షన్ను రహస్యంగా ఉంచాల్సిన అవసరం లేదు, ఎందుకంటే మీరు 'CSAM యేతర CSAM'తో చేయగలిగినది ఆపిల్ యొక్క ప్రతిస్పందన బృందాన్ని కొన్ని జంక్ చిత్రాలతో బాధించడమే. విశ్లేషణ పైప్లైన్లో ఉన్న చెత్త తప్పుడు పాజిటివ్లు, ”అని బర్కిలీలోని కాలిఫోర్నియా విశ్వవిద్యాలయంలోని ఇన్స్టిట్యూట్ ఆఫ్ ఇంటర్నేషనల్ కంప్యూటర్ సైన్స్లో సీనియర్ పరిశోధకుడు నికోలస్ వీవర్ మదర్బోర్డ్తో ఆన్లైన్ చాట్లో చెప్పారు.
గోప్యత అనేది నేటి ప్రపంచంలో ఆందోళన కలిగించే సమస్య.మా మార్గదర్శకాలలో గోప్యత, భద్రత మొదలైనవాటికి సంబంధించిన అన్ని నివేదికలను అనుసరించండి.
బెన్ లవ్జోయ్ బ్రిటీష్ సాంకేతిక రచయిత మరియు 9to5Mac కోసం EU ఎడిటర్.అతను కాలమ్లు మరియు డైరీ కథనాలకు ప్రసిద్ధి చెందాడు, మరింత సమగ్రమైన సమీక్షలను పొందడానికి కాలక్రమేణా Apple ఉత్పత్తులతో తన అనుభవాన్ని అన్వేషించాడు.అతను నవలలు కూడా వ్రాస్తాడు, రెండు టెక్నికల్ థ్రిల్లర్లు, కొన్ని షార్ట్ సైన్స్ ఫిక్షన్ ఫిల్మ్లు మరియు ఒక రోమ్-కామ్ ఉన్నాయి!
పోస్ట్ సమయం: ఆగస్ట్-20-2021