Deepfake Image: టెన్నాలజీ రెండువైపులా పదును ఉన్న కత్తి. దీనిని సరైన దిశలో వాడుకుంటే.. మంచి చేస్తుంది. లేదంటే వినియోగించే వాడికి కూడా ముప్పు తెస్తుంది. పెరుగుతున్న టెక్నాలజీతో ఎంత మంచి ఉంటుందో అంతే చెడు కూడా ఉంటుంది. దానిని వినియోగించే తీరుపైనే మంచి చెడు ఆధారపడి ఉంటాయి. ఈ టెక్నాలజీ యుగంలో మనషి సాధించిన మరో గొప్ప విజయం కృత్రిమ మేధ(ఏఐ) ఒకటి. అయితే ఇది నాణేనికి ఒకవైపే. మరోవైపు అది అంతే ప్రమాదకరమైనది కూఏడా. ఆర్టిఫీషయల్ ఇంటెలిజెన్స్తో అనేక ప్రయోజనాలు ఉన్నా కొందరు దానిని దుర్వినియోగం చేస్తున్నారు. ముఖ్యంగా yీ ప్ఫేక్ వీడియోలు, మార్ఫింగ్ ఫొటోలతో చిన్న, పెద్ద, ధనిక, పేద అని తేడా లేకుండా చాలా మందిని ఇబ్బంది పెడుతున్నారు. డీప్ఫేక్ ఇప్పుడు ప్రపంచ వ్యాప్తంగా ఒక పెద్ద సమస్యగా మారింది. అందరినీ కలవరపెడుతోంది. అయితే డీప్ఫేక్కు చెక్ పెట్టేందుకు కేంద్రం రంగంలోకి దిగింది. నకిలీలను గుర్తించేందుకు వీలుగా ప్రనెస్ ఇన్ఫర్మేషన్ బ్యూరో(పీఐబీ) తాజాగా ఓ వీడియో విడుదల చేసింది.
డీప్ఫేక్ను ఇలా గుర్తించొచ్చు..
ఎలాంటి టెక్నాలజీ అవసరం లేకుండా కేవలం చిన్న చిన్న మెలకువలతో ఏఐతో సృష్టించే డీప్ఫేక్ ఫొటోలను గుర్తించొచ్చు అని చెబుతోంది పీఐబీ. జాగ్రత్తగా పరిశీలిస్తే.. వాస్తవ దూరంగా ఉండే చిత్రాలు, వింతవింత లైటింగ్, నీడలు, చిత్రాల్లో అసమానతలు గుర్తించవచ్చని పేర్కొంది. ఆ వీడియోలో పైన పేర్కొన్న ఒక్కో అంశాన్ని వివరించింది.
ఉదాహరణకు ఇలా..
ఏఐతో సృష్టించిన ఫొటోలో మనుషుల శరీర తీరు వాస్తవానికి విరుద్ధంగా ఉంటుంది. లేదా చేతి, కాలి వేళ్లు అసహజంగా కనిపిస్తాయి. ఒక ఎడిట్ చేసే ఫొటోల్లో నీడలు కాస్త తేడాగా ఉంటాయి. వీటిని పరిశీలిస్తే ఏది వాస్తవమో ఏది నకిలీనో కనిపెట్టవచ్చు. ఇటీవల కొందరు సినీతారలు డీప్ఫేక్ వీడియోలతో ఇబ్బంది పడ్డారు. ప్రధాని నరేంద్రమోదీ, క్రికెట్ గాడ్ సచిన్ టెండూల్కర్ కూడా డీప్ఫేక్ బాధితులే. ఇటువంటి వాటిని అడ్డుకునేందుకు కొత్త ఫ్రేమ్వర్క్ను రూపొందిస్తామని పీఐబీ ప్రకటించింది. లోక్సభ ఎన్నికలపై డీప్ఫేక్పై కొత్త చట్టం తెచ్చే అవకాశం కూడా ఉంది .
Become an image detective! Spot AI-generated images like a pro!
Watch this video to find out how to look for the details while identifying any AI-generated images#PIBFactcheck @MIB_India
@DDNewslive pic.twitter.com/uGFEIILmcQ— PIB Fact Check (@PIBFactCheck) May 20, 2024