
AI Influencer Photo Morphing: కృత్రిమ మేధస్సు ఆధారిత టెక్నాలజీ ఈ మధ్యకాలంలో కొత్త సమస్యలను తెస్తోంది. AI జనరేటెడ్ ఫోటోలు, వీడియోలతో ఫేక్ సోషల్ మీడియా ప్రొఫైల్స్ సృష్టించి, ప్రజలను మోసం చేసే ఘటనలు పెరుగుతున్నాయి. అస్సాంలో ఇలాంటి ఒక ఘటనలో, సోషల్ మీడియా ఇన్ఫ్లూయెన్సర్ పేరుతో ఫేక్ ప్రొఫైల్ సృష్టించి, AI జనరేటెడ్ ఫోటోలను ఉపయోగించి ఆమెను అవమానించేందుకు ప్రయత్నించిన ఒక వ్యక్తిని పోలీసులు అరెస్టు చేశారు. ఇటీవల సినిమా హీరోయిన్ల ఫేక్ ఫోటోలతో సోషల్ మీడియా అకౌంట్స్ ఓపెన్ చేసి మోసాలకు పాల్పడుతున్న ఘటనలు పెరుగుతున్నాయి. అసలు ఫేక్ ఫోటోలను ఎలా గుర్తించాలి..? వీటి నుంచి ఎలా బయటపడాలి.. ? రాబోయే రోజుల్లో ఈ ఏఐ టెక్నాలజీ మరింత సమస్య కానుందా..?
ఏఐ వచ్చిన తర్వాత ఏ ఫోటో నిజం.. ఏ ఫోటో అబద్ధామో తెలియడం లేదు. వీడియలో విషయం కూడా ఇలానే ఉంది. ప్రముఖ హీరోయిన్ అసభ్యకర ఫోటోలు సోషల్ మీడియాలో దర్శనమిస్తున్నాయి. కొంతమంది అవి నిజమని కూడా నమ్ముతున్నారు. అయితే అవి ఏఐ జనరేటెడ్ ఫోటోలు అని తెలియనంతగా మార్ఫింగ్ జరుగుతోంది. దీంతో సినీ తారలు మానసిక క్షోభకు గురవుతున్నారు. ఈ వరుసలో సోషల్ మీడియా ఇన్ఫ్లూయెన్సర్ లు కూడా బాధితులు అవుతున్నారు. లక్షల్లో ఫాలోవర్స్ ఉన్న వారి ఖాతాల నుంచి ఫోటోలు డౌన్ లోడ్ చేసి.. ఏఐ ద్వారా అసభ్యకర ఫోటోలు జనరేట్ చేస్తున్నారు. వాటిని ఫెక్ అకౌంట్స్ ఓపెన్ చేసి.. నిజమైన వాటిలా నమ్మించి మోసగిస్తున్నారు. అస్సాం రాష్ట్రంలోని డిబ్రూగఢ్లో ఇలానే ప్రతీమ్ బోరా అనే వ్యక్తి మోశానికి పాల్పడితే పోలీసులు అరెస్టు చేశారు. సోషల్ మీడియా ఇన్ఫ్లూయెన్సర్ అర్చితా ఫుకాన్ పేరుతో ఫేక్ సోషల్ మీడియా ప్రొఫైల్ సృష్టించి, AI జనరేటెడ్ మార్ఫ్డ్ ఫోటోలను అప్లోడ్ చేశాడు. ప్రతీమ్ బోరా, అర్చితా ఫుకాన్ మాజీ పార్టనర్.. ఆమెను అవమానించడానికి, ఇలా చేశాడని పోలీసులు తెలిపారు. అర్చితా ఫుకాన్ సోషల్ మీడియాలో 9.7 లక్షల ఫొలోవర్స్తో ప్రసిద్ధి చెందిన ఇన్ఫ్లూయెన్సర్. ఆమె ఇటీవల అమెరికన్ అడల్ట్ ఫిల్మ్ స్టార్ కేంద్రా లస్ట్ తో హెడ్లైన్స్లో నిలిచింది. ఈ ఫేక్ ప్రొఫైల్ నుంచి కేంద్రా లస్ట్తో కలిసి ఉన్నట్టు మార్ఫ్డ్ ఫోటోలు వైరల్ కాగా, అర్చితా ఫుకాన్ సోదరుడు ఫిర్యాదు చేయడంతో బోరాను అరెస్టు చేశారు. బోరా తన మొబైల్ ఫోన్, ల్యాప్టాప్లో అర్చితా ఫుకాన్ పాత సోషల్ మీడియా పోస్టుల నుంచి ఫోటోలను తీసుకుని, వాటిని AI సాఫ్ట్వేర్తో మార్ఫ్ చేసినట్లు విచారణలో ఒప్పుకున్నాడు.
AI జనరేటెడ్ ఫోటోలు, వీడియోలతో మోసాలు ఈ మధ్యకాలంలో గణనీయంగా పెరిగాయి. ఇటీవల ఢిల్లీలో ఒక 21 ఏళ్ల వ్యక్తిని పోలీసులు అరెస్టు చేశారు. అతడు ఒక కళాశాల విద్యార్థిని పేరుతో ఫేక్ ఇన్స్టాగ్రామ్ ఖాతాలను సృష్టించి, ఆమె AI-జనరేటెడ్ అశ్లీల చిత్రాలను అప్లోడ్ చేసి, ఆన్లైన్ వేధింపులకు, బ్లాక్మెయిల్కు పాల్పడ్డాడు. సైబర్క్రైమ్ టీమ్ టెక్నికల్ సర్వీలెన్స్, AI టూల్స్ ద్వారా అతన్ని గుర్తించింది. అతడిని అరెస్ట్ చేశారు. గత ఏడాది ఓ ప్రముఖ బాలీవుడ్ నటి డీప్ఫేక్ వీడియో సోషల్ మీడియాలో వైరల్ అయింది, దీనిలో ఆమె ముఖాన్ని అశ్లీల వీడియోలో AI ద్వారా అతికించారు. నిజంగా ఆ వీడియోలో అమె ఉందని భ్రమపడేలా వీడియో క్రియేట్ చేసి.. ఆమె ప్రతిష్ఠకు భంగం కలిగించారు. అలాగే, 2023లో ఒక రాజకీయ నాయకుడి డీప్ఫేక్ వీడియోను రాజకీయ ప్రత్యర్థులు వాడుకుని, అతని గౌరవాన్ని దెబ్బతీశారు. ఈ ఘటనలు AI టెక్నాలజీ దుర్వినియోగం తీవ్రతను చూపిస్తున్నాయి. AI Influencer Photo Morphing.
డీప్ఫేక్, AI జనరేటెడ్ ఫోటోలు, వీడియోల వల్ల అనేక నష్టాలు కలుగుతున్నాయి. మొదట, వ్యక్తుల గోప్యత ఉల్లంఘన జరుగుతోంది. అర్చితా ఫుకాన్ కేసులో వలె, ఫేక్ ప్రొఫైల్స్ ద్వారా వ్యక్తుల గౌరవానికి భంగం కలిగించడం, వారి సామాజిక, వృత్తిపరమైన జీవితాన్ని దెబ్బతీయడం జరుగుతోంది. రెండవది, ఈ కంటెంట్ ద్వారా బ్లాక్మెయిల్, సైబర్ హారాస్మెంట్, ఆర్థిక మోసాలు జరుగుతున్నాయి. AI జనరేటెడ్ వాయిస్ లేదా వీడియోలతో వ్యాపారవేత్తలను మోసం చేసి, డబ్బు డిమాండ్ చేసే కేసులు నమోదయ్యాయి. డీప్ఫేక్ కంటెంట్ రాజకీయ, సామాజిక విభేదాలను రెచ్చగొట్టడానికి ఉపయోగపడుతోంది, దీనివల్ల సమాజంలో అపనమ్మకం, గందరగోళ పరిస్థితి ఏర్పడుతోంది. ఈ కంటెంట్ను అశ్లీల కార్యకలాపాలకు ఉపయోగించడం వల్ల మహిళలు, పిల్లలు ఎక్కువగా బాధితులవుతున్నారు. ఈ సమస్యలు సమాజంలో నమ్మకాన్ని దెబ్బతీస్తూ, సైబర్స్పేస్లో భద్రతా సవాళ్లను పెంచుతున్నాయి.
AI జనరేటెడ్ ఫోటోలతో పాటు వీడియోలు, ముఖ్యంగా డీప్ఫేక్ వీడియోలు, అనేక సమస్యలను సృష్టిస్తున్నాయి. ఈ వీడియోలు అసలు వ్యక్తుల ముఖాలను, వాయిస్లను అశ్లీల వీడియో కంటెంట్తో అతికించడం ద్వారా వ్యక్తుల ప్రతిష్ఠను దెబ్బతీస్తున్నారు. అర్చితా ఫుకాన్ కేసులో, ఆమె ముఖాన్ని అమెరికన్ అడల్ట్ స్టార్ కేంద్రా లస్ట్తో జోడించి మార్ఫ్డ్ ఫోటోలు సృష్టించారు. దీనివల్ల ఆమె సామాజిక గౌరవానికి భంగం కలిగింది. ఒక్క అర్చితానే కాదు భారతదేశంలోనే ఎంతో మంతి స్టార్ హీరోయిన్లు ఈ డీప్ ఫేక్ బాధితులే .. వారి ముఖాలను అశ్లీల చిత్రాల్లోని వీడియోలకు జత చేసి .. అడల్ట్ వెబ్ సైట్లలో అప్ లోడ్ చేస్తున్నారు. దీని వల్ల సినిమా తారలు మానసికంగా , సామాజికంగా తీవ్ర ఇబ్బందులు పడుతున్నారు.
AI జనరేటెడ్ కంటెంట్ను గుర్తించడం సవాలుగా ఉన్నప్పటికీ, కొన్ని మార్గాలు దీనికి సహాయపడతాయి. ఫోటోలు లేదా వీడియోలలో రియాల్టీకి దూరంగా ఉండటం గమనించాలి. డీప్ఫేక్ వీడియోలలో ముఖ కదలికలు, కంటి కదలికలు, నీడలు, లైటింగ్ సక్రమంగా ఉండవు. రివర్స్ ఇమేజ్ సెర్చ్ టూల్స్ ద్వారా ఫోటోల ఎలా జనరేట్ చేశారో తనిఖీ చేయవచ్చు. సోషల్ మీడియా ప్రొఫైల్స్ ప్రామాణికతను ధృవీకరించడం చాలా ముఖ్యంగా. ఫేక్ ప్రొఫైల్స్ సాధారణంగా తక్కువ ఫొలోవర్స్, కొత్తగా క్రియేట్ అయ్యి, అసంబద్ధ కంటెంట్ను కలిగి ఉంటాయి. AI-ఆధారిత డీప్ఫేక్ డిటెక్షన్ టూల్స్ ఉపయోగించడం ద్వారా వీటిని గుర్తించవచ్చు. ప్రజలు సైబర్ నేరాలపై అవగాహన పెంచుకోవడం, సురక్షిత బ్రౌజర్లు, యాంటీవైరస్ సాఫ్ట్వేర్లను ఉపయోగించడం ద్వారా ఇలాంటి మోసాల నుంచి రక్షణ పొందవచ్చు.
AI ద్వారా జరిగే మోసాలను నివారించడానికి చట్టపరమైన, సాంకేతిక చర్యలు అవసరం. భారతదేశంలో భారతీయ న్యాయ సంహిత, ఇన్ఫర్మేషన్ టెక్నాలజీ యాక్ట్ 2000 కింద సైబర్ మోసాలు, అవమానకర కంటెంట్పై కఠిన చర్యలు తీసుకోవచ్చు. సైబర్క్రైమ్ పోలీసులు IP అడ్రస్, టెక్నికల్ సర్వీలెన్స్ ద్వారా నిందితులను గుర్తిస్తున్నాయి. అలాగే, AI-ఆధారిత డిటెక్షన్ టూల్స్ను అభివృద్ధి చేయడం, సోషల్ మీడియా ప్లాట్ఫామ్లు ఫేక్ ప్రొఫైల్స్ను తొలగించడానికి కఠిన విధానాలను అమలు చేయడం అవసరం. ప్రజలలో సైబర్ సెక్యూరిటీ అవగాహన కార్యక్రమాలు, డిజిటల్ లిటరసీని పెంపొందించడం కూడా కీలకం. అయితే ఎన్ని జాగ్రత్తలు తీసుకున్నా ఇలాంటి ఏఐ ఆధారిత మోసాలు మరింత పెరిగే అవకాశం లేకపోలేదు. డీప్ఫేక్ టెక్నాలజీ అభివృద్ధి చెందుతున్న కొద్దీ, దాని దుర్వినియోగాన్ని నియంత్రించడానికి ప్రభుత్వాలు, టెక్ కంపెనీలు, ప్రజలు కలిసి పనిచేయాలి. భారతదేశంలో సైబర్ చట్టాలను మరింత బలోపేతం చేయడం, AI డిటెక్షన్ సాంకేతికతలను అభివృద్ధి చేయడం, డిజిటల్ ఎథిక్స్పై అవగాహన పెంచడం ద్వారా ఈ సమస్యలను అరికట్టవచ్చు. ఈ సందర్భంలో, ప్రజలు డిజిటల్ కంటెంట్ను నమ్మే ముందు జాగ్రత్తగా ఉండాలి, విశ్వసనీయ సోర్సెస్ నుంచి సమాచారాన్ని తీసుకోవాలి.