ડીપફેક્સ: તે શું છે, તે કેવી રીતે કાર્ય કરે છે અને તેને કેવી રીતે શોધવું

  • ડીપફેક્સ એ કૃત્રિમ બુદ્ધિનો ઉપયોગ કરીને જનરેટ કરાયેલ નકલી વિડિઓ, છબી અથવા ઑડિઓ સામગ્રી છે જે વાસ્તવિક રીતે વ્યક્તિના ચહેરા અથવા અવાજનું અનુકરણ કરે છે.
  • તેમની ટેકનોલોજી ડીપ ન્યુરલ નેટવર્ક્સ અને GAN મોડેલ્સ પર આધારિત છે જે મોટા પ્રમાણમાં ડેટામાંથી પેટર્ન શીખે છે.
  • સર્જનાત્મક ઉપયોગો ઉપરાંત, તેઓ ખોટી માહિતી, છેતરપિંડી, સાયબર ધમકી અને પ્રતિષ્ઠા અને ગોપનીયતાને ગંભીર નુકસાન પહોંચાડે છે.
  • આપણી જાતને સુરક્ષિત રાખવા માટે, જટિલ વિચારસરણી, સ્ત્રોત ચકાસણી, શોધ સાધનો અને સારી સાયબર સુરક્ષા પ્રથાઓને જોડવી મહત્વપૂર્ણ છે.

ડીપફેક શું છે અને તેને કેવી રીતે શોધી શકાય?

આપણે એવા સમયમાં જીવીએ છીએ જ્યારે હવે ફક્ત કંઈક જોવા કે સાંભળવાથી જ તેને સાચું માનવા માટે પૂરતું નથી.રાજકારણીઓના અતિવાસ્તવિક વીડિયો, અપમાનજનક વાતો કહેતા અધિકારીઓના ઓડિયો રેકોર્ડિંગ્સ, કરોડો ડોલર ટ્રાન્સફરનો ઓર્ડર આપતા અધિકારીઓ, અથવા સોશિયલ મીડિયા પર ફરતી નકલી ઘનિષ્ઠ છબીઓ... આ બધું શક્ય બન્યું છે... deepfakesઅને આપણામાંથી કોઈપણ તેનો ભોગ બની શકે છે; તમારે પ્રખ્યાત હોવું જરૂરી નથી.

તેઓ શું છે, તેઓ કેવી રીતે બનાવવામાં આવે છે, તેઓ કયા જોખમો ધરાવે છે અને સૌથી ઉપર, સંપૂર્ણપણે સમજવા માટે, આપણે તેમને કેવી રીતે શોધી શકીએ અને પોતાનું રક્ષણ કેવી રીતે કરી શકીએ? એક મૂળભૂત ડિજિટલ કૌશલ્ય બની ગયું છે, જે ઇમેઇલને કેવી રીતે અલગ પાડવો તે જાણવા જેટલું જ મહત્વપૂર્ણ છે ફિશિંગ અથવા મોબાઇલ ફોનની ગોપનીયતા સેટિંગ્સ ગોઠવો.

ડીપફેક શું છે અને તે શા માટે આટલા લોકપ્રિય બન્યા છે?

ડીપફેક્સ છે કૃત્રિમ બુદ્ધિમત્તાનો ઉપયોગ કરીને જનરેટ કરાયેલ અથવા ચાલાકી કરાયેલ નકલી ઑડિઓવિઝ્યુઅલ સામગ્રી (વિડિઓ, છબી અથવા ઑડિઓ) જેથી તેઓ સંપૂર્ણપણે અધિકૃત દેખાય. આ શબ્દ "" ના સંયોજન પરથી આવ્યો છે.ઊંડા" (દ્વારા ઊંડા શિક્ષણ અથવા ઊંડા શિક્ષણ) અને "નકલી"(ખોટા). એટલે કે, આ મશીન લર્નિંગ અલ્ગોરિધમ્સ પર આધારિત ઊંડા બનાવટી છે જે માનવ લક્ષણો, હાવભાવ અને અવાજોનું વાસ્તવિકતા સાથે અનુકરણ કરવામાં સક્ષમ છે જે, પ્રથમ નજરમાં, કોઈપણને મૂર્ખ બનાવી શકે છે."

છબીઓ અને અવાજોની હેરફેરનો લાંબો ઇતિહાસ હોવા છતાં, વર્તમાન ડીપફેક તેજી 2017 ની આસપાસ શરૂ થઈ હતી.આ બધું ત્યારે શરૂ થયું જ્યારે એક Reddit યુઝરે પોર્નોગ્રાફિક વિડીયો પોસ્ટ કરવાનું શરૂ કર્યું જેમાં તેણે પ્રખ્યાત અભિનેત્રીઓના ચહેરાને અન્ય લોકોના ચહેરા સાથે ડિજિટલી રીતે બદલ્યા. ત્યારથી, ટેકનોલોજી વધુ વ્યાપક બની છે, સાધનો વધુને વધુ સુલભ બન્યા છે, અને પરિણામો શોધવા મુશ્કેલ બન્યા છે.

આ ઉત્ક્રાંતિએ ડીપફેક્સને ફક્ત મનોરંજન કરતાં વધુ ગંભીર બાબતમાં પરિવર્તિત કરી દીધું છે: તેઓ પહેલેથી જ ખોટી માહિતી, છેતરપિંડી, સાયબર ધમકી અને ગેરવસૂલી માટેનું એક સાધન છે., જેની સીધી અસર વ્યક્તિઓ, કંપનીઓ અને સંસ્થાઓની પ્રતિષ્ઠા પર અને ચૂંટણી પ્રક્રિયાઓ અને દેશોની સ્થિરતા પર પણ પડે છે.

WhatsApp મેટા AI ચેટ થીમ્સ, સ્ટીકરો અને લાઈવ ફોટા રજૂ કરે છે
સંબંધિત લેખ:
WhatsApp યુક્તિઓ: છુપાયેલા લક્ષણો, શોર્ટકટ્સ અને મુખ્ય સેટિંગ્સ

ડીપફેક્સ પાછળની ટેકનોલોજી કેવી રીતે કામ કરે છે

એક આકર્ષક ડીપફેક બનાવવા માટે, ફક્ત એક વિડિઓ એડિટિંગ પ્રોગ્રામ પૂરતો નથી. મુખ્ય બાબત ડીપ ન્યુરલ નેટવર્ક અને મોટી માત્રામાં ડેટાના ઉપયોગમાં રહેલી છે. (ફોટા, વિડીયો, વોઇસ રેકોર્ડિંગ્સ). આ સામગ્રીમાંથી, AI વ્યક્તિનો ચહેરો, અવાજ અને હલનચલન કેવા દેખાય છે તે "શીખે છે" જેથી પછીથી નવા સંદર્ભોમાં તેનું અનુકરણ કરી શકાય.

સૌથી સામાન્ય તકનીક એ છે જે તરીકે ઓળખાય છે તેના પર આધારિત છે GAN (જનરેટિવ એડવર્સેરિયલ નેટવર્ક્સ)આ મોડેલમાં, બે ન્યુરલ નેટવર્ક્સ સહકાર આપે છે - અને સ્પર્ધા કરે છે: એક નકલી છબીઓ અથવા ઑડિઓ જનરેટ કરે છે, અને બીજું તે વાસ્તવિક છે કે નકલી તે શોધવાનો પ્રયાસ કરે છે. આ પ્રક્રિયા એટલી વખત પુનરાવર્તિત થાય છે કે, ધીમે ધીમે, જનરેટર એવી સામગ્રી ઉત્પન્ન કરવામાં વ્યવસ્થાપિત થાય છે જેને ભેદભાવ કરનાર હવે નકલી તરીકે ઓળખી શકતો નથી.

વ્યવહારમાં, ચહેરાનો વિડિયો બનાવવા માટે, સિસ્ટમને હજારો ફીડ કરવામાં આવે છે મૂળ ચહેરા અને ઉપરથી લગાવવાના ચહેરાના ફ્રેમ્સ"એન્કોડર" અલ્ગોરિધમ સામાન્ય લક્ષણો (ચહેરાનો આકાર, હાડકાની રચના, મૂળભૂત પ્રમાણ) શોધી કાઢે છે અને તેમને આંતરિક રજૂઆતમાં ઘટાડે છે. પછી, બે "ડીકોડર" તે ચહેરાઓનું પુનર્નિર્માણ કરે છે: એક વ્યક્તિ A માટે અને એક વ્યક્તિ B માટે. તેમની વચ્ચે માહિતીની આપ-લે કરીને, વ્યક્તિ Aનો ચહેરો વ્યક્તિ B ના હાવભાવ, હલનચલન અને હાવભાવ અપનાવે છે.

અવાજના કિસ્સામાં, મોડેલો જટિલ અવાજોના લય, લય, સ્વર અથવા ઉચ્ચારણ જેવી લાક્ષણિકતાઓનું વિશ્લેષણ કરે છે. માનવ અવાજના દરેક સેકન્ડમાં હજારો ડેટા પોઈન્ટ હોય છે જે AI શીખી શકે છે.માત્ર થોડી મિનિટોના સ્વચ્છ ઑડિયો સાથે અવાજોનું ક્લોનિંગ કરવા સુધી, વાસ્તવિક રેકોર્ડિંગને સંશ્લેષિત રેકોર્ડિંગથી અલગ પાડવાનું વધુને વધુ મુશ્કેલ બનાવે છે.

આજે ફરતા મુખ્ય પ્રકારના ડીપફેક

ડીપફેક્સની દુનિયામાં આપણે હેરફેર કરેલી સામગ્રીના પ્રકાર અનુસાર ઘણી શ્રેણીઓ અલગ પાડી શકીએ છીએ. સૌથી સામાન્ય ચહેરા અને અવાજ પર ધ્યાન કેન્દ્રિત કરે છેજોકે વધુ અદ્યતન પ્રકારો છે.

એક તરફ આપણી પાસે કહેવાતા "ઊંડા ચહેરાઓ"જે છબીઓ અથવા વિડિઓઝના ડીપફેક છે જેમાં સંપૂર્ણ ચહેરા બનાવો અથવા બદલોતેઓ વાસ્તવિક સામગ્રીથી શરૂ કરી શકે છે, ઘણા લોકોના ચહેરાઓને જોડીને, અથવા શરૂઆતથી પણ ઉત્પન્ન થઈ શકે છે, જેના પરિણામે એવા વ્યક્તિઓના ચહેરાઓ બને છે જે અસ્તિત્વમાં નથી પણ સંપૂર્ણપણે વાસ્તવિક દેખાય છે. આ તકનીકોનો ઉપયોગ એક વ્યક્તિના ચહેરાને બીજાના શરીર પર સુપરઇમ્પોઝ કરવા અને કૃત્રિમ પાત્રો બનાવવા માટે થાય છે.

બીજી બાજુ છે "ઊંડા અવાજો"જે ઓડિયો પર ધ્યાન કેન્દ્રિત કરે છે. અહીં, AI ને પીડિતના અવાજ રેકોર્ડિંગ સાથે તાલીમ આપવામાં આવે છે અને પછી, નવા સંદેશાઓ ઉત્પન્ન કરે છે જે વાસ્તવિક વ્યક્તિ જેવા જ લાગે છે.આ પ્રકારની બનાવટીનો ઉપયોગ કોર્પોરેટ છેતરપિંડીમાં પહેલાથી જ થઈ ચૂક્યો છે, જેમ કે એક જાણીતો કેસ જેમાં એક એક્ઝિક્યુટિવે $200.000 થી વધુ રકમ ટ્રાન્સફર કરી હતી અને એવું માનીને કે તે તેના CEO ના આદેશનું પાલન કરી રહ્યો છે, જ્યારે વાસ્તવમાં તે ક્લોન કરેલો અવાજ સાંભળી રહ્યો હતો.

ઘણા ઘટકોને જોડતા વધુ સુસંસ્કૃત પ્રકારો પણ છે: ડીપફેક જે હાવભાવ, મુદ્રા અને વાતાવરણમાં ફેરફાર કરે છેઅથવા તે ફક્ત ચહેરાને જ નહીં પરંતુ આખા શરીરને પણ સુધારે છે, જોકે આ માટે વધુ કમ્પ્યુટિંગ પાવરની જરૂર પડે છે અને ઘરેલું સેટિંગ્સમાં તે ઓછું સામાન્ય છે.

વ્યવહારમાં ડીપફેક કેવી રીતે બનાવવું

ભલે તે ખૂબ જ ટેકનિકલ લાગે, આજકાલ સામાન્ય ડીપફેક બનાવવું એ કોઈપણ વ્યક્તિ માટે સુલભ છે જેની પાસે સારું કમ્પ્યુટર હોય કે શક્તિશાળી મોબાઇલ ફોન પણ હોય.જે વ્યક્તિ તેને જનરેટ કરશે તે વ્યક્તિ પાસે AI, એડિટિંગ અને પોસ્ટ-પ્રોડક્શનનું જેટલું વધુ જ્ઞાન હશે, તેટલું જ પરિણામ વધુ ઝીણવટભર્યું અને વાસ્તવિક હશે, પરંતુ "લગભગ સ્વચાલિત" પ્રોગ્રામ્સ છે જે મોટાભાગનું કામ કરે છે.

સરળ શબ્દોમાં કહીએ તો, પ્રક્રિયા સામાન્ય રીતે આ પગલાંને અનુસરે છે: પ્રથમ, લક્ષ્ય વ્યક્તિની ઘણી છબીઓ, વિડિઓઝ અથવા ઑડિઓ રેકોર્ડિંગ્સ એકત્રિત કરવામાં આવે છે; પછી, મોડેલોને તેમની લાક્ષણિક લાક્ષણિકતાઓ શીખવા માટે તાલીમ આપવામાં આવે છે; અને અંતે, આ મોડેલ નકલી સામગ્રી જનરેટ કરવા માટે બેઝ વિડિઓ અથવા ઑડિઓ પર લાગુ કરવામાં આવે છે.આગળ, પરંપરાગત સંપાદનનો ઉપયોગ કરીને દૃશ્યમાન કલાકૃતિઓ (વિચિત્ર ધાર, ખોટી જગ્યાએ મૂકેલા પડછાયા, વિચિત્ર હલનચલન) સુધારવામાં આવે છે.

વધુ અદ્યતન કેસોમાં, પહેલાથી ચર્ચા કરાયેલ GAN જેવી જટિલ તકનીકોનો ઉપયોગ થાય છે. જનરેટર ખોટી ફ્રેમ ઉત્પન્ન કરે છે, ડિસક્રિમિનેટર તેનું મૂલ્યાંકન કરે છે, ભૂલની ગણતરી કરવામાં આવે છે, અને પરિમાણોને સમાયોજિત કરવામાં આવે છે; આમ, હજારો પુનરાવર્તનોનો સમાવેશ થાય છે, તે વાસ્તવિકતાના એવા સ્તર સુધી પહોંચે છે જે સરેરાશ માનવ આંખને વટાવી શકે છે.આ ઉપરાંત, પરિણામને વધુ સુંદર બનાવવા માટે રંગ, લાઇટિંગ, લિપ-સિંકિંગ અને સાઉન્ડ મિક્સિંગમાં ગોઠવણો કરવામાં આવે છે.

સ્થિર છબીઓના ક્ષેત્રમાં, નીચેનાનો પણ ઉપયોગ થાય છે: ચોક્કસ કમ્પ્રેશન ભૂલ વિશ્લેષણ (ELA) અને મેટાડેટા વિશ્લેષણ સાધનો શક્ય હેરફેર ઓળખવા માટે. જોકે, સૌથી વધુ સુસંસ્કૃત સર્જકો આ તકનીકોથી પહેલાથી જ વાકેફ છે અને તે માહિતીને ભૂંસી નાખવા અથવા સુધારવાનો પ્રયાસ કરે છે જેથી તે છેતરપિંડી જાહેર ન કરે.

ડીપફેકના સકારાત્મક ઉપયોગો: બધું જ અંધારું નથી હોતું

તેમની ખરાબ પ્રતિષ્ઠા હોવા છતાં, ડીપફેક્સ પણ ફિલ્મ, કલા, શિક્ષણ અને દવા જેવા ક્ષેત્રોમાં તેમનો કાયદેસર અને સર્જનાત્મક ઉપયોગ છે.સમસ્યા ટેકનોલોજીની નથી, પણ તેનો ઉપયોગ કેવી રીતે થાય છે તેની છે.

ઑડિઓવિઝ્યુઅલ ઉદ્યોગમાં તેનો ઉપયોગ આ માટે કરવામાં આવ્યો છે કલાકારોને ડિજિટલી પુનર્જીવિત કરવા અથવા "પુનરુત્થાન" કરવા માટે અને જ્યારે દ્રશ્યોનું ભૌતિક રીતે ફિલ્માંકન શક્ય ન હોય ત્યારે દ્રશ્યો પૂર્ણ કરવા માટે. તેનો ઉપયોગ ડબિંગમાં સંવાદોને સમાયોજિત કરવા, ફિલ્માંકનની ભૂલો સુધારવા અથવા દસ્તાવેજી ફિલ્મોમાં ઐતિહાસિક વ્યક્તિઓને ફરીથી બનાવવા માટે પણ થાય છે. પ્રિન્સેસ લીઆનું પુનર્નિર્માણ અથવા "ડાલી લાઈવ્સ" જેવા ઇમર્સિવ પ્રદર્શનો દર્શાવે છે કે આ તકનીકો સાંસ્કૃતિક અનુભવને કેટલી હદે સમૃદ્ધ બનાવી શકે છે.

શિક્ષણ અને આઉટરીચમાં, ડીપફેક્સ પરવાનગી આપે છે જટિલ ખ્યાલો સમજાવતા અથવા જટિલ પરિસ્થિતિઓનું અનુકરણ કરતા વાસ્તવિક અવતાર બનાવો. તાલીમ વ્યાવસાયિકો (પાઇલટ્સ, આરોગ્યસંભાળ કર્મચારીઓ, સુરક્ષા દળો, વગેરે) માટે. "ખોટા પરંતુ બુદ્ધિગમ્ય" દૃશ્યોનું નિયંત્રિત નિર્માણ કટોકટી પ્રતિભાવો તૈયાર કરવા માટે ઉપયોગી છે.

ઉપચારાત્મક ક્ષેત્રમાં, ખૂબ જ સંવેદનશીલ ઉપયોગો સૂચવવામાં આવ્યા છે, જેમ કે કેટલાક લોકોને દુઃખ સહન કરવામાં મદદ કરવા માટે નિયંત્રિત પુનઃઅભિનય દ્વારા આઘાતજનક યાદોનો સામનો કરવા માટે, હંમેશા ખૂબ જ કડક નૈતિક અને ક્લિનિકલ માળખામાં. વૉઇસ ક્લોનિંગનો ઉપયોગ એવા દર્દીઓ સાથે વાતચીત કરવાની ક્ષમતાને આંશિક રીતે પુનઃસ્થાપિત કરવા માટે પણ થાય છે જેમણે તેને ગુમાવી દીધી છે, જેમ કે જાણીતા વ્યક્તિઓ સાથે થયું હતું જેમણે જૂના રેકોર્ડિંગ્સ સાથે તાલીમ પામેલા ઑડિઓ મોડેલોને કારણે તેમના અવાજનું સ્તર પુનઃપ્રાપ્ત કર્યું હતું.

વ્યવસાય અને ઈ-કોમર્સ ક્ષેત્રમાં, વ્યક્તિગત અવતારવાળા વર્ચ્યુઅલ ફિટિંગ રૂમ જેવી એપ્લિકેશનોનો અભ્યાસ કરવામાં આવી રહ્યો છે, અથવા વિડીયો ગેમ્સ જેમાં પાત્રો AI દ્વારા ઉત્પન્ન થતા વધુ કુદરતી અવાજો સાથે બોલે છેઆ એવા ઉપયોગો છે જે, જો સારી રીતે સંચાલિત થાય, તો અધિકારોનું ઉલ્લંઘન કર્યા વિના મૂલ્ય ઉમેરી શકે છે.

જોખમો અને દૂષિત ઉપયોગો: જ્યારે ડીપફેક શસ્ત્રો બની જાય છે

મોટી સમસ્યા એ છે કે, ખોટા હાથમાં, આ ટેકનોલોજી બની જાય છે છેતરપિંડી, ચાલાકી અને નુકસાન પહોંચાડવા માટેનું એક શક્તિશાળી સાધનડીપફેકનો ઉપયોગ પહેલાથી જ ઘણા ચિંતાજનક ક્ષેત્રોમાં થઈ રહ્યો છે.

સૌથી ગંભીર પૈકી એક છે ખોટી માહિતી અને રાજકીય ચાલાકીલશ્કરી ઉપાડની જાહેરાત કરતા નેતાઓના વીડિયો, વિસ્ફોટક નિવેદનો અથવા બનાવટી કબૂલાત જાહેર અભિપ્રાયને પ્રભાવિત કરી શકે છે, નાણાકીય બજારોને અસ્થિર કરી શકે છે અથવા આંતરરાષ્ટ્રીય સંબંધોમાં તણાવ પેદા કરી શકે છે. તાજેતરના સંઘર્ષોમાં ખોટા શરણાગતિ ભાષણો અથવા બનાવટી રાજકીય જાહેરાતો ફેલાવવામાં આવી હોય તેવા કિસ્સાઓ પહેલાથી જ જોવા મળ્યા છે.

તેઓ એક સામાન્ય સાધન પણ બની ગયા છે બદનામ ઝુંબેશ અને પ્રતિષ્ઠા પર હુમલાખોટી સામગ્રી ધરાવતો એક જ નકલી વિડિયો વ્યક્તિની જાહેર છબીને બગાડવા માટે પૂરતો છે, ભલે તે પાછળથી નકલી સાબિત થાય. સોશિયલ મીડિયા અને મેસેજિંગ એપ્સના વાયરલ સ્વભાવને કારણે, સામાજિક અને માનસિક નુકસાન કલાકોમાં થાય છે.

આર્થિક ક્ષેત્ર પણ બાકાત નથી: વૉઇસ અને વિડિયો ડીપફેક્સ હવે એક મુખ્ય ઘટક છે અત્યાધુનિક છેતરપિંડી, ઓળખ ચોરી, અને CEO છેતરપિંડી કૌભાંડોહુમલાખોરો પૈસા ટ્રાન્સફર, સંવેદનશીલ ડેટા અથવા મહત્વપૂર્ણ સિસ્ટમ્સની ઍક્સેસ મેળવવા માટે, વાસ્તવિક લાગે તેવા કોલ્સ, વિડીયો કોલ્સ અથવા વોઇસ સંદેશાઓનો ઉપયોગ કરીને વરિષ્ઠ અધિકારીઓ અથવા સપ્લાયર્સનો ઢોંગ કરે છે.

જ્યાં પરિસ્થિતિ ખાસ કરીને ચિંતાજનક છે તે છે સંમતિ વિનાની જાતીય સામગ્રીનું નિર્માણઓનલાઈન ઓળખાતી મોટાભાગની ડીપફેક સામગ્રી પોર્નોગ્રાફિક હોય છે, જેમાં ઘણીવાર પ્રખ્યાત મહિલાઓ અથવા સામાન્ય લોકોના ચહેરાઓ ઇન્ટિમેટ વીડિયોમાં દાખલ કરવામાં આવે છે. આનો ઉપયોગ સાયબર ધમકી, સેક્સટોર્શન, બદલો અથવા સરળ અપમાન માટે થાય છે, જેના ભોગ બનેલા લોકો માટે અત્યંત ગંભીર કાનૂની અને ભાવનાત્મક પરિણામો આવે છે.

એક વધુ સૂક્ષ્મ પણ એટલી જ ખતરનાક ઘટના પણ છે: કહેવાતી "માહિતીનો વિનાશ" અથવા વિશ્વાસનું સંકટજ્યારે લોકો ખૂબ જ બુદ્ધિગમ્ય નકલી સામગ્રી જોવા માટે ટેવાયેલા થઈ જાય છે, ત્યારે તેઓ દરેક વસ્તુ પર અવિશ્વાસ કરી શકે છે, વાસ્તવિક પુરાવા પર પણ. આ કોઈપણ વ્યક્તિ માટે "તેમાં છેડછાડ કરવામાં આવી છે" એવો દાવો કરીને અસુવિધાજનક પુરાવાને ફગાવી દેવા માટે એક સંપૂર્ણ સંવર્ધન સ્થળ બનાવે છે.

ડીપફેક માલવેર: જ્યારે છેતરપિંડી સાયબર હુમલા સાથે ભળી જાય છે

તાજેતરના વર્ષોમાં એક ખ્યાલ ઉભરી આવ્યો છે જે બે ખતરનાક દુનિયાને એક કરે છે: ડીપફેક્સ અને માલવેર. ડીપફેકમાલવેર એ ચોક્કસ હુમલાઓનું વર્ણન કરવા માટે વપરાતો શબ્દ છે જે ખોટી માહિતી ઝુંબેશ, નાણાકીય છેતરપિંડી અથવા સાયબર જાસૂસીને સમર્થન આપવા માટે જનરેટિવ AI નો ઉપયોગ કરે છે., હુમલાની સાંકળમાં નકલી વિડિઓઝ અથવા ઑડિઓને એકીકૃત કરીને.

ઉદાહરણ તરીકે, હુમલાખોર કરી શકે છે એક્ઝિક્યુટિવ તરીકે પોતાને રજૂ કરીને કોર્પોરેટ વિડીયો કોન્ફરન્સમાં ઘૂસણખોરી કરોક્લોન કરેલા ચહેરા અને અવાજોનો ઉપયોગ કરીને, તેઓ ગુપ્ત માહિતી મેળવી શકે છે અથવા એવી સૂચનાઓ આપી શકે છે કે જેના પર કોઈ પ્રશ્ન ઉઠાવશે નહીં. કંપનીના શેરના ભાવ ઘટાડવા, બજારમાં ગભરાટ ફેલાવવા અથવા રોકાણના નિર્ણયોમાં ચાલાકી કરવા માટે નકલી વીડિયો પણ ફેલાવી શકાય છે.

આ હુમલાઓ ફક્ત સામાજિક છેતરપિંડી સુધી મર્યાદિત નથી: પરંપરાગત માલવેર ડીપફેકની માનસિક અસરનો લાભ લઈ શકે છેએક ભયાનક વિડિઓ વપરાશકર્તાઓને એક કથિત "પેચ" ડાઉનલોડ કરવા માટે છેતરપિંડી કરી શકે છે જે ખરેખર વાયરસ છે, અથવા સત્તાવાર કંપની દસ્તાવેજોના વેશમાં દૂષિત જોડાણ ખોલવા માટે છેતરપિંડી કરી શકે છે.

આ પ્રકારના જોખમોને રોકવા માટે, તે જરૂરી છે સારી સાયબર સુરક્ષા પ્રથાઓ (અપડેટેડ એન્ટિમાલવેર, નેટવર્ક સેગ્મેન્ટેશન, મજબૂત પ્રમાણીકરણ) ને જોડો. કોલ્સ, વિડીયો કોલ્સ અથવા તાત્કાલિક ઇમેઇલ્સ દરમિયાન ડિજિટલ મેનિપ્યુલેશન્સ શોધવા અને ઓળખ ચકાસવા માટે ચોક્કસ તાલીમ સાથે.

ડીપફેક કેવી રીતે શોધવો: સંકેતો અને વ્યવહારુ યુક્તિઓ

ડીપફેકને ઓળખવું હંમેશા સરળ હોતું નથી, પરંતુ હજુ પણ એવી વિગતો છે જે છેતરપિંડી દૂર કરી શકે છે, ખાસ કરીને ઓછા પોલિશ્ડ મોન્ટેજમાં. અમુક સૂક્ષ્મ ખામીઓ ધ્યાનમાં લેવા માટે તમારી આંખ અને કાનને તાલીમ આપવી યોગ્ય છે..

દ્રશ્ય પાસાઓની દ્રષ્ટિએ, કેટલાક સામાન્ય સૂચકાંકો છે: અકુદરતી ઝબકવું (ખૂબ જ દુર્લભ અથવા ભાગ્યે જ)ચહેરાના થોડા કડક હલનચલન, વધુ પડતી સુંવાળી અથવા પ્લાસ્ટિક જેવી દેખાતી ત્વચા, ચહેરાની આસપાસ ઝાંખી ધાર, વિચિત્ર પૃષ્ઠભૂમિ ફેરફારો, અથવા પ્રકાશની ભૂલો (અશક્ય પડછાયા, પ્રતિબિંબ જે મેળ ખાતા નથી). શોટ સામાન્ય રીતે આખા શરીરને હેરફેર કરવાથી બચવા માટે ક્લોઝ-અપ હોય છે, અને વિડિઓઝ ટૂંકા હોય છે કારણ કે ઘણી સેકન્ડના ઉચ્ચ-ગુણવત્તાવાળા ફૂટેજ જનરેટ કરવા માટે ઘણી પ્રોસેસિંગ પાવરની જરૂર પડે છે.

તે પણ ધ્યાન આપવા યોગ્ય છે કે ચહેરા અને શરીરના બાકીના ભાગ વચ્ચે સુસંગતતાઅસંતુલિત ગરદન, ક્યારેય ન દેખાતા હાથ, વિચિત્ર મુદ્રાઓ, અથવા કપડાં જે સંદર્ભમાં બંધબેસતા નથી. વિડિઓને ધીમી ગતિમાં ચલાવવાથી મોં, જીભ અથવા દાંતની અંદર કૂદકા અથવા "ભૂલો" શોધવામાં મદદ મળે છે - એવા વિસ્તારો જે ખાસ કરીને સચોટ રીતે ફરીથી બનાવવા મુશ્કેલ છે.

ઑડિઓમાં, એક સ્પષ્ટ સંકેત છે કે હોઠ-સમન્વયનધ્વનિ વાતાવરણમાં વિચિત્ર ફેરફારો પણ નોંધનીય હોઈ શકે છે, જેમ કે પૃષ્ઠભૂમિ અવાજમાં અચાનક ઘટાડો, કંઈક અંશે એકવિધ સ્વર, અથવા ચોક્કસ ઘર્ષણ અવાજો (જેમ કે "f" અથવા "s") સાથે સમસ્યાઓ, જેનો ઉચ્ચાર મોડેલો હજુ પણ કંઈક અંશે કૃત્રિમ રીતે કરે છે.

આ ભૌતિક સંકેતો ઉપરાંત, વિશ્લેષણ કરવું હંમેશા જરૂરી છે સામગ્રીનું મૂળ અને સંદર્ભકોણે તેને સૌપ્રથમ પ્રકાશિત કર્યું? કયા પ્લેટફોર્મ પર? શું તે વિશ્વસનીય મીડિયા આઉટલેટ્સ દ્વારા લેવામાં આવી રહ્યું છે કે ફક્ત અનામી પ્રોફાઇલ્સ દ્વારા? મૂળ સ્ત્રોત શોધો, પ્રતિષ્ઠિત મીડિયા સાથે તેની ચકાસણી કરો અને હકીકત-તપાસ સેવાઓનો ઉપયોગ કરો. હકીકત-ચકાસણી તે જાળમાં ફસાઈ જવાની શક્યતાઓને ઘણી ઓછી કરે છે.

છેલ્લે, અરજી કરવી જરૂરી છે સામાન્ય સમજ અને વિવેચનાત્મક વિચારસરણીજો કોઈ વિડિયો કોઈ ચોક્કસ જૂથ જે માનવા માંગે છે તેની સાથે ખૂબ જ સારી રીતે બંધબેસે છે, અથવા જો સામગ્રી અત્યંત નિંદાત્મક છે પરંતુ ફક્ત ચોક્કસ ચેનલો દ્વારા જ ફરતી હોય, તો તે સમસ્યારૂપ બની શકે છે. વોટ્સએપ ચેઇન્સશંકાશીલ બનવાનો, થોડી વધુ તપાસ કરવાનો અને ચોક્કસપણે તેને હળવાશથી શેર ન કરવાનો સમય છે.

ડીપફેક ઓળખવા માટે વ્યાવસાયિક સાધનો અને તકનીકો

આપણી પોતાની વિશ્લેષણાત્મક ક્ષમતાઓ ઉપરાંત, પહેલાથી જ એક ઇકોસિસ્ટમ છે ચેડાં શોધવા માટે વિશિષ્ટ સાધનોકેટલાક, જેમ કે માઈક્રોસોફ્ટ વિડીયો ઓથેન્ટિકેટર, ડીપવેર સ્કેનર, અથવા સેન્સિટી AI, કૃત્રિમ સામગ્રીને દગો આપતા સૂક્ષ્મ પેટર્ન શોધવા માટે તેમના પોતાના AI મોડેલનો ઉપયોગ કરે છે.

ફોરેન્સિક ક્ષેત્રમાં, આશ્રય પણ લેવામાં આવે છે મેટાડેટા વિશ્લેષણ (ફાઇલ વિશેની ટેકનિકલ માહિતી: કેપ્ચર ડિવાઇસ, તારીખ, વપરાયેલ એડિટિંગ સોફ્ટવેર, વગેરે) અને કમ્પ્રેશન એરર લેવલ એનાલિસિસ (ELA), જે છબીના વિવિધ ડિગ્રેડેશનવાળા વિસ્તારો બતાવી શકે છે, જે સામાન્ય રીતે અન્ય વિસ્તારો પર રિટચ અથવા પેસ્ટ કરવામાં આવે છે.

અન્ય અદ્યતન પદ્ધતિઓ પર ધ્યાન કેન્દ્રિત કરે છે ભૌમિતિક અથવા શારીરિક અનિયમિતતાઓઆ તકનીકોમાં શામેલ છે: વિદ્યાર્થીઓના વિસ્તરણમાં સૂક્ષ્મ ભિન્નતા, ચહેરાના વિવિધ વિસ્તારોમાં દૃષ્ટિની રીતે જોવા મળતા હૃદયના ધબકારામાં ન્યૂનતમ તફાવત, પ્રકાશમાં ત્રિ-પરિમાણીય અસંગતતાઓ, વગેરે. આ તકનીકો જટિલ છે પરંતુ નિયંત્રિત વાતાવરણમાં ખૂબ ઊંચા સફળતા દર માટે પરવાનગી આપે છે.

ઑડિઓના કિસ્સામાં, અલ્ગોરિધમ્સ એવા પરિમાણો પર ધ્યાન કેન્દ્રિત કરે છે જે માનવ કાનમાંથી બહાર નીકળે છે: ફ્રીક્વન્સી સ્પેક્ટ્રા, પિચ અને લયમાં સૂક્ષ્મ ભિન્નતા, ચોક્કસ ધ્વનિઓના ઉચ્ચારણમાં અથવા શબ્દસમૂહના અંતે અશક્ય પેટર્ન. હાલમાં, ઘણા સિન્થેટિક ઑડિઓને અલગ પાડવામાં મશીનો લોકો કરતાં વધુ સારી છે.જો તેમની પાસે મૂળ સંદર્ભ રેકોર્ડિંગ્સ હોય.

આ પ્રગતિ છતાં, વાસ્તવિકતા એ છે કે ડીપફેક બનાવનારાઓ અને તેમને શોધનારાઓ વચ્ચેની સ્પર્ધા ચાલુ છે.પેઢીમાં થતા દરેક સુધારા માટે ચકાસણી તકનીકોમાં સુધારાની જરૂર પડે છે, જેનાથી સંશોધન ચાલુ રાખવું જરૂરી બને છે અને સૌથી ઉપર, એ ભૂલવું નહીં કે સંરક્ષણની પ્રથમ હરોળ એક સુજાગૃત નાગરિક રહે છે.

ડીપફેક્સની સામાજિક, નૈતિક અને કાનૂની અસર

ડીપફેક્સ માત્ર ટેકનિકલ પડકારો જ નથી ઉભા કરતા; તેઓ સીધા નૈતિક, કાનૂની અને સામાજિક મુદ્દાઓને સંબોધે છે.તેઓ પોતાની છબી, ગોપનીયતા, સન્માન, માહિતીની સ્વતંત્રતા અને સંસ્થાઓમાં વિશ્વાસ રાખવાના અધિકારને અસર કરે છે.

સૌથી મોટા જોખમોમાંનું એક એ છે કે કાનૂની અથવા મીડિયા કાર્યવાહીમાં "પુરાવા" તરીકે ઉપયોગમાં લેવાય છેજો કોઈ વિડિયોની સત્યતા સાબિત કરવી વધુને વધુ મુશ્કેલ બની રહી છે, તો નક્કર આરોપો લગાવવા અને બનાવટી આરોપો સામે બચાવ કરવો બંને વધુ જટિલ બની રહ્યા છે. જો હુમલાખોરો અત્યાધુનિક ડીપફેક વડે તેમને છેતરવામાં સક્ષમ હોય તો ચહેરા અને અવાજની ઓળખ પ્રણાલીઓ પણ જોખમમાં મુકાઈ શકે છે.

નૈતિક દૃષ્ટિકોણથી, ચર્ચા ખુલે છે લોકોની સંમતિ વિના (જીવિત કે મૃત) ફરીથી બનાવવું કેટલી હદ સુધી કાયદેસર છે?ઉમદા કે કલાત્મક હેતુઓ માટે પણ. "ડિજિટલ વારસો" અને કોઈની મૃત્યુ પછી તેની છબી અથવા અવાજનો ઉપયોગ કોણ કરી શકે છે તે ખ્યાલ વિવિધ કાનૂની પ્રણાલીઓમાં આકાર લેવા લાગ્યો છે.

નિયમનકારી મોરચે, વિવિધ દેશો પગલાં લઈ રહ્યા છે. વર્જિનિયા, કેલિફોર્નિયા અને ટેક્સાસ જેવા યુએસ રાજ્યોએ ચોક્કસ કાયદા પસાર કર્યા છે સંમતિ વિનાના પોર્નોગ્રાફિક ડીપફેક્સ પર કાર્યવાહી કરવા અને ચૂંટણી સમયગાળા દરમિયાન તેમના ઉપયોગ પર પ્રતિબંધ મૂકવા. ચીને આ પ્રકારની સામગ્રી પર ખૂબ જ કડક નિયંત્રણો લાદ્યા છે, અને યુરોપિયન યુનિયન તેનો પહેલો મુખ્ય આર્ટિફિશિયલ ઇન્ટેલિજન્સ કાયદો રજૂ કરી રહ્યું છે, જે સિસ્ટમોને તેમના જોખમના સ્તર અનુસાર વર્ગીકૃત કરે છે અને કૃત્રિમ સામગ્રીના ઉપયોગમાં પારદર્શિતાની જરૂર છે.

તેમ છતાં, નિયમન હંમેશા ટેકનોલોજીથી પાછળ રહે છેમૂળભૂત અધિકારો (ગોપનીયતા, સન્માન, ભેદભાવ ન રાખવો) નું રક્ષણ કરવા અને નવીનતાને દબાવવા ન દેવા વચ્ચે સંતુલન શોધવાનો પડકાર છે. વધુમાં, જવાબદારી સોંપવી સરળ નથી: શું સાધન ડિઝાઇન કરનાર વ્યક્તિ, વિડિઓ બનાવનાર વ્યક્તિ, તેને અપલોડ કરનાર વ્યક્તિ, કે તેને વાયરલ કરનાર વ્યક્તિ જવાબદાર છે?

આ બધા કારણોસર, આંતરરાષ્ટ્રીય સંસ્થાઓ, સુરક્ષા દળો અને યુરોપોલ ​​અથવા યુએન જેવી સંસ્થાઓ એકની જરૂરિયાત પર આગ્રહ રાખે છે "ટેક્નોએથિકલ સાક્ષરતા"નાગરિકો - ખાસ કરીને યુવાનો - ને આ ટેકનોલોજીના દુરુપયોગના જોખમો, હાનિકારક સામગ્રી ફેલાવવાના કાનૂની પરિણામો અને કંઈપણ ફોરવર્ડ કે પોસ્ટ કરતા પહેલા સમજદારીપૂર્વક કાર્ય કરવાના મહત્વ વિશે શિક્ષિત કરવું.

ડીપફેકથી પોતાને બચાવવા માટે તમે શું કરી શકો છો?

આવી જટિલ સમસ્યાનો સામનો કરતી વખતે, એવું વિચારવું સહેલું છે કે વ્યક્તિગત સ્તરે બહુ ઓછું કરી શકાય છે, પરંતુ એવું નથી. કોઈપણ વ્યક્તિ પોતાના સંપર્ક અને નબળાઈ ઘટાડવા માટે ઘણા વ્યવહારુ પગલાં લઈ શકે છે..

પ્રથમ છે તમારા ડિજિટલ ફૂટપ્રિન્ટને સુરક્ષિત કરોસોશિયલ મીડિયા પર, ખાસ કરીને પબ્લિક પ્રોફાઇલ્સ પર, તમે જાહેરમાં પોસ્ટ કરો છો તે વ્યક્તિગત ફોટા, વિડિઓઝ અને ઑડિઓનું પ્રમાણ મર્યાદિત કરો. હુમલાખોર પાસે જેટલી વધુ સામગ્રી હશે, તેના માટે એક વિશ્વાસપાત્ર મોડેલને તાલીમ આપવાનું તેટલું સરળ બનશે. તમારી ગોપનીયતા સેટિંગ્સની સમીક્ષા કરવી અને સમાધાનકારી સામગ્રી અપલોડ કરતા પહેલા બે વાર વિચાર કરવો એ એક સારી શરૂઆત છે.

બીજું એ અપનાવવાનું છે કે કોઈપણ આકર્ષક સામગ્રી પ્રત્યે ટીકાત્મક વલણહંમેશા સ્ત્રોતની ચકાસણી કરો, બહુવિધ મીડિયા આઉટલેટ્સ સાથે તપાસ કરો, હકીકત-તપાસ પ્લેટફોર્મનો સંપર્ક કરો, અને જો કંઈક શંકાસ્પદ લાગે, તો તેને શેર કરશો નહીં. સંભવિત ડીપફેક્સના ફેલાવામાં ફાળો આપવાનું ટાળવું એ તેમની પહોંચ મર્યાદિત કરવા માટે એક મહત્વપૂર્ણ પગલું છે.

વ્યાવસાયિક અને વ્યવસાયિક ક્ષેત્રમાં, તે મહત્વપૂર્ણ છે ઓળખ માન્યતા પ્રોટોકોલને મજબૂત બનાવવુંફક્ત ફોન કોલ અથવા વિડીયોના આધારે સંવેદનશીલ ઓર્ડર (ચુકવણી, પાસવર્ડમાં ફેરફાર, મહત્વપૂર્ણ દસ્તાવેજો મોકલવા) નું પાલન કરશો નહીં. "ડ્યુઅલ-ચેનલ" સિસ્ટમ્સ (દા.ત., અલગ પદ્ધતિ દ્વારા પુષ્ટિ) લાગુ કરવાથી અને મજબૂત પ્રમાણીકરણનો ઉપયોગ કરવાથી હુમલાખોરો માટે દાવપેચ માટે જગ્યા નોંધપાત્ર રીતે ઓછી થાય છે.

છેવટે, ક્યારેય દુઃખ થતું નથી... મૂળભૂત સાયબર સુરક્ષા, ખોટી માહિતી અને વિવેચનાત્મક વિચારસરણીમાં તાલીમ આપોસાયબર ગુનેગારો કેવી રીતે કાર્ય કરે છે, છેતરપિંડી કેવી રીતે બનાવવામાં આવે છે અને તેમને શોધવા માટે આપણી પાસે કયા સાધનો છે તે સમજવાથી આપણા મોબાઇલ ફોન સુધી પહોંચતા કોઈપણ ડીપફેક સામે આપણે વધુ સુરક્ષિત સ્થિતિમાં આવી શકીએ છીએ.

કૃત્રિમ બુદ્ધિમત્તાની પ્રગતિ ડીપફેકની ગુણવત્તામાં સુધારો કરવાનું વચન આપે છે, પરંતુ તે વધુ સારી શોધ પ્રણાલીઓ અને સ્પષ્ટ કાનૂની માળખાને પણ ચલાવી રહી છે; આ બદલાતા સંજોગોમાં, ઠંડુ મગજ રાખવું, ખૂબ જ સંપૂર્ણ કંઈપણથી સાવચેત રહેવું, અને હંમેશા માહિતીની ચકાસણી કરવી એ ડિજિટલ વાતાવરણમાં નેવિગેટ કરવા માટે શ્રેષ્ઠ વ્યૂહરચના છે જેમાં, વધુને વધુ, વાસ્તવિક લાગે છે તે બધું જ વાસ્તવિક નથી, પરંતુ આપણે તેમની વચ્ચે તફાવત કરવાનું શીખી શકીએ છીએ..