AQI
TV9 NETWORK LOGO
Default Image
Sign In

By signing in or creating an account, you agree with Associated Broadcasting Company's Terms & Conditions and Privacy Policy.

5
Latest newskerala Election 2026KeralaIPL 2026IndiaEntertainmentBusinessEducationSportsShort VideosLifestyleWorldTechnology

AI Photo trend traps: നാനോ ബനാനയിലും സോറയിലുമെല്ലാം ട്രെൻഡിനൊപ്പം ഓടിക്കോളൂ പക്ഷെ അപകടം പിന്നാലെ എത്താം…. കെണി വരുന്ന വഴി

AI tools like Nano Banana and Sora 2 normalise deepfake: നമ്മൾ കാണുന്ന വീഡിയോകളും വാർത്തകളും കള്ളമാണോ സത്യമാണോ എന്ന് മനസ്സിലാകാതെയാകും. ഒരാൾ ഒരു കാര്യം പറയുന്നതായി AI വീഡിയോ ഉണ്ടാക്കി പ്രചരിപ്പിച്ചാൽ, അത് കണ്ടാൽ സത്യമാണെന്ന് തോന്നും.

AI Photo trend traps: നാനോ ബനാനയിലും സോറയിലുമെല്ലാം ട്രെൻഡിനൊപ്പം ഓടിക്കോളൂ പക്ഷെ അപകടം പിന്നാലെ എത്താം…. കെണി വരുന്ന വഴി
Ai video issues Image Credit source: TV9 Network
Aswathy Balachandran
Aswathy Balachandran | Published: 06 Oct 2025 | 06:36 PM

കൊച്ചി: നിങ്ങൾ ഇപ്പോൾ സോഷ്യൽ മീഡിയയിൽ കാണുന്ന ചിത്രങ്ങളും വീഡിയോകളും ശ്രദ്ധിച്ചിട്ടുണ്ടാവുമല്ലോ? കൂട്ടുകാർ പഴയ സിനിമ താരങ്ങളെപ്പോലെ ആകുന്നു, അല്ലെങ്കിൽ നിങ്ങൾ കുഞ്ഞായിരുന്നപ്പോൾ ഉള്ള നിങ്ങളുടെ ഫോട്ടോയും ഇപ്പോഴത്തെ ഫോട്ടോയും ഒന്നിച്ചു ചേർക്കുന്നു—ഇതെല്ലാം AI ഉണ്ടാക്കുന്നതാണ്.

ഗൂഗിളിന്റെ ‘ജെമിനി നാനോ ബനാന’ പോലുള്ള AI ടൂളുകൾ ഉപയോഗിച്ച് ഒരു സാധാരണക്കാരന് പോലും യഥാർത്ഥമെന്ന് തോന്നുന്ന ചിത്രങ്ങൾ നിമിഷങ്ങൾക്കകം ഉണ്ടാക്കാം. ഇതിനുപിന്നാലെ, OpenAIയുടെ ‘സോറ 2’ വന്നപ്പോൾ, AI ഇപ്പോൾ വീഡിയോകളും ഉണ്ടാക്കാൻ തുടങ്ങി.

 

ഭയം വേണം

ഇതൊരു തമാശയല്ല. ഈ ടൂളുകൾ ഉപയോഗിച്ച് ആർക്കുവേണമെങ്കിലും ആരുടെയും മുഖം ഉപയോഗിച്ച് വ്യാജ വീഡിയോകളോ ചിത്രങ്ങളോ എളുപ്പത്തിൽ ഉണ്ടാക്കാം. ഇതിനാണ് ‘ഡീപ്ഫേക്ക്’ എന്ന് പറയുന്നത്. AI ഉണ്ടാക്കുന്ന ഈ വ്യാജ വീഡിയോകൾ കണ്ടാൽ, അത് ശരിക്കും സംഭവിച്ചതാണോ, അതോ കമ്പ്യൂട്ടർ ഉണ്ടാക്കിയതാണോ എന്ന് ആർക്കും തിരിച്ചറിയാൻ കഴിയില്ല.

 

Also read – മൾട്ടി-ഇമേജ് ബ്ലെൻഡിംഗ് ഇനി എളുപ്പത്തിൽ ചെയ്യാം, ജെമിനി 2.5 ഫ്ലാഷ് ഇനി എല്ലാവരിലേക്കും…

 

ഈ ടൂളുകൾ സൗജന്യവും ഉപയോഗിക്കാൻ വളരെ എളുപ്പവുമാണ്. അതുകൊണ്ട് തന്നെ, ദുഷ്ടലാക്കോടെയുള്ള ആളുകൾക്ക് ആരുടെയും സമ്മതമില്ലാതെ അവരുടെ ചിത്രങ്ങൾ ഉപയോഗിച്ച് മോശം കാര്യങ്ങൾ ചെയ്യാം. നമ്മൾ കാണുന്ന വീഡിയോകളും വാർത്തകളും കള്ളമാണോ സത്യമാണോ എന്ന് മനസ്സിലാകാതെയാകും. ഒരാൾ ഒരു കാര്യം പറയുന്നതായി AI വീഡിയോ ഉണ്ടാക്കി പ്രചരിപ്പിച്ചാൽ, അത് കണ്ടാൽ സത്യമാണെന്ന് തോന്നും.

സത്യമെന്താണെന്ന് അറിയാതെ നമ്മൾ ആശയക്കുഴപ്പത്തിലാകും. ഈ കമ്പനികൾ ചിത്രങ്ങളിൽ വാട്ടർമാർക്ക് വെക്കുന്നുണ്ടെങ്കിലും, അത് എളുപ്പത്തിൽ മാറ്റാൻ കഴിയും. അതോടെ, അത് ആരാണ് ഉണ്ടാക്കിയതെന്ന് കണ്ടുപിടിക്കാൻ കഴിയില്ല.

 

നമ്മൾ ശ്രദ്ധിക്കേണ്ടത്

 

AI ഉണ്ടാക്കുന്ന ഇത്തരം ചിത്രങ്ങളും വീഡിയോകളും കണ്ട് നമ്മൾ ചിരിക്കുകയും അത്ഭുതപ്പെടുകയും ചെയ്യുന്നു. പക്ഷേ, ഈ ‘കളിപ്പാട്ടങ്ങൾ’ ഉപയോഗിച്ച് വ്യാജം ഉണ്ടാക്കാൻ എളുപ്പമാകുമ്പോൾ, സത്യവും നുണയും തമ്മിലുള്ള വ്യത്യാസം നമ്മൾ മറന്നുപോകാൻ സാധ്യതയുണ്ട്.

നമ്മൾ കണ്ടാൽ സത്യമെന്ന് തോന്നുന്ന ഒരു ചിത്രമോ വീഡിയോയോ കിട്ടിയാൽ, അത് എത്രത്തോളം വിശ്വസനീയം ആണെന്ന് ചിന്തിക്കണം. കാരണം, AI കാരണം എല്ലാം വ്യാജമാക്കാൻ കഴിയുന്ന ഒരു കാലത്തേക്കാണ് നമ്മൾ അതിവേഗം എത്തിക്കൊണ്ടിരിക്കുന്നത്.

Follow Us