Blog Archives

Archives for October 2023

October 29, 2023 - Comments Off on Digital Rights Foundation and Deputy Commissioner Lahore District Administration sign a MoU to conduct Hamara Internet Mahfooz Internet Digital Literacy and Safety Sessions

Digital Rights Foundation and Deputy Commissioner Lahore District Administration sign a MoU to conduct Hamara Internet Mahfooz Internet Digital Literacy and Safety Sessions

IMMEDIATE RELEASE
PRESS RELEASE
October 28, 2023

Lahore: Digital Rights Foundation (DRF) and Deputy Commissioner (DC) of the Lahore District Administration Rafia Haider signed a Memorandum of Understanding (MoU) to collaborate on a series of upcoming digital safety and literacy sessions for young adults titled, ‘Hamara Internet Mahfooz Internet’.

As Pakistan's digital transformation accelerates, DRF has recognized the critical need for digital literacy amongst young adults. Millions of Pakistan's young people are active internet users and are unaware of the emerging digital threats they face on the internet.  These series of workshops come under the flagship project of Hamara Internet. Through these workshops DRF aims to educate and build the capacity of young adults particularly in public schools of Lahore. DC Lahore Ms. Rafia and DRF’s Executive Director Nighat Dad signed the MoU and shed light on the importance of this collaboration for public schools in Lahore’s district.

DC Lahore Ms. Rafia added, ‘This is a great initiative particularly for public sector schools since conversations around online safety and digital literacy are still relatively new and used to happen in private schools mostly. We hope these sessions will be a learning curve for students and teachers who we plan to engage through the Hamara Internet project.’
DRF’s Executive Director Nighat Dad added, ‘ This has been a passion project for DRF for quite some time now since we wanted to normalize conversations around digital rights for everyone and not just a few. We see this as the first step of many of educating people regarding their online safety and ensuring that hamara (our) internet is safe for all.’

Through this pilot project, DRF aims to work with the DC office to build the capacity of students and teachers alike on key digital literacy themes like online safety, ethics of using social media, misinformation and disinformation and support mechanisms in place for young adults in case of cyberbullying and harassment.

Digital Rights Foundation is a registered research-based NGO in Pakistan. Founded in 2012, DRF focuses on ICTs to support human rights, inclusiveness, democratic processes, and digital governance. DRF works on issues of online free speech, privacy, data protection and online violence against women.

For more information log on: www.digitalrightsfoundation.pk 

Facebook 
Twitter/X 
Instagram
Tiktok 

Contact

Nighat Dad
[email protected]

Seerat Khan
[email protected]

Anam Baloch
[email protected]

October 27, 2023 - Comments Off on Nighat Dad joins UN Secretary General’s High-level Advisory Board on Artificial Intelligence (AI)

Nighat Dad joins UN Secretary General’s High-level Advisory Board on Artificial Intelligence (AI)

IMMEDIATE RELEASE
PRESS RELEASE
October 26, 2023

Digital Rights Foundation’s (DRF) Executive Director Nighat Dad has joined the United Nations Secretary General's high-level advisory board on Artificial Intelligence (AI) along with esteemed distinguished individuals from across the globe. The board will address the overarching theme of addressing global governance of AI.

The AI advisory body’s interim recommendations by the end of the year will focus on three main areas which will be the international governance of AI and generative AI and shared understanding of risks and challenges associated deployment of these technologies. The body will also be addressing key opportunities and enablers for leveraging AI to accelerate the delivery of Sustainable Development Goals (SDGs) of the United Nations.

Nighat Dad shares her delight in being part of the advisory board. She highlights, ‘I am honored to serve on this high-level advisory board focused on the emerging field of Artificial Intelligence (AI), which bring opportunities yet presents significant challenges. I'm excited to bring a global majority world perspective to our discussions and emphasize the importance of recognizing the potential human rights issues that may affect marginalized communities worldwide as we embrace new technologies. My goal is to address real-time threats and vulnerabilities faced by these communities and shed light on emerging problems through an intersectional lens while considering global AI governance.’

The board will also bolster the need for member states to act deliberately and quickly on existing and upcoming governance structures on AI being adopted by states. The board will be developing AI governance mechanisms for member states and over the course of years assisting and facilitating in implementation of these governance mechanisms from a human rights and digital rights perspective. Global majority member states are still in the process of deploying AI-facilitated technologies at the time. There needs to be education and awareness of the implications these technologies would pose which the board will be addressing in its convenings and recommendations to member states.

Digital Rights Foundation is a registered research-based NGO in Pakistan. Founded in 2012, DRF focuses on ICTs to support human rights, inclusiveness, democratic processes, and digital governance. DRF works on issues of online free speech, privacy, data protection and online violence against women.

For more information log on: www.digitalrightsfoundation.pk

Facebook 

Twitter/X 

Instagram

Tiktok 

Contact

Nighat Dad

[email protected]

Seerat Khan

[email protected]

Anam Baloch

[email protected]

October 17, 2023 - Comments Off on September 2023 Newsletter: DRF celebrates seven years of resilient voices in the media

September 2023 Newsletter: DRF celebrates seven years of resilient voices in the media

voices            

DRF celebrated it’s conference on seven years of resilient voices in the media in Islamabad on 15 September 2023 which marked the celebration of DRF's engagement with the media community, particularly women journalists. The conference brought together journalists, civil society, government representatives, and other stakeholders to discuss the state of media and the challenges that women journalists face in the country and celebrate their achievements despite the difficult circumstances they face working in the field. The conference had an exciting line-up of three panels to delve into DRF’s engagement with the journalist community in Pakistan and showcased an art exhibition of hand-drawn illustrations from DRF’s e-magazine, Digital 50.50.

Press Coverage for the event:

The Friday Times

https://thefridaytimes.com/15-Sep-2023/digital-rights-foundation-celebrates-seven-years-of-resilient-voices-in-the-media

Sehrish Khan Pakistan

https://sehrishkhanpakistan.wordpress.com/2023/09/15/digital-rights-foundation-celebrates-seven-years-of-resilient-voices-in-the-mediathrough-its-conference-today-islamabaddiscuss-the-challenges-that-women-journalists-face-in-the-country-and-celebra/

Bunjaarun - Youtube Channel

https://youtu.be/f39y__WkiUM?si=ublfFr3lzaWtX6Ip

Anake

https://anankemag.com/2023/09/15/digital-rights-foundation-pakistan-celebrates-seven-years-of-resilient-voices-in-the-media/

The Nation

https://www.nation.com.pk/15-Sep-2023/digital-rights-foundation-celebrates-seven-years-of-resilient-voices-in-the-media-through-it-s-conference

Voicepk.net

https://voicepk.net/2023/09/drf-holds-conference-to-celebrate-achievements-of-women-journalists/

 The News International

https://www.thenews.com.pk/print/1110377-resilient-voices-in-media-celebrated

Associated Press of Pakistan

https://www.app.com.pk/national/drf-celebrates-seven-years-of-resilient-voices-in-the-media/

Daily Times

https://dailytimes.com.pk/1132748/seven-years-of-resilient-voices-in-the-media-celebrated/

Urdu Point

https://www.urdupoint.com/en/pakistan/drf-celebrates-seven-years-of-resilient-voic-1749847.html

Online Campaigns:

In Collaboration with Coalition Against Online Violence

DRF with the support of Coalition Against Online Violence (CAOV), produced 6 animated videos, arranged a play and developed a comic book to highlight the lived experiences of the most marginalized people in Pakistan. Keep a lookout on our campaign with the hashtag #SaanjhiKahaniyan.

Identity Crisis: Roadblocks In Women's Access To Basic Id Documentation In Pakistan | GenderIT.org

To mark Identity Day 2023, DRF highlighted this article written by our Program Manager, Zainab Durrani and it talks about the discrimination by public service departments from a gendered and intersectional approach particularly in the case of accessing digital and passport ID for women in Pakistan.
Read it here.

Did you know? | Social Media Public Service Announcements Series

DRF has started on an online campaign on ‘Did You Know?’, to create mass awareness regarding the digital landscape in Pakistan and the rights afforded under it. It started as a part of The International Day for Universal Access to Information.

Press Coverage:

Nighat Dad on Bol News Network about weaponization of CCTV in educational institutes

DRF's Executive Director, Nighat Dad appeared on Bol News Network at the start of September 2023, to shed light on the weaponization of CCTV cameras in educational institutes. She emphasized on the lack of regulation, accountability & oversight regarding the use of CCTV cameras in schools & universities in Pakistan.

Nighat Dad explains how public comments play a vital role in making decisions by the Oversight Board | Oversight Board Twitter
https://x.com/OversightBoard/status/1701558969368457459?s=20
Pakistan: Groups win some concessions, but new laws threaten free speech | IFEX

The article provides a round-up of events related to free expression in Asia-Pacific in August 2023. It highlights the worsening repression in Afghanistan under Taliban rule, with a significant impact on media outlets and women's rights. Digital Rights Foundation was mentioned as an IFEX member and our analysis of the data protection bill was quoted.

https://ifex.org/two-years-of-taliban-and-a-love-letter-from-china/

https://ifex.org/two-years-of-taliban-and-a-love-letter-from-china/

Ahead of election, Pakistan introduces new laws to stifle dissent | Global Voices

Digital Rights Foundation was mentioned in this article because we raised concerns and provided recommendations regarding the Data Protection Bill, particularly emphasizing issues related to data localization and the independence of the proposed Commission, fearing they might infringe on digital rights and hamper the free flow of information.

https://advox.globalvoices.org/2023/08/17/ahead-of-election-pakistan-introduces-new-laws-to-stifle-dissent/

Digital detox: Making internet safer for all age groups in Pakistan | Dunya News

DRF’s work was highlighted in the piece Digital Detox: Making Internet Safer for all age groups in Pakistan in Dunya News. The piece discusses the challenges of e-security and cyberbullying in Pakistan particularly in reporting and addressing issues faced by women. There is a need for strengthening laws and increasing awareness to create a secure and inclusive social media environment in Pakistan.

https://dunyanews.tv/en/Pakistan/754065-Digital-detox:-Making-internet-safer-for-all-age-groups-in-Pakistan-

Youth at risk: cyberbullying epidemic grips Pakistan | Associated Press of Pakistan (APP) (Digital)

The Digital Rights Foundation (DRF)’s Cyber Harassment Helpline is highlighted in this article as its data showcases the prevalence of cyber harassment, with a majority of victims falling in the youth sector. To address these issues, there is a call for strengthening laws and increasing awareness to create a secure and inclusive online environment in Pakistan.

https://www.app.com.pk/national/youth-at-risk-cyberbullying-epidemic-grips-pakistan/

The Nation

https://www.nation.com.pk/11-Sep-2023/youth-at-risk-cyberbullying-epidemic-grips-pakistan

The Express Tribune

https://tribune.com.pk/story/2435327/youths-at-risk-from-cyberbullying-epidemic
Explainer: What’s the debate over the wages paid to junior lawyers by law firms? | Dawn News

The article discusses the ongoing debate among junior lawyers in Pakistan about insufficient remuneration, especially for those working in law firms that primarily practice litigation. The issue was brought to attention during a panel discussion and has led to discussions about low pay, discrimination against female lawyers, and the lack of formal regulations in the legal profession. Various lawyers and experts have weighed in on the matter, highlighting the challenges faced by junior lawyers and the need for standardization and better compensation policies. Nighat Dad was quoted in this article.

https://www.dawn.com/news/1777625

Events:

Concordia Annual Summit | A Global Guideline for Digital Information

Nighat Dad, Executive Director of DRF, spoke at the Global Guideline for Digital Information event on 19th September during the 13th session of the Concordia Annual Summit, a leading public-private sector forum held alongside the UN General Assembly. Nighat spoke about examining how misinformation threatens democracy and development and what can be done to address it.

Berkman Klein Center - Harvard University | Now & Next: Platform Accountability and Content Governance - Oversight Board Mock Deliberation

At the Berkman Klein Center - Harvard University, DRF’s Nighat Dad participated in a live deliberation on 22nd September of the cases Oversight Board receives and examined the challenges and successes the board has faced in its first three years.

NIC Peshawar | Safeguarding Women against Online Abuse and Cyber Crime

The session on ‘Safeguarding Women against Online Abuse and Cyber Crime’ was conducted by Digital Rights Foundation’s Communication Manager and Digital Security Trainer in NIC Peshawar on 5th September, 2023. The training's goal was to provide an overview of digital safety awareness as well as knowledge of combating online abuse and cyber crime. The audience consisted of Peshawar women from various sociocultural backgrounds.

Leadership Institute CHANAN

Chanan

On September 17th, DRF's Digital Security Trainer conducted a training workshop for participants from across Pakistan on Digital Safety and Security for Human Rights Defenders.
The workshop covered the holistic security approach for civil society organizations in order to protect both offline and online spaces.

Driving National Action against Child Sexual Abuse Online Using the Model National Response - the Experience of Indonesia

DRF attended the webinar organized by UNICEF in collaboration with WeProtect Global Alliance on Malaysia’s experience in implementation of the Model National Response (MNR). MNR was introduced in 2015 and used by many countries across the world to deal with online child sexual exploitation and abuse. Experiences and challenges on implementation, call to action and updates on MNR were shared with attendees.

Landscape of Hope (LoH) Meeting

DRF’s Programs Lead Seerat Khan attended the network meeting of landscape of hope (LoH) from 6th to 8th September 2023 in Beirut Lebanon. The meeting brought together organizations from across the globe majority in an annual meeting focusing on making cross collaborations and strengthening the network across the region.

Gender Sensitive Election Campaigns One Day Workshop with Simourgh

DRF conducted one day workshops on gender sensitive election campaigns on 20th and 21st September with political workers in collaboration with Simourgh Women’s Resource and Publication Centre. The workshop highlighted the importance of a gender sensitive approach in campaigning during the upcoming elections and have a human rights based manifestos.

HIVE Fellows visit DRF | Collaborative Meeting on rights of a marginalized community and combating extremism

Fellows from HIVE, a Pakistani social-impact organization dedicated to addressing extremism and marginalization through community-led efforts and collaboration, met with DRF team on  21st September 2023 to discuss shared research interests and their mutual commitment to uplifting marginalized communities in pursuit of inclusivity, equality, and peace in Pakistan.

Source Verification and Fact-checking workshop for Journalists during Elections held in Karachi

DRF and CEJ conducted a session on source verification and fact-checking in Karachi with the support of Meta keeping in mind the upcoming general elections. The two day workshop addressed the emergence of disinformation and misinformation during elections and how to tackle and report dis/misinformation during this time.

Driving national action against child sexual abuse online using the Model National Response webinar

DRF attended a webinar on Driving national action against child sexual abuse online using the Model National Response webinar. Ms.Anmol and Ms. Asma attended the webinar. In this webinar, speakers explored how Indonesia uses the  Model National Response in their response against child sexual exploitation and abuse online, the challenges they have encountered, and the lessons they have learned.

Webinar: State of Pakistan’s Digital Democracy

 

This year on the 14th of September, DRF hosted a webinar to commemorate the International Day of Democracy with legal, policy, media and human rights experts to discuss the latest developments in Pakistan that are undermining basic democratic freedoms, especially in the context of internet rights.

We were joined by noted journalist Afia Salam, Legal Counsel Human Rights Watch (Asia) Saroop Ijaz and CEO and Founder of Katalyst Labs, Jehan Ara. The session was moderated by Senior Program Manager Zainab Durrani.

 The panel discussed the recent onslaught of legislative and policy changes looking to overhaul the digital landscape in the country and summarize the impact it is having on most of Pakistan’s citizens, industries and human rights movements. Their valuable insights provided much needed context to the equation and also put forward clear policy points on how to mitigate the effects of such spirited attempts at overregulation.

The live talk can be viewed here.

Women Journalists' Collective Well-being Residency Retreat

Digital Rights Foundation held its annual residency for women journalists from 16-18 September 2023. The Residency is a space where women journalists create and nurture personal and professional bonds which are long lasting and help them in their professional career. The Residency had a line-up of sessions over two days focused on networking, online safety skills and story pitching.

DRF Updates:

Cyber Harassment Helpline

The Cyber Harassment Helpline received 185 complaints in total September, with 122 complaints by women. If you’re encountering a problem online, you can reach out to our helpline at 0800-39393, email us at [email protected] or reach out to us on our social media accounts.

IWF Portal

DRF in collaboration with Internet Watch Foundation (IWF) and the Global Fund to End Violence Against Children launched a portal to combat children’s online safety in Pakistan. The new portal allows internet users in Pakistan to anonymously report child sexual abuse material in three different languages- English, Urdu, and Pashto.

www.report.iwf.org.uk/pk 
StopNCII.org

October 6, 2023 - Comments Off on Digital Rights Foundation at the Internet Governance Forum 2023

Digital Rights Foundation at the Internet Governance Forum 2023

Digital Rights Foundation (DRF), will be attending and speaking at the 18th annual meeting of the Internet Governance Forum, hosted by the Government of Japan in Kyoto from 8th to 12th October 2023. The overarching theme of the convening this year will be - The Internet We Want - Empowering All People, which aims to create a digital world that is inclusive, equitable, and safe for individiuals across the globe. IGF provides multistakeholder avenues for civil society, private companies, technical communities and  governments from around the world to come together and discuss key digital rights  themes like emerging technologies and AI, misinformation and disinformation, data protection, privacy, content moderation, online gender based violence amongst others.

DRF has had a longstanding history of working around these key themes from the Asia Pacific region and will be making important interventions and contributions in the conference this year on gendered disinformation, governing AI and algorithmic bias and platform accountability.

Here’s a list of sessions we’ll be part of and to keep a lookout for at IGF this year where you can meet us:

Global South perspectives on governing AI | Lightning Talk

IGF Day 0 | Sunday, 8th October

1:50 PM - 2:10 PM PKT | 17:50 - 18:10 JST

Hyra Basit, Program Manager Cyber Harassment Helpline and Aqsa Javed, Legal Associate

Artificial Intelligence (“AI”) is rapidly evolving with its integration into our lives and governing all aspsects of our lives one way or the other.  AI and emerging technologies are developing and transforming various sectors of society at an unprecedented rate and even though this advancement brings about various positive outcomes, it is important to recognize that these trends can have potential threats to privacy rights and online user data safety.

DRF will be presenting a lightning talk around the different governing models and mechanisms being adopted by the Global majority to regulate AI. The lightning talk will also be shedding light on how regulations imposed by countries in the global majority particularly South Asia are not necessarily following fundamental human rights principles and the right to privacy.

This lightning talk will serve as an opportunity to explore current legal frameworks and their human rights implications in the ever evolving world of AI.

For further details click here.

Networking for Information Integrity in Asia and Globally

IGF Day 3 | Wednesday, 11th October

11:15 AM - 12:15 PM PKT | 3:15 PM - 4:15 PM JST

Hyra Basit, Program Manager Cyber Harassment Helpline DRF will be speaking on this panel and Seerat Khan, Program Lead DRF will be moderating it

DRF will be speaking at the National Democratic Insituties (NDI) session on ‘Networking for Information Integrity in Asia and Globally’. The session will highlight the work of NDI’s “Info/tegrity Network” which is a network of individuals and civil society organizations throughout Asia, as well as globally working together to promote the integrity of the information space. DRF’s Program Manager Hyra Basit will be a speaker at the session highlighting the work of the cyber harassment helpline as a resource for activists, human rights defenders and journalists by providing recourse and help around online safety, legal procedures and psycho-social well-being. DRF will also be highlighting its mental health toolkit for journalists and its manuals developed around fact checking and source verification to debunk misinformation and disinformation online.

For further details of the session click here.

Viewing Disinformation from a Global Governance Perspective

IGF Day 3 | Wednesday, 11th October

9:00 AM - 10:30 AM PKT | 1:00 PM - 2:30 PM JST

Nighat Dad, Executive Director DRF

DRF will be part of a workshop organized by Association for Progressive Communications (APC), Berlin Social Science Center and then Columbia Institute for Tele-Information on ‘Viewing Disinformation from a Global Governance Perspective’. The workshop will be looking to tackle the problem of disinformation and providing solutions around the evolving global Internet governance system with respect to human rights and an internsectional approach. DRF’s Executive Director, Nighat Dad, will be a speaker at the workshop addressing disinformation and the harms caused by disinformation in the Asia Pacific region with the rise of gendered disinformation in the region. She will also be highlighting governance initiatves around disinformation and the need for existing international instruments in governing disinformation in online spaces.

For furhter details click here.

Our commitment to driving conversations about the future of the internet will be reflected in our active participation in these interventions. These discussions will  help us advance our mission of creating a more equitable and inclusive digital landscape across the globe.

We look forward to meeting and having multistakeholder dialogues together for the , Internet We Want that empowers all people particiularly people residing in the global majority.

You can register online to attend IGF 2023 here.

About DRF

Digital Rights Foundation (DRF) is a women-led, not-for-profit organisation based in Pakistan working on digital freedoms since 2013. DRF envisions a place where all people, especially women and gender minorities, can exercise their right of expression without being threatened. DRF believes that a free internet with access to information and impeccable privacy policies can create safe online spaces for not only women but the world at large.

October 4, 2023 - Comments Off on ٹیکنالوجی، مصنوعی ذہانت اور خواتین کی صنفی شناخت

ٹیکنالوجی، مصنوعی ذہانت اور خواتین کی صنفی شناخت

Saadia Mazhar

کیا آپ کے پاس سمارٹ فون ہے؟ کیا آپ انٹرنیٹ کا استعمال بھی کرتی ہیں؟ ایک ایسے دور میں جہاں تکنیکی ترقی ہماری زندگی کے ہر پہلو کو تشکیل دے رہی ہے۔ اس طرح کے سوال پر سامنے والا آپ کو حیرت سے ضرور دیکھے گا۔ اور شاید یہ بھی سوچے کے آپ نے یہ سوال شاید معاشرے میں اس کی امتیازی حیثیت دیکھ کر کیا ہے۔

امتیازی حیثیت! معاشرہ مختلف طبقات ، معاشرت اور فکر کو ساتھ لے کر چلتا ہے اور یہ امتیاز معاشرے میں انسانی حیثیت کا تعین بھی کرتا ہے۔  تو کیا ٹیکنالوجی میں بھی کسی قسم کا صنفی یا طبقاتی امتیاز پایا جاتا ہے؟

اس سوال کو سمجھنا قدرے مشکل ہے کیونکہ پاکستان میں ٹیکنالوجی کی ترقی کو 2020 میں کووڈ 19 کے آنے کے بعد اشد ضرورت سمجھ کر زندگیوں کا حصہ بنایا گیا۔ نوکریوں کی کمی، انڈسٹری کے بند ہونے اور شدید معاشی بحران نے ہر طبقے کو نئے سافٹ وئیر ، مہارتیں اور  پلیٹ فارمز کو جاننے اور روزگار کا ذریعہ بنانے پر مجبور کر دیا۔ لیکن ٹیکنالوجی کیسے کام کرتی ہے اور کس طرح کا امتیازی رویہ رکھ سکتی ہے یہ سمجھنے کی کوشش اب تک لاحاصل رہی۔

کیا آپ بھی گاڑی چلاتے ہیں؟ پاکستان میں گاڑی چلانے والوں میں 95 فیصد مرد جبکہ صرف 5 فیصد تعداد خواتین کی ہے۔ کاروں میں سیٹ بیلٹ،  ہیڈ ریسٹ اور آئر بیگز کی مثالیں لیں۔ جنہیں بنیادی طور پر مردوں کے جسم اور ان کے بیٹھنے کی پوزیشن کا استعمال کرتے ہوئے کار حادثے کے ڈمی ٹیسٹ سے جمع کیے گئے ڈیٹا کی  بنیاد پر ڈیزائن کیا گیا ہے۔ خواتین کی جسمانی ساخت اور حاملہ جسم کو اس معیاری پیمائش کا حصہ نہیں بنایا گیا۔ نتیجے کے طور پر خواتین کا ایکسیڈنٹ میں شدید متاثر ہونے کا امکان 47 فیصد زیادہ ہے اور اسی طرح کے حادثے میں مرد کے مقابلے میں موت کا امکان بھی 17 فیصد زیادہ ہے۔

یہ مثال ٹیکنالوجی اور مصنوعی ذہانت میں صنفی امتیاز کو بہتر انداز میں سمجھنے میں مدد دیتی ہے۔ ورلڈ اکنامک فورم کی حالیہ گلوبل جینڈر گیپ رپورٹ میں اس اہم مسئلے کو اجاگر کیا گیا ہے کہ مصنوعی ذہانت( اے آئی )کے شعبے میں خواتین کی تعداد صرف 22 فیصد جب کہ مردوں کی تعداد 78 فیصد ہے۔ اس سیکٹر میں خواتین کی کم نمائندگی نہ صرف صنفی مساوات میں بڑی رکاوٹ ہے بلکہ ٹیکنالوجی کی تیزی سے ترقی کرتی ہوئی دنیا میں خواتین کی زندگیوں اور ان کے پیشہ وارانہ مقام کے لیے بھی گہرے خطرات پیدا کرتا ہے۔

فرحت بشیر ، سیراب میپ کی فاونڈر ہیں اور پچھلے 12 سال سے اسی فیلڈ میں کام کر رہی ہیں۔ فرحت نے بلوم برگ کی ایک ریسرچ کا حوالہ دیتے ہوئے کہا کہ اس رپورٹ کے مطابق فیس بک اور گوگل میں 2 فیصد سے بھی کم سیاہ فام ملازمیں ہیں جبکہ تکنیکی پوزیشنز پر صرف 20 فیصد خواتین تعینات کی جاتی ہیں۔ عالمی سطح پر سائنس ، ٹیکنالوجی اور ریاضی کے شعبوں میں خواتین صرف 25 فیصد ہیں اور لیڈرشپ میں صرف 9 فیصد۔ فرحت پھر بھی پر امید ہیں کہ سٹیم اور مصنوعی ذہانت نے پاکستان میں خواتین کے لیے معاشی خودمختاری کے بہت مواقع پیدا کیے ہیں۔

فرحت نے اینٹرپینیورشپ پر بات کرتے ہوئے بتایا کہ چھوٹے چھوٹے کاروبار جنہیں خواتین اپنے ہنر سے چلا رہی ہیں ، ٹیکنالوجی کے بغیر نا ممکن تھے۔ یہ ٹیکنالوجی صنفی امتیاز کیسے رکھتی ہے یہ بہت گہری بات ہے جسے ہمارے ملک کی خواتین کبھی سمجھ نہیں سکتیں کیونکہ یہاں سب سے اہم مسئلہ ان کے لیے معاشرتی طور پر بنائی گئی حدود میں رہ کر معاشی خودمختاری حاصل کرنا تھی جو ٹیکنالوجی نے انہیں فراہم کر دی ہے۔

اقوام متحدہ کے مطابق  دنیا بھر میں 37 فیصد خواتین انٹرنیٹ استعمال نہیں کرتیں اور مردوں کے مقابلے میں  259 ملین کم خواتین کی انٹرنیٹ تک رسائی ہے۔ ترقی پذیر ممالک میں خواتین اکثر غیر متناسب طور پر متاثر ہوتی ہیں اور تمام شعبوں میں زیادہ کمزور ہوتی ہیں۔

یونیسکو کی 2019 کی رپورٹ کے مطابق سیری ، الیکسا اور کورٹانا جیسے ورچوئل اسسٹنٹ کا خواتین کی آواز میں لانچ ہونا محض  اتفاق نہیں بلکہ اس کے پیچھے ان ورچوئل اسسٹنٹس کو لانچ کرنے والی کمپنیوں کا اثر ہے جس میں سرکاری اور نجی دونوں شعبوں میں ذاتی معاونین اور سیکڑیٹریز کی اکثریت خواتین کی ہے۔

صنفی تعصب کو مصنوعی ذہانت اور ٹیکنالوجی میں سمجھنا اس لیے بھی بہت مشکل ہے کہ اسے الگورتھم کے ذریعے سمجھنا ہوتا ہے۔

مصنوعی ذہانت کے شعبے میں 78 فیصد مرد ہیں جو الگورتھم کو چلاتے اور کمانڈز ڈالتے ہیں۔ اس لیے  الگورتھم کا صنفی تعصب خواتین کے لیے اہم منفی اثرات مرتب کر سکتا ہے۔ مثال کے طور پر ان لائن جاب میں عموماً یہی الگورتھم خواتین کی درخواستوں کی صنفی امتیاز کے ذریعے درجہ بندی کر کے ان کے نوکری کے حصول کو متاثر کرتا ہے۔

پاکستان سافٹ وئیر ایکسپورٹ بورڈ کی رپورٹ کے مطابق پاکستان میں آئی ٹی ورک فورس میں خواتین کا حصہ صرف 14 فیصد ہے۔ ٹیک انڈسٹری میں خواتین کی یہ نمائندگی ایک چیلنج ہے ۔ اس رپورٹ میں یہ بھی بتایا گیا ہے کہ آئی ٹی سے متعلقہ کورسز میں داخلہ لینے والی خواتین کی تعداد 2014 میں صرف 24 فیصد تھی جبکہ 2018 میں بڑھ کر 37 فیصد ہوئی،  کووڈ 19 کے بعد اس تعداد میں مزید اضافہ دیکھا گیا ہے۔

جہاں ارا،  پاکستان سافٹ وئیر ہاوسز ایسوسی ایشن( پاشا) کی صدر ہیں اور پاکستان میں آئی ٹی کے شعبے میں نہ صرف خود کو منوا چکی ہیں بلکہ دیگر خواتین کے لیے بھی بہتر سے بہتر مواقع پیدا کر رہی ہیں۔

جہاں ارا اپنے بلاگ میں خود کو ایک عام ذہنی قابلیت رکھنے والے شخص سے تشبیہ دیتی ہیں جبکہ پاکستان جیسے ترقی پذیر ملک میں پاشا جیسے بڑے ادارے کو بنانا اور لیڈ کرنا عورت کی بہت بڑی کامیابی ہے۔ جہاں ارا نے نہ صرف پاکستان میں آئی ٹی اور ٹیکنالوجی میں خواتین کے لیے جگہ بنائی بلکہ انہوں نے اسی ٹیکنالوجی کا استعمال کرتے ہوئے ایسے ٹیک پروگرام شروع کیے جن کی مدد سے ملک میں سے خواتین اور بچیوں پر تشدد کو ختم کیا جا سکے۔

رمشا سوجانی،  گرلز ہو کوڈ کے نام سے ایک آرگنائزیشن چلا رہی ہیں جس میں بچیوں کو کوڈنگ سکھائی جاتی ہے تاکہ ٹیکنالوجی میں صنفی امتیاز سے بہتر انداز سے نمٹا جا سکے۔

پاکستان میں آئی ٹی انڈسٹری میں تقریباً 41 فیصد خواتین 4 سے 15 سال تک کا تجربہ رکھتی ہیں لیکن مینجمنٹ لیول تک صرف 13 فیصد ہی پہنچ پاتی ہیں۔ وجہ صرف آئی ٹی انڈسٹری پر مردوں کا غلبہ ہے اور عورت کو عموماً سست رفتار کہہ کر مینجمنٹ لیول سے پہلے ہی ہٹا دیا جاتا ہے یا پھر خواتین خود ملازمت چھوڑ دیتی ہیں۔

پاکستان میں فری لانسنگ کے شعبے نے بہت تیزی سے ترقی کی ہے۔ پاکستانی وزارت آئی ٹی اور ٹیلی کمیونیکیشن کے اعدادوشمار شمار کے مطابق  فری لاسنگ کی وجہ سے 2022 میں 74۔2[1]  فیصد اضافہ ہوا ہے۔ 2022 میں پاکستان میں 3 ملین فری لانسر تھے۔

عالمی فری لانس انڈسٹری کی مالیت 5۔3 بلین ڈالر ہے اور پاکستان کی صنعت عالمی مارکیٹ کا 9 فیصد حصہ رکھتی ہے۔

Paynoeer اور  unworkable  کے مطابق خواتین پاکستان میں فری لانس مارکیٹ کا 47 فیصد حصہ ہیں جو کہ عالمی اوسط کے 35 فیصد سے زیادہ ہے۔

عاصمہ پچھلے سات سال سے اپ ورک اور فائیور پر ڈیجیٹل مارکیٹنگ اور ایس ای او ایکسپرٹ کے طور پر کام کر رہی ہیں۔ عاصمہ بتاتی ہیں کہ آغاز میں سب ہی کو کام ملنا مشکل ہوتا ہے لیکن خاص کر خواتین کے لیے بہت مشکل ہے۔

اگر ایک لڑکا یہی سکل 20 ڈالرز پر بیچتا ہے تو لڑکی کو 15 ڈالرز کی بڈ کرنی پڑتی ہے کیونکہ اس کی وجہ دنیا بھر میں یہ رویہ ہے کہ خواتین ٹیکنکیلی لڑکوں سے بہتر نہیں ہوتیں۔  ان لائن پلیٹ فارمز پر بھی ہمیں جاب ریکیمینڈیشن میں بھی امتیازی سلوک کا سامنا کرنا پڑتا ہے ۔ مگر یہ مشکلات پہلے ایک دو سال کی ہوتی ہیں اس کے بعد آپ پر آپکے کلائنٹ کا اعتبار بحال ہوتا جاتا ہے۔

عاصمہ مزید کہتی ہیں کہ میں اس وقت لیول 2 سیلر ہوں اور پاکستان میں فری لانس مارکیٹ نے خواتین اور بچیوں کو بہت با اختیار بنایا ہے لیکن صنفی امتیاز کا سامنا ہمیں نہ صرف ٹیکنالوجی کی سطح پر کرنا پڑتا ہے بلکہ معاشرتی سطح پر بھی ہم مختلف اعزازات اور ایوارڈز سے محروم رہتے ہیں کیوں کہ ان پر مخصوص لوگوں کی اجارہ داری ہے۔

پاکستان میں خواتین انٹرنیٹ کی سہولت کا فائدہ تو اٹھا ہی رہی ہیں لیکن اس کے ساتھ ساتھ ان لائن ہراسانی اور تھریٹس بھی ان کی زندگیوں کو مشکل بناتے جا رہے ہیں۔ مصنوعی ذہانت کا اضافہ ان خطرات کو مزید تقویت دے گا۔ مصنوعی ذہانت کے ذریعے سے بنائی گئ تصاویر ، اور ڈیپ فیک کے ذریعے بنائی گئ وڈیوز اور اوازیں کام کرنے والی خواتین کی زندگیوں کو مزید خطرات کی طرف دکھیل رہی ہیں۔

روشن شیخ ایک مشہور پروڈکٹ ڈیزائنر اور کنسلٹنٹ ہیں جن کا ایک دہائی کا کارپوریٹ تجربہ ہے۔

 انہوں نے الجزیرہ اور یونائیٹیڈ نیشن کے لیے کام کیا ہوا ہے۔ روشن ٹیکنالوجی اور اے آئی میں صنفی امتیاز پر بات کرتے ہوئے کہتی ہیں کہ پاکستان میں خواتین کا انٹرنیٹ سیکھ جانا ہی بہت بڑی کامیابی ہے۔ اس وقت صرف موبائل اور انٹرنیٹ نے خواتین کے کیے دنیا کو سمیٹ کر انکی مٹھی میں رکھ دیا ہے۔ دیہات میں بیٹھی بچیاں بھی مختلف طریقوں سے اپنے کام کو بیچ رہی ہیں۔ ہمارے ملک میں اس صنفی امتیاز کو ختم کرنا بہت بڑی کامیابی ہے اور پاکستان میں خواتین کو ڈیجیٹلی ایمپاور کرنے کے لیے بہت سی خواتین اس میدان میں کام کر رہی ہیں۔

روشن نے فری لانسنگ پر بات کرتے ہوئے اس بات کی تائید کی کہ ایمازون کا الگورتھم صنفی امتیاز کا شکار ہے اور بات صرف صنفی امتیاز تک محدود نہی اس طرح کے سب ایلگورتھم سیاہ اور سفید ، بچوں اور بڑوں کے حوالے سے بھی تفریق رکھتے ہیں اور وقت کے ساتھ ساتھ شاید ان سب چیزوں پر قابو پا لیا جائے۔

روشن سمجھتی ہیں کہ پاکستان میں عورت کی پہلی مشکل خود کو معاشی خودمختاری دلانا ہے اور اس کے بعد اہم مسائل میں خواتین کو ان کی اہلیت کے مطابق عہدے نہ دینا ہے جبکہ تیسرا بڑا مسئلہ مردوں کے مقابلے میں کم تنخواہ کا ہے کیونکہ ہم اب تک اس تصور سے ہی باہر نہیں ا سکے کہ عورت آئی ٹی،  مصنوعی ذہانت اور ٹیکنالوجی جیسے شعبوں میں مردوں کے مقابل یا ان سے زیادہ تعلیم و تجربہ بھی رکھتی ہے۔ یہاں اصل صنفی جنگ یہ ہے جسے ہم وقت کے ساتھ ساتھ ضرور جیتیں گے

October 4, 2023 - Comments Off on آرٹیفیشل انٹیلیجنس کے ڈمی اینکرز اور نیوز رومز کے خوبصورتی کے معیار

آرٹیفیشل انٹیلیجنس کے ڈمی اینکرز اور نیوز رومز کے خوبصورتی کے معیار

Zunaira Rafi

مصنوعی ذہانت کے زیادہ تر نتائج خوبصورتی کے فرسودہ معیارات کو ظاہرکرتے ہیں- مصنوعی ذہانت کی مدد سے تیار کردہ زیادہ تر تصاویر میں گوری رنگت، دبلی پتلی جسامت،بھوری آنکھیں اور سنہرے بال شامل ہیں.  ان کی حیران کن بات یہ ہے کہ بیشتر کے موٹے ہونٹ، جھریوں سے پاک چہرہ، ستواں ناک اور سلکی خوبصورت بال دیکھائے گئے ہیں۔ وہ خوصوصیات جنہیں صرف سرجری اور فلرز کے استعمال سے حاصل کیا جا سکتا ہے۔

یہ وہ تمام خود ساختہ معیارات ہیں جو کہ ہماری فلم اور ڈرامہ انڈسٹری کے ساتھ ساتھ جرنلزم انڈسٹری کی بھی ڈیمانڈ بن چکے ہیں۔

اس بات میں کوئی دو رائے نہیں ہے کہ اس انڈسٹری میں خواتین کو ایک شو پیس کے طور پر استعمال کیا جاتا ہے، اور کسی نیوز اینکر کو  نوکری پر رکھتے ہوئے اس کی ذہانت کے ساتھ ساتھ اس کا معاشرے کے خوبصورتی کے زاویوں پر اترنا بھی اتنا ہی اہم سمجھا جاتا ہے، وہ کہتے ہیں نہ کے جتنا گڑ ڈالو اتنا میٹھا ہوگا، یہ کہاوت ہمارے نیوز رومز پر بالکل درست بیٹھتی ہے وہاں بیٹھے لوگ چاہتے ہیں کہ جتنا میٹھا ہو سکے اتنا مل جائے تو بہتر ہوجائے، خواتین اینکرز کے لیے خوبصورت ہونا تو جیسے لازم ہے، اور ہمارے معاشرتی خوبصورتی کے پیمانے دبلی پتلی، لمبی، گوری رنگت، جھیل سی آنکھیں، تیکھی ناک یہ سب خوبصورتی کی علامات ہیں،

اگر کسی نیوز اینکر کو اس کی ذہانت پر رکھ لیا جائے اور وہ معاشرتی خوبصورتی کے پیمانے پر پورا نہیں اترتی تو اس کو میک اپ، کیمرہ اور لائٹس کے ذریعے ان معیارات کے مطابق بنا دیا جاتا ہے۔ خواتین اینکرز کو سارا سارا دن اسکرین کی زینت اس لیے بھی بنایا جاتا ہے تاکہ زیادہ ریٹنگ مل سکے، عموماً لوگ خواتین اینکرز کو ترجیح شاید اس لیے بھی دیتے ہیں کیونکہ  بصارت تو سب کے پاس ہوتی ہے مگر بصیرت ہر ایک کے پاس نہیں ہوتی۔

صرف یہی نہیں بلکہ آج کل آرٹیفیشل انٹیلیجنس کی بہت دھوم مچی ہوئی ہے، اب دنیا میں اے-آئی اینکرز کو متعارف کروایا جا رہا ہے اور اس ٹیکنالوجی کے ذریعے بھی عورت کو بالکل ایسے ہی بنایا جا رہا ہے جیسے کسی بھی نیوز اینکر بننے والی لڑکی سے توقعات کی جاتی ہیں، اور انہیں خوبصورتی کے سانچے میں یوں ڈھالتے ہیں جیسے کوئی مجسمہ ساز اپنی مرتی کو بڑی نفاست سے بناتا ہے۔

 اگر اے-آئی نیوز اینکرز کی بات کی جائے تو 2018 میں چین نے مصنوعی ذہانت کی سب سے پہلی نیوز اینکر کو متعارف کروایا، جو دنیا کی بھی سب سے پہلی اے آئی اینکر تھی۔

اس کے بعد دنیا کے مختلف ممالک میں یہ سلسلہ جاری رہا جبکہ بھارت اور پاکستان نے  رواں برس اپریل میں اپنے ملک کے پہلے آے آئی اینکر متعارف کروائے ہیں

یہاں حیران کن بات یہ نہیں کہ مصنوعی ذہانت کے اینکر انڈسٹری میں آچکے ہیں بلکہ یہ ہے کہ جتنے بھی ممالک میں اے-آئی اینکرز کو متعارف کروایا گیا ان کی پہلی مصنوعی ذہانت کی اینکرز خواتین ہیں اور وہ خواتین جو ہو بہو دنیا کے خوبصورتی کے زاویوں کے عین مطابق ہیں، جن کی بناوٹ، قد کاٹھ ہر چیز سے پر فیکشن چھلکتی ہے، جس کا وجود حقیقی دنیا میں نہ ہونے کے برابر ہے

واضح رہے کہ ان ممالک میں انڈونیشیا، ملیشیا، چین، کویت، بھارت اور پاکستان بھی شامل ہیں، حتیٰ کہ گوگل پر بھی اگر  اے-آئی اینکرز سرچ کیے جائیں تو آپکو مردوں کے مقابلہ میں خواتین اینکرز زیادہ نظر آئیں گی۔ جو اس بات کو ثابت کرتی ہے کہ انڈسٹری میں عورت کسی شو پیس سے کم نہیں ہے۔

اسی حوالے سے بات کرتے ہوئے جیو نیوز کے سینئر پروڈیوسر سید آصف رضا کا کہنا تھا کہ کسی بھی نیوز اینکر کے بنیادی خوبصورتی کے زاویے ذاتی ترجیحات اور ثقافتی اصولوں کے لحاظ سے ہو سکتے ہیں۔ عموماً بنیادی خصوصیات جو کسی نیوز اینکر میں دیکھی جاتی ہیں ان میں اس کا پیشہ ورانہ رویہ، ایکسپریسو آنکھیں، گڈ پوسچر ، صاف رنگت اور خوشگوار آواز کا ہونا ترجیحی خصوصیات تصور کی جاتی ہیں۔ مزید بات کرتے ہوئے انہوں نے بتایا کہ جہاں تک سوال ہے کے یہ معیارات کیوں بنائے گئے ہیں تو اس کا عام فہم سا جواب یہی ہوسکتا ہے کہ سب نہ سہی مگر زیادہ تر لوگ خوبصورتی کی طرف فوراً متوجہ ہوجاتے ہیں، یقیناً اسی لیے جازب نظر نیوز اینکرز  کو نیوز روم کی زینت بنانے پر توجہ دی جاتی ہے اور اس کے پیچھے خیال یہ ہوتا ہے کہ جب تک لوگ دیکھتے ہی متاثر نہیں ہونگے تب تک سننیں گے بھی نہیں۔ مگر کچھ ایسے اینکرز بھی ہیں جو شاید روایتی خوبصورتی کے ان معیاروں پر پورا نہیں اترتے  مگر اپنی قابلیت کی وجہ سے کامیاب ہیں۔ لیکن یہاں یہ بات بھی درست ہے انہیں بھی اسکرین کی ضروریات کے مطابق ڈھال کر نیوز روم میں بٹھایا جاتا ہے۔ کیونکہ دیکھا گیا ہے کہ خوبصورت نظر آنے والے قابل لوگ کم خوبصورت یا قبول صورت قابل لوگوں کے مقابلے میں زیادہ تیزی سے ترقی کرتے ہیں۔

ایک سوال پر انہوں نے بتایا کہ ٹیکنالوجی خود کچھ اختیار نہیں کرتی بلکہ اُس کو انسانی ضروریات کے لیے ڈیزائن کیاجاتا ہے، میرے خیال میں ابتدا میں اے آئی ٹیکنالوجی بھی روایتی انداز سے نیوز روم میں اپنی جگہ بنائے گی، کیونکہ اس ٹیکانالوجی کے ساتھ بھی دیکھنے والوں اور دیکھانے والوں کے  بیوٹی پیرامیٹرز وہی ہیں جو اس ٹیکینالوجی کے استعمال سے پہلے تھے، ہاں یہ امید ضرور کی جاسکتی ہے کہ وقت کے ساتھ عام لوگوں اور نیوز روم سے منسلک لوگوں کا شعور اس ٹینالوجی کے بارے میں بڑھے اور وہ اس سے مزید استفادہ حاصل کر کے نئے اور مختلف تجربات کرنے کے قابل ہوں۔

 یہ بات واضح ہے کہ آئندہ کچھ عرصے کے بعد خواتین فیمیل اینکرز کو بہت سے مسائل کا سامنا کرنا پڑ سکتا ہے۔ کیونکہ وہ آے-آئی اینکرز جنہیں خود تخلیق کیا گیا ہے, وہ ان جتنی پرفیکٹ نہیں ہو سکتیں،

اے-ائی اینکرز کی انڈسٹری میں شمولیت کے حوالے سے بات کرتے ہوئے ایک نجی ٹی وی کی اینکر نے بتایا یہ بات بلکل درست ہے کہ اس انڈسٹری میں آپ کی ذہانت اتنی معنی نہیں رکھتی مگر آپ کا قد کاٹھ اور خاص طور پر گوری یا صاف رنگت بہت زیادہ ضروری سمجھی جاتی ہے۔ اپنے متعلق بات کرتے ہوئے کہتی ہیں کہ ان کی رنگت سانولی ہے۔ مگر ایڈیٹرز کی جانب سے خاص طور پر میک اپ آرٹسٹ کو یہ ہدایت کی جاتی ہے کہ میک اپ سے کمیرہ کے سامنے چہرہ اور رنگت صاف لگنی چاہیے اور چہرے کے نقش واضح ہونے چاہیے، ’’جس پر مجھے شروع میں بہت ہی برا لگتا تھا اور میری خود اعتمادی بھی متاثر ہوئی، جس کے بعد میں نے بیوٹی کریم لگانا شروع کر دی کیونکہ میرے ہاتھوں پر بھی میک اپ کیا جاتا تھا تاکہ مینک اپ کے زریعے چہرے اور ہاتھ کی رنگت یکساں لگے، چونکہ مجھے اتنےزیادہ میک اپ کی عادت نہیں تھی، جس کی وجہ سے میں اس نتیجے پر پہنچی کہ کیوں نہ کوئ بیوٹی کریم استعمال کی جائے‘‘ انہوں نے مزید بات بڑھاتے ہوئے کہا کہ جب انہوں نے بیوٹی کریم لگانا شروع کیا اور چند ہفتوں کے بعد ان کے چہرے کا رنگ تو نکھرنے لگا مگر اس کے ساتھ منہ پر دانے بننا شروع ہو گئے اور ان کے چہرہ کی جلد چھلکوں کی صوت میں اترنے لگ گئی، جسے سدھارنے کے لیے انہوں نے ایک ماہر جلدی امراض سے رجوع کیا، جس کے بعد ڈاکٹر نے بتایا کہ آپ کی جلد اس کریم نے جلا دی ہےجس کو ٹھیک کرنے میں تقریبا 3 ماہ لگے-،

’’میں یہ کہنا چاہوں گی کہ اس انڈسٹری میں اول تو داخل ہونا ہی اتنا مشکل ہے اور اگر کسی کو نوکری مل جائے تو ان کے معیارات پر پورا اترنا اس سے بھی زیادہ مشکل ہے، صرف یہی نہیں بلکہ حجاب کرنے کی وجہ سے بھی نئی جگہ نوکری نہیں ملتی، یہاں میں ایک واقع سناتی چلوں کہ وہ ایک نجی ٹی وی چینل پر جب انٹرویو کے لیے گئیں تو وہاں انٹرویو لینے والے صاحب کی جانب سے یہ کہا گیا کہ ڈھکا چھپا مال نہیں بکتا، یہ وہ الفاظ تھے جنہوں نے مجھے بے حد تکلیف پہنچائی تھی، ایک کہاوت بہت مشہور ہے کہ دور کے ڈھول سہانے لگتے ہیں یہ ان خواتین کے لیے ہیں جو اس انڈسٹری کے خواب دیکھتی ہیں، مگر حقیقت ان کے خوبصورت خوابوں کے بر عکس ہے‘‘

میڈیا مٹی کو ہیرے کی شکل میں پیش کرنے کی صلاحیت رکھتا ہے۔ اور اس میں کوئی شک نہیں ہے کہ میڈیا کسی بھی چیز کے متعلق انسانی رویوں کو بدلنے کی طاقت رکھتا ہے۔ جب ٹی وی ڈراموں سمیت خبروں اور خبروں کی دنیا سے منسلک پروگرامز میں بھی خوبصورتی کے نہ حاصل ہو سکنے والے معیارات دیکھائے جائیں گے تو لوگوں میں خاص طور پر گھریلو خواتین میں ان جیسا بننے کے خواہش ابھرے گی۔ اگر ان خوبصورتی کے معیارات کو حاصل کر بھی سکتے ہوں تو اس پر لاکھوں روپے کے اخراجات ہی نہیں بلکہ صحت سے متعلق بہت سے چلنجز کا سامنا کرنا پڑتا ہے۔

ماہر جلدی امراض ڈاکٹر نادیہ گزشتہ 8 برس سے اس پیشے سے منسلک ہیں انہوں نے بات کرتے ہوئے بتایا کہ ان کے  پاس جتنی بھی خواتین آتی ہیں ان میں زیادہ تر خواتین کا یہ کہنا ہوتا ہے کہ کوئی ایسا ٹریٹمنٹ بتائیں جس سے فوری طور پر گوری ہو جاوں، اور اب تو جو خواتین آتی ہیں کاسمیٹک سرجریز سے بہت متاثر ہیں، کہتی ہیں کہ ’’ مجھے حیرت ان لوگوں پر ہوتی ہے جو اپنے اچھے خاصے خوبصورت نین نقش کو تبدیل کروانا چاہتے ہیں۔ حالانکہ ایسی بہت ساری مثالیں موجود ہیں جس میں اس طرح کے ٹریٹمنٹس نے لوگوں کی جان تک کو نقصان پہنچایا ہے۔ اور خواتین ٹی وی ڈراموں میں اداکاروں کو دیکھ کر متاثر ہوتی رہتی ہیں۔ جبکہ وہ یہ نہیں سوچتیں کہ انہوں نے اسکرین کے لحاظ سے میک کیا ہوتا ہے، باقی لائٹس، کیمرے، ایڈیٹنگ ان کو مزید ابھار دیتے ہیں۔‘‘

ایک مزید سوال پر ڈاکٹر نادیہ نے بتایا کہ ٹیکنالوجی آہستہ آہستہ ہر چیز پر غلبہ حاصل کر رہی ہے۔ اور حال ہی میں پاکستان میں بھی اے-آئی اینکرز دیکھنے میں آئے ہیں، انہیں دنیا کے خوبصورتی کے معیار کے مطابق بنایا گیا ہے۔ ٹیکنالوجی کے ذریعے کیا کچھ نہیں کیا جا سکتا، ظاہر ہے اس کا منفی اثر خواتین پر ضرور ہوگا مگر یہاں خواتین کو یہ سمجھنے کی اشد ضرورت ہے کہ وہ محض ٹیکنالوجی ہے، جس کا اختیار انسانوں پر ہے، اور انسان اس کو سیکنڈز میں بدلنے کی طاقت رکھتا ہے تو انسانوں کے ہر تجربے کو اپنے اوپر حاوی کرنے کی ضرورت نہیں ہے۔ کیونکہ خوبصورتی کے معیارات وقت کے ساتھ بدلتے رہیں گے مگر انسان ہر چیز کے مطابق نہیں ڈھل سکتا۔ کیونکہ یہ چیز انسانی جان کے لیے خطرے کا باعث بن سکتی ہے-

سارہ علی نے حال ہی میں اسلام آباد کی ایک نجی یونیورسٹی سے صحافت میں ماسٹرز کیا ہے، کہتی ہیں کہ انہیں سکرین پر خبریں پڑھتی ہوئی نیوز کاسٹرز ہمیشہ ہی پسند تھیں اور ان کو دیکھ دیکھ کر انہیں بھی لڑکپن سے ہی نیوز اینکر بننے کا شوق پیدا ہو گیا تھا۔ شیشے کے سامنے کھڑے ہو کر گھنٹوں خبریں پڑھتی اور پریکٹس کرتی رہتی تھی، مگر انہیں پہلا دھچکا اس وقت لگا جب لاہور میں ایک نجی نیوز چینل میں انٹرویو کے لیے گئیں تو انھوں نے یہ کہہ کر سارہ کو فیل کر دیا کہ آپ کی اردو زبان پر عبور اور لفظوں کی ادائیگی تو کمال ہے مگر آپ کا وزن بہت زیادہ ہے اور سکرین پر اچھا نہیں لگے گا۔

’’انھوں نے مجھے مفت مشورہ بھی دیا کہ آپ وائس اوور میں کوشش کریں وہاں آپ کا سلیکشن ہو جائے گا۔ یہ ایک بار نہیں بار بار سہنا پڑا مجھے۔ جس کے بعد میں نے اپنا وزن کم کیا، اور اب جب سے ان  اے-آئی ڈمی اینکرز  کو دیکھا ہے امید ہی چھوڑ دی ہے کہ میں کبھی اس شعبے میں کامیاب ہو سکتی۔ ‘‘

انہوں نے مزید کہا کہ مجھ جیسی بہت سی لڑکیاں اس شعبے میں اس لیے نام اور جگہ نہیں بنا پارہیں کہ خوبصورتی کے معیار بہت زیادہ ہیں اور اب اے آئی کے بعد یہ معیار بڑھ کر پرفیکشن کی حد تک جا پہنچے ہیں جو بہت ہی مایوس کن بات ہے۔

ایک سوال پر انہوں کے کہا کہ اس طرح کے رویوں کی مزمت اور روک تھام کرنے کی ضرورت ہے کیونکہ کب تک عورت ایک دل لبھانے اور آنکھوں کو آسودگی فراہم کرنے والی چیز کے طور پر دیکھی اور استعمال کی جاتی رہے گی۔

آرٹیفیشل انٹیلیجنس کے ایکسپرٹ اسامہ احمد نے مصنوعی خوبصورتی کے حوالے سے بات کرتے ہوئے بتایا کہ  مصنوعی ذہانت اور قدرتی خوبصورت آنے والے وقت کا بہت بڑا مقابلہ ہو سکتا ہے اور اس کی دوڑ ابھی سے شروع ہو چکی ہے، اس میں ایک مزے کی بات یہ بھی ہے کہ آرٹیفیشل انٹیلیجنس ڈمی نے نہ کبھی بوڑھا ہونا ہے اور نہ ہی کبھی مرنا ہے، اور اگر کسی انسان کی شکل کی اے-آئی ڈمی بنائی گئی ہے تو وہ شخص اگر مر بھی جائے تو اس ڈمی کو استعمال کیا جا سکتا ہے، تو اس ٹیکنالوجی کی دوڑ میں خود کو بھی زبردستی شامل کرنے کا نتیجہ تباہی کے سوا کچھ نہیں ہے، یہ تو بالکل ایسے ہی ہے جیسے کوئی چلنے پھرنے کی سقت سے محروم شخص یہ بولے کہ اس نے دوڑ میں حصہ لینا ہے ایسا نہیں ہے کہ ان تمام خوبصورتی کے معیارات کو پورا نہیں کیا جا سکتا، بلکہ اس مصنوعی خوبصورتی کے ساتھ ٹیکنالوجی کے ذریعے طب کے شعبہ جمالیات اور ڈرماٹولوجی نے بھی بہت ترقی کر لی ہے، اورحسن کو بڑھانے کے بہت سے طریقہ کار تو موجود ہیں مگر یہ طریقہ کار یا ٹریٹمینٹس انسانی صحت کے لیے اتنے ہی خطر ناک  بھی ہیں۔ اس وقت لوگوں میں شعور پیدا کرنے کی سب سے زیادہ ضرورت ہے کیونکہ اس سب سے ذہانت کے بجائے خوبصورتی کے وہ معیارات پروموٹ ہو رہے ہیں جن کی حقیقت خوفناک ہو سکتی ہے۔

October 4, 2023 - Comments Off on کیا آرٹفیشل انٹیلی جنس کی بدولت میڈیا میں خواتین صحافیوں کی کمی کو پورا کیا جاسکتا ہے؟

کیا آرٹفیشل انٹیلی جنس کی بدولت میڈیا میں خواتین صحافیوں کی کمی کو پورا کیا جاسکتا ہے؟

خالدہ نیاز

وقت گزرنے کے ساتھ ٹیکنالوجی میں بھی جدت آرہی ہے۔ آج سے چند سال قبل سوشل میڈیا اس قدرعام نہ تھا لیکن آجکل چاہے بوڑھا ہو، جوان ہو مرد ہو یا عورت سب ہی مختلف سوشل میڈیا پلیٹ فارمز پر موجود ہیں۔ سوشل میڈیا پلیٹ فارمز پر صارفین نہ صرف اپنے پسندیدہ ڈرامے، نیوز اور مختلف پروگرامز دیکھتے ہیں بلکہ یہ رابطے بحال رکھنے کا بھی سب سے اہم ذریعہ بن گیا ہے۔

آجکل دنیا آرٹیفیشل انٹیلیجنس کی جانب بڑھ رہی ہے۔ آرٹیفیشل انٹیلیجنس نے انسانوں کا کام مزید آسان کردیا ہے۔ زندگی کے تمام شعبوں میں اس کو بروئے کار لانے کی کوشش کی جارہی ہے۔ اگر ایک طرف چیٹ جی پی ٹی نے لوگوں کا کام آسان کردیا ہے تو دوسری جانب ورچوئل ریئلٹی نے لوگوں کو حیران کرکے رکھ دیا ہے۔

میڈیا بھی آرٹفیشل انٹیلیجنس کو استعمال کرنے کی کوشش کررہا ہے۔ اس سلسلے میں ٹی وی چینل نیو نیوز نے بھی مصنوعی ذہانت کی حامل اینکر پرسن کو متعارف کروایا ہے۔ مصنوعی ذہانت کی حامل اینکر پرسن نے حقیقی اینکر سے گفتگو کی۔ بلیٹن کے دوران مصنوعی اینکر نے بریک بھی اناؤنس کی۔ ڈسکور پاکستان چینل نے بھی اے آئی اینکرز تخلیق کیے ہیں اور ایک پروگرام بھی کیا ہے۔ ان کا دعویٰ ہے کہ یہ ملک کا پہلا آرٹفیشل انٹیلیجنس پر مبنی شو تھا۔

آرٹیفیشل اینٹلی جنس میڈیا میں ایک اچھی تبدیلی لے کر آئے گا

اس حوالے سے بات کرتے ہوئے پشاور میں نیو ٹی وی کے بیورو چیف فدا خٹک نے بتایا کہ جو بھی نئی ٹیکنالوجی آتی ہے تو جس طرح زندگی کے باقی شعبوں میں اس کا استعمال کیا جاتا ہے بالکل اسی طرح میڈیا بھی جدید ٹیکنالوجی کو اپناتا ہے۔ انہوں نے کہا کہ آرٹیفیشل اینٹلی جنس میڈیا میں ایک اچھی تبدیلی لے کر آئے گا۔

فدا خٹک نے بتایا کہ ایک دور تھا جب کاتب ہاتھ سے اخبار میں لکھا کرتے۔ اس کے بعد کمپیوٹرز آگئے۔ فدا خٹک کے مطابق یہ کہا جارہا ہے کہ اے آئی کے آنے سے نوکریاں ختم ہوجائیں گی ایسا بالکل بھی نہیں ہے کیونکہ جب کمپیوٹرز آئے تو کاتبوں کی جگہ گرافک ڈیزائنرز  اور پیج میکرز آگئے اور یوں انکی نوکریاں لگ گئیں اسی طرح اے آئی بھی میڈیا میں ایک اچھا اضافہ ہوگا۔

مصنوعی ذہانت کی حامل اینکرز میڈیا میں ایک اچھا اضافہ ہوگا

انہوں نے کہا کہ خیبرپختونخوا میں میڈیا میں بہت کم خواتین کام کررہی ہیں جس کی مختلف وجوہات ہیں جن میں ثقافت اور رسم و رواج وغیرہ شامل ہیں۔ انہوں نے کہا کہ اگر مصنوعی ذہانت کی حامل خواتین رپورٹرز یا اینکرز ہمارے صوبے کی نمائندگی کریں گی تو یہ ایک اچھا اضافہ ہوگا۔ فدا خٹک کے مطابق آنے والے وقتوں میں عین ممکن ہے کہ اے آئی رپورٹرز اور اینکرز فیلڈ میں ہونگی کیونکہ جب بھی کوئی نئی ٹیکنالوجی آتی ہے تو اس کا اثر تمام شعبوں پر پڑتا ہے۔

فدا خٹک نے مزید بتایا کہ انکے خیال میں یہاں خیبرپختونخوا میں اے آئی نیوز اینکرز کامیاب ہوسکتی ہیں کیونکہ یہاں میڈیا میں کام کرنے والی خواتین بہت کم ہیں۔ انہوں نے کہا کہ اس ٹیکنالوجی کی بدولت خیبرپختونخوا میں میڈیا میں خواتین کی کمی کو پورا کیا جاسکتا ہے۔ ان کا ماننا ہے کہ اے آئی کے آنے سے میڈیا میں اور نوکریاں آئیں گی نہ کہ اس سے موجودہ نوکریاں ختم ہونگی۔

فداخٹک کے مطابق نیو ٹی وی پاکستان کا پہلا چینل ہے جس نے اس ٹیکنالوجی کا استعمال کرکے اےآئی اینکر بنائی ہے تاہم یہ ابھی ابتدائی مراحل کی بات ہے آنے والے دنوں میں مذید چینلز بھی اس جانب بڑھیں گے کیونکہ آنے والے دور میں اس کو زندگی کے ہرشعبے میں بروئے کار لایا جائے گا۔

فیلڈ میں جاکر رپورٹنگ کرنا ایک الگ کام ہے جو شاید اے آئی نہ کرسکے

خیبرپختونخوا کی پہلی اور واحد خاتون بیورو چیف فرزانہ علی نے اس حوالے سے بات کرتے ہوئے کہا کہ آرٹفیشل انٹیلیجنس کا استعمال اس وقت مختلف چیزوں میں ہورہا ہے جیسا کہ چیٹ جی پی ٹی۔ فرزانہ علی نے کہا کہ لوگ انٹرنیٹ پر ریسرچ کررہے ہیں انکو جو چاہیئے ہوتا ہے وہ آسانی سے مل جاتا ہے اس کے علاوہ کونٹینٹ بہتر بنانے کے لیے بھی اے آئی کا استعمال کیا جارہا ہے۔ انہوں نے کہا کہ اے آئی ایک بہترین ٹیکنالوجی ہے جس نے کام کو مزید آسان بنادیا ہے۔

فرزانہ علی سمجھتی ہیں کہ اے آئی ایک جدید ٹیکنالوجی ہے تاہم فیلڈ میں جاکر رپورٹنگ کرنا ایک الگ کام ہے جو شاید اے آئی کے ذریعے اس طرح سے ممکن نہ ہو جس طرح عام رپورٹرز کرتی ہیں۔ انہوں نے کہا کہ اگر یہ خیال کیا جارہا ہے کہ آنے والے وقتوں میں اے آئی کے ذریعے رپورٹنگ بھی کی جاسکے گی تو یہ ممکن نہیں ہے کیونکہ جو کام ایک رپورٹر فیلڈ میں جاکر کرسکتا یا سکتی ہیں وہ ایک کمپیوٹر نہیں کرسکتا ہاں البتہ اس کی مدد سے انٹرنیٹ سے ریسرچ وغیرہ بہتر انداز میں کی جاسکتی ہے۔ اس کی مدد سے ڈیٹا بھی لیا جاسکتا ہے، دنیا میں اس وقت کیا ہورہا ہے وہ معلومات تو جمع کرسکتے ہیں لیکن رپورٹنگ اس طرح سے ممکن نہیں ہے اے آئی کے ذریعے۔

مصنوعی ذہانت والی اینکرز فیڈ کی ہوئی خبریں تو پڑھ سکتی ہیں لیکن وہ تجزیہ نہیں کرسکتی

فرزانہ علی نے کہا کہ ایڈیٹنگ، ریسرچ یا باقی کچھ جابز کی جگہ اے آئی لے سکتا ہے لیکن عملی صحافت الگ چیز ہے۔ انہوں نے بتایا کہ ایک مصنوعی ذہانت والی اینکرز فیڈ کی ہوئی خبریں تو پڑھ سکتی ہیں لیکن وہ تجزیہ نہیں کرسکتی نہ ہی فیلڈ میں رپورٹنگ کرسکتی ہیں۔

انہوں نے کہا کہ ایک صحافی میں تخلیقی صلاحیت کے ساتھ تنقیدی سوچ بھی ہوتی ہے جو اے آئی میں ممکن نہیں ہوسکتی۔ فرزانہ علی نے بتایا کہ سٹوڈیو میں آرٹیفیشل انٹیلیجنس کی بدولت بہت ساری تبدیلیاں رونما ہوسکتی ہیں جن میں کیمرہ ورک، نیوز اینکرز وغیرہ کی جگہ اس جدید ٹیکنالوجی کو بروئے کار لایا جاسکتا ہے۔

اے آئی ٹولز سیکھنا ضروری ہے

نوجوانوں کے حقوق کے لیے کام کرنے والے سماجی کارکن اور ایپ ڈیویلپر شفیق گگیانی نے کہا کہ جب بھی کوئی نئی ٹیکنالوجی آتی ہے تو وہ اگر ایک جانب انسانی زندگی میں آسانیاں لاتی ہے تو دوسری جانب وہ بے روزگاری کا بھی سبب بنتی ہے کیونکہ جو لوگ اس سے پہلے اس فیلڈ میں جو کام مشقت سے کررہے تھے انکی طلب ختم ہوجاتی ہے۔ انہوں نے کہا کہ عین ممکن ہے کہ آرٹیفیشل انٹیلیجنس کی وجہ سے بہت ساری نوکریاں ختم ہوجائیں گی اور اس کی جگہ اے آئی ٹیکنالوجی لے لے گی۔

ایک سوال کے جواب میں شفیق گگیانی نے بتایا کہ مستقبل میں شاید انسانی اینکرز کی جگہ مصنوعی ذہانت والی اینکرز جگہ لے لیں گی لیکن ڈیٹا اور ریسرچ کا کام یہی  لوگ کریں گے جو ابھی کررہے ہیں البتہ وہ اے آئی سے مدد لے سکتے ہیں۔

شفیق گگیانی کا کہنا ہے کہ یہ بات ٹھیک ہے کہ جب بھی کوئی نئی ٹیکنالوجی آتی ہے تو لوگ اس کو اپنانا شروع کردیتے ہیں لیکن ایک وقت کے بعد اس کا ڈیکلائن بھی شروع ہوجاتا ہے۔ ایک مثال دیتے ہوئے انہوں نے کہ کچھ عرصے میں مشین والے برگرز بہت مشہور ہوئے تھے لیکن اس کے بعد ہاتھ سے بنے برگرز کی ڈیمانڈز بہت زیادہ آئی۔

شفیق گگیانی نے بتایا کہ جو بھی نئی ٹیکنالوجی آتی ہے اس کو سیکھنا چاہئے تاکہ اس بنا پر ہم نئی جابز تلاش کرکے کمائی بھی کرسکیں۔

بڑے بڑے میڈیا ادارے اے آئی کے ذریعے ڈیٹا اینالیسز کرسکتے ہیں

چائنہ سے آرٹفیشل انٹیلیجنس میں پی ایچ ڈی کرنے والے ضلع چارسدہ سے تعلق رکھنے والے ڈاکٹر ثاقب عالم نے اس حوالے سے کہا کہ آجکل کے دور میں اے آئی میڈیا میں اہم کردار ادا کررہا ہے۔ انہوں نے کہا کہ اے آئی کے الگوردم سے فیک نیوز کی پہچان ہوتی ہے چاہے وہ پرنٹ میڈیا میں ہو، الیکٹرانک میں یا سوشل میڈیا پر ہو۔ ڈاکٹر ثاقب عالم کے مطابق اے آئی کے ذریعے آرٹیکلز وغیرہ آٹومیٹکلی جنریٹ ہوسکتے ہیں جس کی زندہ مثال چیٹ جی پی ٹی ہے۔ چیٹ جی پی ٹی کو ہم جو بھی کہیں تو وہ ہمیں لکھ کے دے سکتا ہے یا اس حوالے سے بہت زیادہ معلومات دے سکتا ہے۔

انہوں نے بتایا کہ اس کے علاوہ مختلف زبانوں کا ترجمہ بھی باآسانی کیا جاسکتا ہے۔ ہم اردو کا پشتو، انگلش، فارسی اور باقی زبانوں میں ترجمہ کرتے ہیں اس طرح انگلش کو اردو، پشتو اور باقی زبانوں میں ترجمہ کرتے ہیں یہ سب آرٹفیشل انٹیلیجنس کی بدولت ممکن ہوا ہے۔

ڈاکٹر ثاقب عالم کے مطابق بڑے بڑے میڈیا ادارے اے آئی کے ذریعے ڈیٹا اینالیسس کرسکتے ہیں اور اس ڈیٹا سے مفید معلومات کو علیحدہ کرسکتے ہیں اور ساتھ میں ڈیٹا سیٹس تخلیق کرسکتے ہیں۔

انہوں نے کہا کہ اے آئی ڈریون ٹولز کے ذریعے گرائمر کو ٹھیک کیا جاسکتا ہے اگر کوئی آرٹیکل لکھتا ہے تو اس سے انکو بہت زیادہ فائدہ مل سکتا ہے اس کے ذریعے وہ ایک بہترین غلطیوں سے پاک آرٹیکل یا سٹوری لکھ سکتا ہے۔

اے آئی کے ذریعے ڈیپ فیک کا استعمال

انہوں نے کہا کہ اے آئی کا میڈیا میں غلط استعمال بھی کیا جاسکتا ہے اور ہم نے دیکھا ہے کہ ڈیپ فیک کے ذریعے اس کا ایسا استعمال کیا بھی گیا ہے۔ ڈیپ فیک میں چہرہ کسی اور کا ہوتا ہے جبکہ آواز بھی کسی اور ہوتی ہے اور اس کو کسی کے ساتھ بھی جوڑا جاسکتا ہے، اس کے علاوہ اس کے ذریعے مختلف قسم کی ویڈیوز بھی بنائی جاسکتی ہیں۔

ڈاکٹر ثاقب عالم نے بتایا کہ ترقی یافتہ ممالک میں اے آئی کو میڈیا میں بروئے کار لایا جارہا ہے۔ چائنہ کی بات کرتے ہوئے انہوں نے کہا کہ وہاں پر ایک مصنوعی ذہانت والی اینکر جس کا نام شی جاو پنگ ہے وہ نیوز پڑھتی ہے۔ انہوں نے بتایا کہ خیبرپختونخوا میں خواتین صحافیوں کی تعداد بہت کم ہے اس ٹیکنالوجی کے ذریعے ہم مستقبل میں نیوز اینکرز اور رپوٹرز کو بنا سکتے ہیں اور اس کو کمی کو پورا کیا جا سکتا ہے۔

اے آئی سے میڈیا کے کام کو مزید فروغ ملے گا

پشاور سٹی یونیورسٹی میں سافٹویئر انجنیئرنگ کے طالبعلم اور اے آئی پرکام کرنے والے محمد حسیب کا کہنا ہے کہ وقت کے ساتھ ہر چیز میں تبدیلی آتی ہے اور اڑتیفشل انٹیلیجنس بھی وقت کے ساتھ ہر ایک شعبے میں داخل ہورہا ہے۔ انہوں نے کہا کہ اے آئی سے میڈیا کے کام کو مزید فروغ ملے گا۔ مثال کے طور پر ایک اینکر یا رپورٹر کو نیوز کے ساتھ باقی کام بھی کرنے ہوتے ہیں، کھانا بھی کھانا ہوتا ہے زندگی کے باقی کام اور ذمہ داریاں بھی سنبھالنا ہوتی ہے تو وہ اتنا فوکسڈ نہیں ہوتا وہ 24 گھنٹے صرف نیوز کا کام نہیں کرسکتا اس کے برعکس اگر اے آئی کے ذریعے میڈیا میں کام کرنا ہوا تو وہ کمپیوٹرز کے ذریعے ہوگا اور مصنوعی ذہانت والے اینکرز اور رپورٹرز کے لیے 24 گھنٹے کام پر فوکس رکھنا ممکن ہوگا۔

انہوں نے کہا کہ اے آئی کے ذریعے صحافیوں کا کام آسان ہوجائے گا آنے والے وقتوں میں۔ محمد حسیب کے مطابق اے آئی کے ذریعے یہ بھی ممکن ہوسکے گا کہ نہ صرف ٹویٹ کا نوٹیفیکشن آیا کرے گی بلکہ ٹویٹ کس سینس میں ٹویٹ کیا گیا ہے یہ بھی پتہ چل سکے گا۔

انہوں نے بتایا کہ اے آئی کے ذریعے سے کسی بھی زبان کا علاقائی زبان میں ترجمہ کیا جاسکتا ہے اور نہ صرف ترجمہ ہوسکتا ہے بلکہ اس کے ذریعے وائس اوور بھی مقامی زبان میں سنی جاسکتی ہے جس سے سننے اور دیکھنے والے اچھے طریقے سے سمجھ سکیں گے۔

خواتین کے لیے اے آئی ٹولز سیکھنا کتنا فائدہ مند

پشاور سے تعلق رکھنے والی فری لانسر ثمر سید نے اس حوالے سے بتایا کہ وقت کے ساتھ ٹیکنالوجی میں بھی جدت آرہی ہے۔ انہوں نے کہا کہ آجکل آرٹفیشل انٹیلی جنس کا دور ہے اور اگر خواتین میڈیا میں کام کرنا چاہتی ہیں یا فری لانسنگ کے ذریعے کمانا چاہتی ہیں تو انکے لیے بہت ضروری ہے کہ وہ آرٹفیشل انٹیلی جنس ٹولز کو سیکھیں۔

ثمر کے مطابق اے آئی ٹولز سے صحافیوں کا کام آسان بھی ہوسکتا ہے کیونکہ اس سے ایک تو تصاویر کام کے مطابق بنائی جاسکتی ہیں دوسرا اس سے رپورٹرز کو کالم اور سٹوری لکھنے میں مدد مل سکتی ہے۔

ثمر نے بتایا کہ اگرچہ اے آئی کی وجہ سے کام کو آسان تو کیا جاسکتا ہے لیکن یہ کبھی بھی انسانوں کی جگہ نہیں لے سکتا اور نہ ہی اس بات کا امکان ہے کہ اس سے میڈیا میں کام کرنے والوں کی نوکریاں ختم ہو۔ انہوں نے بتایا کہ کچھ چینلز نے اے آئی اینکرز کو متعارف تو کروایا ہے لیکن اس میں مسئلہ یہ ہے کہ وہ مکمل طور پر انسانوں کی جگہ نہیں لے سکتی کیونکہ اس ٹیکنالوجی کو انسانوں نے ہی بنایا ہے۔ ثمر نے کہا کہ خیبرپختونخوا کی خواتین اگر اے آئی ٹولز کو سیکھیں اور میڈیائی ادارے انکو جابز دیں تو اس سے میڈیا میں کام کرنے والی خواتین کی تعداد بڑھ سکتی ہیں اور انکو فائدے مل سکتے ہیں۔

خالدہ نیاز نوشہرہ سے تعلق رکھنے والی ایک صحافی ہے جو پشاور میں صحافتی خدمات سرانجام دے رہی ہیں۔ ۔ انہوں نے جرنلزم اینڈ ماس کمیونیکیشن میں ماسٹر کیا ہے اور نوسالوں سے اس فیلڈ میں ہیں۔ وہ خواتین، مذہبی آزادی، بچوں کے حقوق اور موسمیاتی تبدیلی کے موضوعات پر لکھتی ہیں۔  

October 4, 2023 - Comments Off on Unveiling the Human Side of Data: The Journey of a BISP Beneficiary Denied Ehsaas Programme Access

Unveiling the Human Side of Data: The Journey of a BISP Beneficiary Denied Ehsaas Programme Access

By Sara Atiq

Whenever our policymakers, politicians, or CEOs of corporate companies mention terms like “policies informed by data,” “data-driven analytics,” or “processes facilitated by AI,” we instantly equate it with transparency, fairness, and infallibility. Many mistakenly believe that “data” equals “fact,” and anything based on facts is considered the ultimate truth. However, it's crucial to recognise that 'data' can carry biases, and algorithms built on such data can inadvertently exacerbate existing disparities, mainly when employed in the identification, categorisation, and decision-making processes that profoundly impact marginalised communities' welfare and well-being.

 

Data-Defined Exclusions: Unmasking 850,126 'Undeserving' Cases in BISP

At first glance, the idea of 'biased algorithms influencing critical policy decisions' may seem like a concern limited to technologically advanced nations, with countries like Pakistan appearing far removed from such issues. However, this is not the case. This is the story of Pakistan and how, when data is utilised to make significant decisions without considering the socio-economic and political context, it can further marginalise those already struggling.

In 2019, during the tenure of the Pakistan Tehreek-e-Insaf government, the then-chairperson of Pakistan’s most extensive social safety net program, the Benazir Income Support Program (BISP), which was later rebranded as the Ehsaas program, announced the removal of 850,126 individuals deemed ‘undeserving’ for BISP benefits. Dr. Sania Nishtar, in an op-ed published in an English daily, explained the rationale behind this decision. When Dr. Sania took charge of BISP in 2018, the government was providing stipends based on a decade-old and paper-based survey. According to her, this survey contained numerous errors in both inclusion and exclusion. Dr Nishtar claimed that, besides deserving beneficiaries and pensioners, “relatively well-off individuals and many government servants were benefiting from the program.”

Then, there were those whose financial situations had shifted since they first signed up for the program in 2011. How did BISP pinpoint these individuals? This is where the 'data-driven decision' comes into play. Dr Sania said this intricate task was entrusted to a computerised system guided by a rule-based wealth-profiling data analytics process. She said, "A rule-based wealth-profiling data analytics process was employed, leaving no room for 'human intervention', to correct the BISP's beneficiary lists before their integration into the Ehsaas program."

The argument favouring minimising human intervention in processes like these to ensure objectivity and transparency is compelling. However, it's vital to understand that, much like humans, data can carry biases. This is because individuals collect data and reflect the perspectives and inclinations of those who gathered it.

When an algorithm, essentially a set of precise instructions tailored for a specific task or problem-solving, is trained on such biased data or lacks the necessary cultural and political context, it can inadvertently perpetuate ‘unjust’ outcomes. The case of BISP serves as a vivid example of this seemingly complex phenomenon.

Following the PTI's exit from office and the PDM assuming control, they criticized the removal of 850,000 beneficiaries, branding it as 'unfair' and 'politically motivated.' Subsequently, an appeals process was announced for those who were declared ineligible. It's important to note that the intention here is not to assert that the entire exercise or process was 'unjust' or 'erroneous,' nor to speculate on whether the decision was politically motivated. Instead, the focus is on underscoring the ethical considerations that may have been overlooked in the implementation of this 'data-driven' approach.

While this process may have been effective in accurately identifying several beneficiaries who were either mistakenly included or whose financial circumstances changed over time, rendering them ineligible for the program, there were beneficiaries who were removed from the list due to a lack of social context in the data analytics process. The process may seem scientific and efficient, but it failed to account for the inherent biases present in the data itself, leading to potentially undeserving exclusions. Data systems built on biased data perpetuate and amplify these biases, making the need for human context and intervention all the more crucial.This highlights the need for a more nuanced approach when applying data-driven methods in sensitive decision-making processes.

Context-less data creating mischaracterisation and marginalisation

Let's delve into how the criteria for exclusion were formulated, leading to the disqualification of over 8.5 lakh beneficiaries from the Benazir Income Support Program, a crucial social protection initiative. This program provides eligible families 12000 Rs quarterly unconditional cash transfers (UCT). To assess the current economic standing of the beneficiaries and classify them as 'deserving' or 'undeserving' of the program, specific parameters were established.

To gather beneficiary data, information was obtained from the Pakistan National Database NADRA, as well as other relevant government agencies. According to official reports, various wealth indicators, developed in consultation with NADRA, were employed as exclusionary filters. These included criteria like international travel, ownership of a car (with motorcycle owners exempted), an average six-month telephone bill exceeding Rs1000 per month (covering both landline and mobile usage), processing of passports and national identity card numbers by three or more family members through Executive Centres, and government employment. According to Dr Sania Nishtar, these wealth indicators were approved by the cabinet.

On the surface, these criteria may seem reasonable for assessing one's economic status. However, without additional context, this information alone was insufficient for accurately determining wealth status and overall social well-being. This is where human judgment and intervention become crucial, as relying solely on algorithms could lead to outcomes solely based on available data, potentially missing essential nuances.

"One of the exclusionary criteria centred on international travel. It was only during the appeal process that we came to realise there were beneficiaries who were excluded because they had travelled abroad at least once in their lives. What we failed to consider was that in our country, even the most marginalised and needy individuals would often save every penny throughout their lives to embark on religious pilgrimages like Hajj or Hindu yatras. Alternatively, they might receive assistance from philanthropists. However, this doesn't necessarily translate to an improvement in their daily lifestyles or economic conditions," shared Shazia Marri, the former BISP chairperson who succeeded Dr. Sania Nishtar. After taking charge, she announced an appeal process for those who felt they had been unjustly removed from the beneficiary list.

“Likewise, one of the wealth indicators was ownership of a car. We had a beneficiary approach us, explaining how he inherited an old car from his grandfather, which was transferred to his name.  home, the car remained parked on the street. In another case, we encountered women who didn't possess a national ID card. When this programme was first introduced, they took out a loan to expedite the processing of their own and their family members' IDs at executive offices.”

Credit: Benazir Income Support Programme

 

According to BISP officials, “in order to redress the grievance of blocked beneficiaries, BISP Management decided to design an appeal mechanism. However, due to challenges in the availability of relevant data and the non-integration of various databases, the appeal mechanism could not be fully implemented. However, on the basis of decisions of the BISP Board, the profiling filters (with the exception of two filters, i.e. government employee and high income) were removed, and beneficiaries were included irrespective of the fact that they filed for an appeal, provided they fulfil other mandatory criteria for inclusion.”

Ms Marri emphasised that even individuals who had previously travelled abroad owned a car, or processed their CNIC at an executive centre found themselves among the blocked beneficiaries, receiving a PMT score of 32 or lower upon re-evaluation by the BISP team. The PMT Score in BISP encompasses specific factors and parameters that determine eligibility for various programs, including the Ehsaas program and BISP subsidiary initiatives. These factors encompass family total income, expenses, total family members, and income sources, all of which are taken into account to compute the PMT Score in BISP. Families with a PMT score of 32 or lower meet the eligibility criteria for BISP registration.

According to numbers shared by BISP, out of 820,165 blocked beneficiaries, 262,291 beneficiaries have been re-included in the programme. Of this, 139,029 have started receiving payments, while 123,262 will be enrolled for payments during the next enrollment cycle. There are multiple reasons for beneficiaries who are not included in the programme. This blocking was based on the previous NSER, and after the NSER update, many of the blocked beneficiaries have either not opted for the survey or have PMT more than the new eligibility cut-off of 32.

No transparent data processing.

The global discourse on data ethics and privacy has put a spotlight on the responsible use of data and data processing. Even in Pakistan, though imperfect, steps are being taken towards data protection with the proposed Data Protection Bill and AI policy. As per the draft bill and policy shared by the Ministry of Science and Technology, ensuring transparency in data processes is a priority. It is now mandatory for data controllers and processors to seek consent from individuals when their data is collected and processed for a specific task.

This leads us to an important question: Were the beneficiaries of BISP informed when their data regarding travel history, vehicle ownership, and national identity card processing was collected and processed to assess their current wealth status?

Ms. Marri, upon assuming her role, promptly raised this question with the team overseeing the development and implementation of these wealth indicators. She sought to understand whether the beneficiaries were given an opportunity to provide context or clarification regarding this new information. It became evident that these beneficiaries were never informed of the data collection process. Ms Marri believes this was not only a matter of transparency but also an ethical concern.

In the evolving landscape of data-driven decision-making, the case of BISP serves as a poignant reminder of the critical balance required between technological advancement and human compassion. As nations and institutions increasingly turn to algorithms and data analytics for policy formulation, it becomes imperative to acknowledge the inherent biases that can be entrenched in the data we rely on.

The story of the 850,126 beneficiaries excluded from the Ehsaas program is a stark illustration of the potential pitfalls of such reliance on data alone. While the intent behind using algorithms is to streamline processes and remove subjective judgments, this narrative underscores that context, nuance, and a deep understanding of the socio-economic realities of individuals cannot be replaced by lines of code.

The ethical dimension cannot be overstated. It prompts a critical examination of the responsibility that comes with wielding the power of data. Transparency and informed consent must be the bedrock of any data-driven initiative, as highlighted by the proposed Data Protection Bill and AI policy in Pakistan.

Ultimately, the story of BISP and the ensuing appeals process serves as a call to action, urging policymakers, technologists, and society at large to approach data-driven decisions with vigilance and empathy. It is a testament to the enduring importance of human judgment in an increasingly digital world and a reminder that progress should never come at the expense of those most in need.

 

October 4, 2023 - Comments Off on The Machine is rigged – a deep dive into AI-powered screening systems and the biases they perpetuate

The Machine is rigged – a deep dive into AI-powered screening systems and the biases they perpetuate

By Nabeera Hussain

We live in a world largely dictated by algorithms. An algorithm predetermines what content we watch on Instagram; it determines which route we take on our daily work commute, and now algorithms decide whether we are eligible for a job or more likely to commit fraud.

A recent joint investigation between WIRED and the media non-profit Lighthouse Reports revealed that a machine learning algorithm deployed by the city of Rotterdam in the Netherlands in 2017 to detect benefit fraud for citizens on state welfare discriminated based on gender and ethnicity.

The algorithm worked by assigning a welfare-baed 'risk score' to people. The score measured the likelihood of the individual committing welfare fraud based not only on factors like age, gender, and fluency in the Dutch language but also on more invasive data such as marital status, love life, hobbies and interests, appearance, financial background as well as emotional and behavioural responses.

By playing around with the input attributes of the risk-score algorithm, one could intuitively see that certain attributes contributed to a higher risk score than others. The investigative report analysed two fictional individuals: Sara, a single mother of two children, and Yusef, an unemployed immigrant with limited Dutch language proficiency. In both cases, being a female, immigrant, having children, having weak Dutch language skills, struggling to find a job, and coming out of a relationship as a single parent would drastically increase your risk score and decrease your chances of getting welfare compared to an average male. According to the report:

"If our typical Rotterdam male were female, she'd move up 4,542 spots closer to a possible investigation. If she had two children, she would move another 2,134 spaces up the list. If she were single but coming out of a long-term relationship, that's another 3,267 spots. Struggling to pay bills? That's another 1,959 places closer to potential investigation.

If he were a migrant who, like Yusef, spoke Arabic and not Dutch, he would move up 3,396 spots on the risk list. If he, too, lives in a majority migrant neighbourhood in an apartment with roommates, he would move 5,245 spots closer to potential investigation. If his caseworker is sceptical, he will find a job in Rotterdam; he’d move up another 3,290 spots.” 8

In Austria, an ASM algorithm, regarded as a "prime example for discrimination”10 by various researchers, was used to predict job seekers' chances to reintegrate into the Austrian job market. The algorithm was shown to attribute negative coefficients to applicants that were labelled as "female," "over the age of 50", or had some form of "health impairment." On the contrary, data points corresponding to the attributes "male, " under 30 years old", or "able-bodied" were assigned neutral coefficients that couldn't be categorised as positive or negative.

The coefficients were directly proportional to the "reintegration value," a marker determining the job seeker's likelihood of returning to the job market. The reintegration value was then used to categorize the applicants into different categories. The individuals with a low integration value were classified into group C, a special group that separated them from the job centre system and placed them into a support group for their psychosocial well-being. Individuals with a mediocre reintegration value were assigned to group B, which still made them ineligible to apply for a job directly but did entitle them to the most expensive job support.

The issue with using AI to automate and screen individuals lies mainly in the fact that the data used to train these models is sourced from the real world, where discrimination and bias are inherent. In our context, we can define ”biases" as a “discrepancy between what the epistemic foundation of a data-based algorithmic system is supposed to represent and what it does represent."2

Bias can be voluntary or involuntary and can be introduced at any stage of the machine-learning process. It could be in the form of mislabelled training data or data missing altogether. AI researcher Moritz Hardt argues that "dominant groups tend to be favored by automated decision-making processes because more data is available and therefore receive fairer, more representative, and accurate decisions/ predictions, than minority groups for which data sets are limited.”5

An automated hiring system built for a company in the US that is biased towards hiring white males would, with high probability, be predominantly trained on data from white and male individuals. If you use the system to screen individuals from other races and gender identities, the system would automatically reject them. This is because while the algorithm produces results with confidence, it is only doing so in accordance with the nature of the data supplied to it by human agents. It will not and can not question the relevance or morality of the data fed into it. Historical training data can only use people’s knowledge from the past to make decisions about people in the present.

The algorithms also don't factor in intersectionality, i.e., the idea that "differences in risk/merit, while acknowledged, are frequently due to systemic structural disadvantages such as racism, sexism, inter-generational poverty, the school-to-prison pipeline, mass incarceration, and the prison-industrial complex.”3 Algorithms, instead, assume the infra-marginality principle, which legitimises disparities in risk and merit between certain social groups by assuming that society is a level playing field.

To an algorithm like the one employed by Rotterdam or the ASM algorithm in Austria, the entire human experience is reduced to a singular numeric value or boolean variable. These values and variables are then fed to algorithmic "black boxes" riddled with human error and involuntary bias, which outputs what the person's destiny would be. While in the real world, a person who does not conform to predefined societal roles has the chance to challenge and persuade actual humans in the hiring team to look beyond their preconceived biases with an algorithm that is just a collection of binary 1s and 0s that becomes impossible.

To an algorithm trained on data reflecting discriminatory screening practices, the only thing that matters is the attributes used to predict an outcome; thus, the prospects of every individual are predetermined based on factors entirely beyond their control. The ASM algorithm need not look beyond the fact the candidate it is analysing is either a woman, a 50-year-old or has a disability. If any of the labels apply to you by virtue of being human, you are automatically a reject.

Proponents of such AI systems and algorithms argue that decision machines depict reality as it is. They are neutral algorithms that mimic real-world decision-making, and they should be appreciated for the efficiency with which they can do so. It is a well-known fact that human beings trust the decisions made by machines because of the facade of neutrality and objectivity that algorithms uphold. 9

However, the arguments made in favour of automated AI systems repeatedly ignore the fact that the pushback by policymakers and AI regulation bodies is not concerned with the algorithm's neutrality, accuracy, or efficiency - these are already established, but rather how, in a world that's already so unequal and divided, the same neutrality, accuracy, and efficiency would only go on to scale these inequalities up times ten and solidify the unequal power structures and social hierarchies in place. These systems, owing to the lack of transparency surrounding their use and inner workings, when used to determine the fates of real people, not only threaten the human experience but disregard several human rights.

One such right violated is the right to "informational self-determination." An individual - unaware that their gender, racial or sexual identity is used to classify them into castes and categories- cannot influence the classification methodology. They are stripped of their autonomy and free will to carve out their own destinies and choose their desired career paths since the algorithms have already decided their fate for them using unknown ways even to the people who made those algorithms.

In 2010, Eli Pariser introduced the term "filter bubble" to describe the phenomenon of tech consumers being stuck in their ideological echo chambers due to personalisation algorithms that only reinforce a person's beliefs rather than present them with alternate viewpoints. Just like recommendation algorithms in advertising "choose" your next product for you based on invasive tracking data that has been collected against your will through cookies and web trackers - data which is then used to compare buying histories of people with similar traits, demographics, and personality types as you - hiring algorithms, if not regulated, will get to "choose" your job for you too.

Researchers have proposed several interventions to make AI algorithms abide by an intersectional framework. The problem with prevailing bias mitigation methods is that they focus on discrimination along a single axis, i.e., gender, race, age, or income level. They treat each attribute as an independent entity rather than acknowledging how each attribute correlates intricately.

One proposed criterion to counter these gaps in bias mitigation is differential fairness, which "measures the fairness cost" of a machine learning algorithm. The cost is determined by the difference in the probabilities of the outcomes, i.e., "…regardless of the combination of protected attributes, the probabilities of the outcomes will be similar, as measured by the ratios versus other possible values of those variables. For example, the probability of being given a loan would be similar regardless of a protected group's intersecting combination of gender, race, and nationality…”. 7 There has also been research conducted on using pre-trained classifiers explicitly developed for low representation, minority classes in datasets which demonstrates that such an approach could improve the accuracy of results for both the intersectionality and non-intersectionality classes in a dataset. 6

Bodies like the EC have proposed several guidelines in their AI White Paper to make AI systems bias-free by focusing on the biases introduced through training datasets. "Requirements to take reasonable measures aimed at ensuring that such subsequent use of AI systems does not lead to outcomes entailing prohibited discrimination. These requirements could entail obligations to use data sets that are sufficiently representative, especially to ensure that all relevant dimensions of gender [...]are appropriately reflected in those data sets”.4

Thus, the first step towards fair and responsible AI screening systems is introducing and implementing proper legislation to mitigate intersectionality bias right at the beginning of the screening stage by correcting the data itself. It must be kept in mind that fairness and transparency must go beyond the algorithms themselves and also apply to the human data handlers and decision-makers because, ultimately, it's the way the data is used as opposed to the way it's produced that produces any tangible impact on civil society. Increasing female representation in AI research and development would help introduce diverse narratives, weaken generalisations, and create more accurate algorithms that produce more equitable outcomes.

Recently, a job applicant screening tool called Workday AI, which several Fortune 500 companies use, was sued in the US by a black applicant over 50 with a history of anxiety and depression. 1 The applicant claimed that the platform discriminates against black, disabled, and older job seekers. He was always rejected despite applying for "some 80 to 100 jobs" at different companies that he believed used Workday software. The lawsuit states that the Workday screening tools enable customers to make discriminatory and subjective judgments when reviewing and evaluating job applicants. If someone does not pass these screenings, they will not progress in hiring.

Some MNCs that use this platform also have a prominent presence in Pakistan, a country that doesn't even have a dedicated data protection law. One can only imagine the implications of the widespread use of such systems in a country with one of the worst human rights records. A country whose corporate sectors are riddled with allegations of nepotism, bias, workplace abuse, and discrimination, and a country that has a long way to go in achieving gender parity.

Citations

  1. AIAAIC - Workday AI Job Screening Tool. www.aiaaic.org/aiaaic-repository/ai-and-algorithmic-incidents-and-controversies/workday-ai-job-screening-tool.
  2. Barocas, Solon et al.: Fairness and machine learning. Limitations and Opportunities, fairmlbook.org 2019 (work in progress), introduction
  3. Crenshaw, Kimberle. "Demarginalizing the Intersection of Race and Sex: A Black Feminist Critique of Antidiscrimination Doctrine, Feminist Theory, and Antiracist Politics [1989]." Feminist Legal Theory, 2018, pp. 57–80, https://doi.org/10.4324/9780429500480-5.
  4. European Commission: White Paper On Artificial Intelligence. COM(2020) 65 final, 2020, p.19.
  5. Hardt, Moritz: How big data is unfair. In: Medium 2014, https://medium.com/@mrtz/how-big-data-is-unfair-9aa544d739de (February 6, 2021).
  6. Howard, Ayanna M. et al. "Addressing bias in machine learning algorithms: A pilot study on emotion recognition for intelligent systems." 2017 IEEE Workshop on Advanced Robotics and its Social Impacts (ARSO) (2017): 1-7.
  7. Islam, Rashidul, et al. "Differential Fairness: An Intersectional Framework for Fair AI." Entropy, vol. 25, no. 4, Apr. 2023, p. 660. Crossref, https://doi.org/10.3390/e25040660.
  8. Mehrotra, Dhruv, et al. "Inside the Suspicion Machine." WIRED, 6 Mar. 2023, www.wired.com/story/welfare-state-algorithms.
  9. University of Georgia. "People may trust computers more than humans: New research shows that people are more likely to rely on algorithms." ScienceDaily. ScienceDaily, 13 April 2021. www.sciencedaily.com/releases/2021/04/210413114040.htm.
  10. Wimmer, Barbara. “Der AMS-Algorithmus Ist Ein „Paradebeispiel Für Diskriminierung“.” Futurezone, 22 Oct. 2018, futurezone.at/netzpolitik/der-ams-algorithmus-ist-ein-paradebeispiel-fuer-diskriminierung/400147421.

October 4, 2023 - Comments Off on Unmasking AI: The Complexities of Bias and Representation for South Asian Women

Unmasking AI: The Complexities of Bias and Representation for South Asian Women

By Anmol Irfan

Following the popularity of Lensa AI - the generative AI platform that created portraits for users -  in Pakistan last year, AI and its impact on everyday users suddenly became a common topic. Despite the app being around since 2018, it’s only been with the recent boom of AI-related startups and AI becoming more accessible through platforms like chat GPT that people have begun to explore using these technologies every day - and having fun with them. But while most people pop onto these apps for a little bit of fun - whether that’s getting AI to make them look like their favourite characters or asking Chat GPT funny questions, experts in tech and AI have started to express concerns about the ethics of this growing popularity in AI.

Lensa was one app that started coming under fire - both for its use of artists’ techniques and its racist bias against users of colour. As Mansoor Rahimat Khan, the Founder of Beatoven Ai, points out, these aren’t necessarily concerns for tech companies when they start. “Most of these companies are coming out of the West, and equity is their last priority,” Khan says.

When it comes to our part of the world in particular, these things tend to get more complicated - especially when you add a gendered lens. Tech companies, especially those working with AI, rarely focus on the implications of their tech in the Global South, much less on how vulnerable communities here are impacted by their policies and content. For women in South Asia, privacy issues can be dangerous - and traditions around ‘honour’ and policing of women’s online and offline presence can be a very real threat. So, when there were questions about how the app was storing and using data, women started to worry. But beyond that, what’s equally worrying is the data these apps show us when we use them. As the usage of AI increases, so do the voices of its critics. Women of colour are shown in exoticised and sexualised ways, and even when they aren’t, there’s an obvious element of stereotypical depictions of how South Asian women are perceived in the West. Akanksha Singh, who was drawn to the trend out of curiosity and through some exciting results her friends got, decided not to regenerate her images for this article because of all the privacy issues she learned about between the first time she did this and now. Singh pointed out that race bias was evident in her images.

“What bothered me was that I was being whitewashed in all "contemporary" images. If I included a prompt that suggested I was in an office setting or similar, my skin tone was a few shades lighter. On the other hand, if I included a prompt to wear a sari, I was a deeper shade than my reference images. If I included a background prompt (I recall inputting "in an Indian hill station") -- something I did on Dream Studio, I think -- I got images with a stereotypically crumbly structure in the background. (I was expecting the lush greens of somewhere like Darjeeling rather than a structure.) This is not to say these don't exist -- they do -- but they're not the only representation of what an Indian hill station looks like,” Singh shares. She’s not alone in her experiences. In fact, stereotypical perceptions of South Asian women are being exacerbated quickly as AI images gain a foothold online.

One of the most common pages on X when you search “AI Pakistan” is one dedicated solely to highly sexualised AI-generated pictures of women. One post of Pakistani women shows four images of women dressed in traditional jewellery and clothes, except that their clothing and bodies are portrayed in an overly sexualised way, enhancing their bodies while also bringing attention to their exoticised outfits. Images like this play into Western tropes of South Asian women being exotic sexualised beings. In contrast, the other set of images we see boils South Asian women down to images of rural areas or seemingly “backward” lifestyles.

This post is one example of the way in which South Asian women are perceived. Most obvious is the focus on heavy jewellery and heavy clothes, which are rarely seen in everyday life. The obvious issue is that none of these countries have homogenous populations, so narrowing it down to one woman can also promote stereotypes of how Western audiences see these women.

But looking at a deeper thread of women from different areas in India can also be used as an example of the fact that the previous query itself was limited.

Still, even here, the women all have an unreal feel - maybe because their South Asian appearance seems overdone and doesn’t match realistic standards. The noses look too perfect, and the skin too smooth to be a woman I would meet on the streets.

 

This is another image that came up when I asked the AI generator to come up with when I put in the prompt Pakistani woman. The first thing that comes to notice is the desert-looking background - playing into tropes of countries like Pakistan being backward, underdeveloped countries where most people don’t have access to technology or any advancements.

This second image is also from the same prompt from a different website - and even here, the emphasis on jewellery and an enhancement of facial features can be seen. What’s also noticeable is the lightening and smoothing of skin tones in most AI-generated pictures.

Journalist Sajeer Shaikh also had a similar experience when generating her own images.

“I didn't like the images. I understand that they're a fantastical depiction of myself, but it seemed like the app zeroed in on insecurities I did not have, taking liberties with "enhancements." She shared. She was expecting otherworldly and warrior-esque images she could have fun with - but she ended up with insecurities she wasn’t expecting.

Of course, it only seems like the AI is making these decisions when all it’s doing is pulling from existing data sets, which means more concern needs to be shown regarding the data available for this tech to use in the first place.

Khan, who works particularly with audio - since his company uses AI to generate music - says these biases aren’t only limited to visuals but also words and audio. “We need to ask ourselves why Chat GPT is in English, why customer support has an American accent,” he says. A UN study also found that having AI assistants have female voices furthers gender biases.

Much of this comes from a lack of other information available. South Asian women are represented so little because they’re only seen within certain realms, making many South Asian women feel lesser when they try to do something outside of that arena.

“When I saw my images, I was overcome by sorrow because I felt a whitewashed extension of myself was depicted. It raised questions about why the software seemed to struggle to depict me as I am, with embellishments that didn't pertain to my skin or eye colour or even weight in some cases. You start questioning things about yourself, wondering, "What if I looked like this," and if that "what if" is a better version of yourself. It's not, of course, but AI protecting these depictions adds to the age-old issue of misrepresentation and perpetuating the idea of one kind of beautiful,” Shaikh says.

Many prominent Pakistani women like RJ Anoushey Ashraf and influencer Karachista also hopped onto the trend. Ashraf’s observations about how she could use the app to enhance her East Asian features - after finding out that her genes have East Asian traces - were both exciting and a bit scary. In a region where women are already objectified, what does it mean when certain features can be changed at will, and how does it impact perceptions South Asian women have of themselves or how others perceive them?

Mahnoor Qureshi, a freelance journalist, turned to AI tools and editors as the next step in editing her pictures. She used Snapchat and its tools frequently, sharing that being a victim of bullying since childhood - whether it was being told she looked bulky or comments on her nose - led her to these editing tools to make her feel better. She’s been using AI Photo Generator for five to six months now, but she noticed that it overdid her pictures and features in about 5-6% of her pictures, making her skin look doll-like and giving her unnaturally perfect teeth. Even though this was only in a small percentage of her pictures, Qureshi notices that “we are moving towards an unreal world, and we won’t accept ourselves and move towards surgeries and botox.”

“I believe the women are mostly insecure due to their skin texture. They want clear and even-toned skin. These images, generated by AI, consist of flawless, clear skin. Also, I have noticed that South Asian women are brown. But they really want to look one or two tones lighter than their original skin tone. The AI-generated images are 2 or 3 tones lighter than the original ones,” Qureshi adds.

In a digital world where the data hardly includes the diversity of South Asians, much less South Asian women - there’s a long way to go in challenging stereotypical data. Khan points out that these issues actually existed long before generative AI became common, and actually, its everyday use has allowed researchers and creators to identify it as a problem.  “If you’re conscious of different regions, the outcome will be more impactful. Currently, there’s no representation of South Asian people or women inside these models - but I’d also like to say this is a very early phase for these technologies, where researchers have also identified these problems - so over a period of time, they do want to make sure these models are as unbiased as possible,” he says.

It’s also equally important to note that even just encompassing the diversity present under the term ‘South Asian women’ in a single article or one person’s approach is almost impossible. So, while the term is used broadly to signal the common problems women face in the region, it can’t begin to justify the experiences of vulnerable women across class, religion and background who have seen a less privileged life. Even when South Asian women are represented, it is often a privileged group - which globally can mean upper caste Hindus, but also depends on the country. In Pakistan, this often means upper-class, elite Muslim women - usually Punjabi.

“ I feel as though "South Asian" encompasses such a diverse group of people of varied races and ethnicities -- it wouldn’t be fair of me to speak on behalf of everyone. However, as someone from a more privileged and more represented (both globally and domestically) South Asian background, if AI image generation is presenting hiccoughs for me, then what is it doing with or to less represented South Asians?” Singh acknowledges this when talking about her thoughts on her AI images and how they made her feel.

She also rightfully points out that these images may be fun for many users, but the implications can be dangerous.

“Limited representation is never ideal. To draw on my point above, I will say that if we're using these same algorithms for things like law enforcement down the line, I worry we're not taking this seriously. This tech isn't all fluff, after all. If you saw that NYT article from a week or so ago -- where a different Black woman (who happened to be pregnant) was falsely accused of a crime due to faulty AI-powered facial recognition -- you know that we're not thinking of the Black Mirror potential this technology has.”