Araştırma Makalesi
BibTex RIS Kaynak Göster

YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ

Yıl 2023, Cilt: 18 Sayı: 39, 220 - 249, 26.06.2023
https://doi.org/10.56524/msydergi.1301819

Öz

Bu çalışma, Amerika Birleşik Devletleri (ABD) ve Avrupa Birliğinin (AB) yapay zekaya ilişkin gelecekte yapılacak yasal düzenlemelere öneri olarak ortaya konan iki politika belgesini incelemektedir. Çalışmanın amacı ABD ve AB resmi metinlerinde yapay zekanın nasıl ve hangi unsurlarıyla ele alındığını, insanları algoritmalara ve büyük teknoloji şirketlerine karşı korumak için hangi düzenlemelerin önerildiğini ortaya koymaktır. Çalışmada, ABD’nin Beyaz Saray Bilim ve Teknoloji Politikaları Ofisi’nin Ekim 2022’de “Otomasyon Sistemlerini Amerikan Halkı İçin Çalışır Hale Getirmek” başlığıyla yayınladığı Yapay Zeka Haklar Bildirgesi Taslağı ile Avrupa Parlamentosu Araştırma Servisinin Bilim ve Teknolojinin Geleceği Komisyonunun Haziran 2022’de yayınladığı “Veriyi ve Yapay Zekayı Herkes İçin Yönetmek: Sürdürülebilir ve Adil Veri Yönetimi İçin Modeller” adlı çerçeve belgeleri karşılaştırılarak önerileri incelenmektedir. Belgelerden ilki bireysel hak ve özgürlüklerin ve demokratik değerlerin korunmasında riskleri azaltmaya yönelik önlemleri politikalara, uygulamalara ve teknolojinin tasarım aşamasına dahil etmeye yönelik bir dizi stratejik ilke geliştirmektedir. İkincisi ise bu teknolojilerin toplumun tamamı ve kolektif fayda için kullanılabilmesine yönelik olarak mevcut güç ilişkilerini, yani teknoloji alanındaki en büyük oyuncuların ve bunların ekonomilerine entegre oldukları devletlerin çıkarlarına odaklanan mevcut küresel veri yönetimi modelini değiştirecek öneriler ortaya koymaktadır. Çalışma bu iki belge arasındaki temel ayrımların yapay zeka teknolojilerinin dayandığı verileri özel mülkiyet gibi davranan ve bireysel haklar ve iddialarla ilgili olarak yönetilmesi gereken bir varlık olarak kabul eden liberal anlayışla analiz birimi birey yerine toplum olan ve verilerin ortak fayda için kullanılması gerektiğini savunan toplumcu bir anlayış arasındaki farktan kaynaklandığını ortaya koymaktadır. Çalışma, yapay zekanın topluma yönelik potansiyel risklerinin önlenmesi için adalet odaklı çerçevenin ötesine geçerek eşitsizliklere ve güce odaklanan bir çerçevenin emeğe ilişkin sorunları da gündemine alarak genişlemesi gerektiğini vurgulamaktadır.

Kaynakça

  • Abalı, Hüseyin Gürkan (2022), Avrupa Birliği Yapay Zeka Politikaları. Sosyal Beşeri ve İdari Bilimler Alanında Uluslararası Araştırmalar Xv, 205.
  • Abebe, Rediet ve Maximilian Kasy (2022), “Tahmin Araçları”, Acemoğlu, Daron (Der.), Yapay Zekayı Yeniden Tasarlamak: Otomasyon Çağında İş, Demokrasi ve Adalet, (Ankara: Efil Yayınevi): 73-77.
  • Acemoğlu, Daron (2022), Yapay Zekayı Yeniden Tasarlamak: Otomasyon Çağında İş, Demokrasi ve Adalet, (Ankara: Efil Yayınevi).
  • AI Now Institut (2021), “Democratize AI? How the Proposed National AI Research Resource Falls short”, https://medium.com/@AINowInstitute/democratize-ai-how-the-proposed-national-ai-research-resource-falls-short-96ae5f67ccfa
  • Amoore, Louise, (2018),” Cloud Geographies: Computing, Data, Sovereignty”, Progress in Human Geography, 42(1), 4-24.
  • Andrejevic, Mark, (2014). “Big Data, Big Questions| the Big Data Divide”, International Journal of Communication, 8, 17.
  • Avrupa Komisyonu (2023), “A European Approach to Artificial Intelligence”, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
  • Bak-Coleman, Joseph, Carl T. Bergstrom, Jennifer Jacquet, James Mickens, Zeynep Tüfekçi ve Timmons Roberts (2023), “Create an IPCC-like Body to Harness Benefits and Combat Harms of Digital Tech”, Nature, 617(7961), 462-464.
  • Başlar, Gülşah (2022), “Toplumsal Gerçekliğin Algoritmik İnşası ve Yapay Zeka Tartışmaları”, Hakikat, Temsil, İnşa: Medyada Gerçekliğin Krizleri, (Bursa: Dora Yayıncılık): 103-140.
  • Baum, Kevin, Joanna J. Bryson, Frank Dignum, Virginia Dignum, Marko Grobelnik, Holger Hoos, Morten Irgens, Paul Lukowicz, Catellijne Muller, Franceska Rossi, John Shawe-Taylor, Andreas Theodorou ve Ricardo Vinuesa (2023), “From Fear to Action: AI Governance and Opportunities for All”, Frontiers in Computer Science, 5.
  • Brundage, Miles ve Joanna Bryson (2016), “Smart policies for artificial intelligence”, arXiv preprint arXiv:1608.08196.
  • Dehlendorf, Andrea ve Ryan Gerety (2022), “İşçilerin Hak ve Yetkilerinin Merkeze Alınması”, Acemoğlu, Daron (Der.), Yapay Zekayı Yeniden Tasarlamak: Otomasyon Çağında İş, Demokrasi ve Adalet, (Ankara: Efil Yayınevi): 35-39.
  • Erdem, Tolga ve Cengiz Özbek (2021), “Avrupa Birliği'nin Yapay Zekâ Politikalarının Küresel Teknoloji Dönüşümüne Etkileri”, İstanbul Rumeli Üniversitesi Sosyal Bilimler Dergisi, 1(1): 47-69.
  • Eubanks, Virginia (2018), Automating Inequality: How High-tech Tools Profile, Police, and Punish the Poor, (New York: St. Martin's Press).
  • European Commission (2019), “Ethics Guidelines for Trustworthy AI”, European Commission, Directorate-General for Communications Networks, Content and Technolog, https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
  • Executive Order 13960 (2020), “Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government”, https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government
  • Executive Order 13859 (2019), “Maintaining American Leadership in Artificial Intelligence”, https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence
  • Fischer, Sophie Charlotte ve Andreas Wenger (2021), “Artificial intelligence, forward‐looking governance and the future of security”, Swiss Political Science Review, 27(1), 170-179.
  • Fuchs, Christian (2019), “Karl Marx in the age of big data capitalism”, Digital Objects, Digital Subjects: Interdisciplinary Perspectives on Capitalism, Labour and Politics in the Age of Big Data, (London: University of Westminster Press): 53-71.
  • Gillespie, Tarleton (2016), “Algorithm”, Digital Keywords (Princeton University Press): 18-30.
  • Hacker, Philip, Andreas Engel ve Theresa List (2023), “Understanding and Regulating ChatGPT, and Other Large Generative AI Models”, https://verfassungsblog.de/chatgpt/
  • IAPP (2023), “US State Privacy Legislation Tracker”, https://iapp.org/media/pdf/resource_center/State_Comp_Privacy_Law_Chart.pdf
  • Jelinek, Thorsten, Wendell Wallach ve Danil Kerimi (2021), “Policy Brief: The Creation of A G20 Coordinating Committee for The Governance of Artificial İntelligence”, AI and Ethics, 1(2), 141-150.
  • Jobin, Anna, Marcello Ienca ve Effy Vayena (2019), “The Global Landscape of AI Ethics Guidelines”, Nature Machine Intelligence, 1(9), 389-399.
  • Jobin, Anna, Licinia Guettel, Laura Liebig ve Christan Katzenbach (2021), “AI Federalism: Shaping AI Policy within States in Germany”. arXiv preprint arXiv:2111.04454.
  • Koşar, Arif (2019), “Endüstri 4.0: Gerçeklik, Strateji ve Ütopya”, https://teoriveeylem.net/tr/2019/06/11/endustri-4-0-gerceklik-strateji-ve-utopya/
  • Li, Zihao (2023), “The Dark Side of ChatGPT: Legal and Ethical Challenges from Stochastic Parrots and Hallucination”, arXiv, https://doi.org/10.48550/arXiv.2304.14347
  • Moy, Laura (2021), “Facing Injustice: How Face Recognition Technology May Increase the Incidence of Misidentifications and Wrongful Convictions”, William & Mary Bill of Rights Journal, 30(2).
  • NIST (2023), “AI Risk Management Framework”, https://www.nist.gov/itl/ai-risk-management-framework
  • NIST (2022), “Towards a Standard for Identifying and Managing Bias in Artificial Intelligence”, https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270.pdf
  • Park, Eunice (2023), “The AI Bill of Rights: A Step in the Right Direction”, Orange County Lawyer Magazine, 65(2). Richterich, Annika (2018), The Big Data Agenda: Data Ethics and Critical Data Studies, (University of Westminster Press).
  • STOA (2022), “Governing Data and Artificial İntelligence For All: Models For Sustainable and Just Data Governance”, https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2022)729533
  • UNESCO (2022), “Recommendation on the Ethics of Artificial Intelligence”, https://unesdoc.unesco.org/ark:/48223/pf0000381137
  • White House (2022), “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, White House Office of Science and Technology Policy, https://www.whitehouse.gov/ostp/ai-bill-of-rights/
  • Yeung, Karen (2020), “Recommendation of The Council on Artificial Intelligence (OECD)”, International Legal Materials, 59(1), 27-34.
  • Yılmaz, İlay, Can Sözer ve Ecem Elver (2021), “Yapay Zekâ ile İlgili Güncel Düzenlemeler: Avrupa Birliği ve Amerika Birleşik Devletleri’nde Alınan Aksiyonlar Işığında Bir Değerlendirme”, Adalet Dergisi, (66), 445-469.

Making Artificial Intelligence Work for Human and Public Good: Recommendations of US and EU Policy Papers

Yıl 2023, Cilt: 18 Sayı: 39, 220 - 249, 26.06.2023
https://doi.org/10.56524/msydergi.1301819

Öz

This study examines two policy documents of the United States (USA) and the European Union (EU) that are proposed as suggestions for future legal regulations on artificial intelligence. The aim of the study is to reveal how and with which elements artificial intelligence is handled in the US and EU official texts, and what regulations are recommended to protect people against algorithms and big technology companies. In the study, the draft Artificial Intelligence Bill of Rights published by the US White House Office of Science and Technology Policy in October 2022 with the title "Making Automation Systems Work for the American People" and the European Parliament Research Service's Future of Science and Technology Commission published in June 2022. The framework documents named “Managing Data and Artificial Intelligence for All: Models for Sustainable and Fair Data Management” are compared and their suggestions are examined. The first of the documents develops a set of strategic principles for incorporating measures to reduce risks in the protection of individual rights and freedoms and democratic values in policies, practices and the design phase of technology. Second, it presents proposals that will change the existing power relations, that is, the current global data management model, which focuses on the interests of the biggest players in the field of technology and the states in which they are integrated into their economies, so that these technologies can be used for the whole of society and for the collective benefit. The main distinctions between these two documents are between a liberal understanding, which treats the data on which artificial intelligence technologies are based, as an asset that must be managed with regard to individual rights and claims, and a socialist approach, which argues that the data should be used for the common good, and the unit of analysis is the society instead of the individual. demonstrates the difference. The study emphasizes that in order to prevent the potential risks of artificial intelligence to society, a framework that focuses on inequalities and power should go beyond the justice-oriented framework and expand by taking into account the problems related to labor.

Kaynakça

  • Abalı, Hüseyin Gürkan (2022), Avrupa Birliği Yapay Zeka Politikaları. Sosyal Beşeri ve İdari Bilimler Alanında Uluslararası Araştırmalar Xv, 205.
  • Abebe, Rediet ve Maximilian Kasy (2022), “Tahmin Araçları”, Acemoğlu, Daron (Der.), Yapay Zekayı Yeniden Tasarlamak: Otomasyon Çağında İş, Demokrasi ve Adalet, (Ankara: Efil Yayınevi): 73-77.
  • Acemoğlu, Daron (2022), Yapay Zekayı Yeniden Tasarlamak: Otomasyon Çağında İş, Demokrasi ve Adalet, (Ankara: Efil Yayınevi).
  • AI Now Institut (2021), “Democratize AI? How the Proposed National AI Research Resource Falls short”, https://medium.com/@AINowInstitute/democratize-ai-how-the-proposed-national-ai-research-resource-falls-short-96ae5f67ccfa
  • Amoore, Louise, (2018),” Cloud Geographies: Computing, Data, Sovereignty”, Progress in Human Geography, 42(1), 4-24.
  • Andrejevic, Mark, (2014). “Big Data, Big Questions| the Big Data Divide”, International Journal of Communication, 8, 17.
  • Avrupa Komisyonu (2023), “A European Approach to Artificial Intelligence”, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
  • Bak-Coleman, Joseph, Carl T. Bergstrom, Jennifer Jacquet, James Mickens, Zeynep Tüfekçi ve Timmons Roberts (2023), “Create an IPCC-like Body to Harness Benefits and Combat Harms of Digital Tech”, Nature, 617(7961), 462-464.
  • Başlar, Gülşah (2022), “Toplumsal Gerçekliğin Algoritmik İnşası ve Yapay Zeka Tartışmaları”, Hakikat, Temsil, İnşa: Medyada Gerçekliğin Krizleri, (Bursa: Dora Yayıncılık): 103-140.
  • Baum, Kevin, Joanna J. Bryson, Frank Dignum, Virginia Dignum, Marko Grobelnik, Holger Hoos, Morten Irgens, Paul Lukowicz, Catellijne Muller, Franceska Rossi, John Shawe-Taylor, Andreas Theodorou ve Ricardo Vinuesa (2023), “From Fear to Action: AI Governance and Opportunities for All”, Frontiers in Computer Science, 5.
  • Brundage, Miles ve Joanna Bryson (2016), “Smart policies for artificial intelligence”, arXiv preprint arXiv:1608.08196.
  • Dehlendorf, Andrea ve Ryan Gerety (2022), “İşçilerin Hak ve Yetkilerinin Merkeze Alınması”, Acemoğlu, Daron (Der.), Yapay Zekayı Yeniden Tasarlamak: Otomasyon Çağında İş, Demokrasi ve Adalet, (Ankara: Efil Yayınevi): 35-39.
  • Erdem, Tolga ve Cengiz Özbek (2021), “Avrupa Birliği'nin Yapay Zekâ Politikalarının Küresel Teknoloji Dönüşümüne Etkileri”, İstanbul Rumeli Üniversitesi Sosyal Bilimler Dergisi, 1(1): 47-69.
  • Eubanks, Virginia (2018), Automating Inequality: How High-tech Tools Profile, Police, and Punish the Poor, (New York: St. Martin's Press).
  • European Commission (2019), “Ethics Guidelines for Trustworthy AI”, European Commission, Directorate-General for Communications Networks, Content and Technolog, https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
  • Executive Order 13960 (2020), “Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government”, https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting-the-use-of-trustworthy-artificial-intelligence-in-the-federal-government
  • Executive Order 13859 (2019), “Maintaining American Leadership in Artificial Intelligence”, https://www.federalregister.gov/documents/2019/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence
  • Fischer, Sophie Charlotte ve Andreas Wenger (2021), “Artificial intelligence, forward‐looking governance and the future of security”, Swiss Political Science Review, 27(1), 170-179.
  • Fuchs, Christian (2019), “Karl Marx in the age of big data capitalism”, Digital Objects, Digital Subjects: Interdisciplinary Perspectives on Capitalism, Labour and Politics in the Age of Big Data, (London: University of Westminster Press): 53-71.
  • Gillespie, Tarleton (2016), “Algorithm”, Digital Keywords (Princeton University Press): 18-30.
  • Hacker, Philip, Andreas Engel ve Theresa List (2023), “Understanding and Regulating ChatGPT, and Other Large Generative AI Models”, https://verfassungsblog.de/chatgpt/
  • IAPP (2023), “US State Privacy Legislation Tracker”, https://iapp.org/media/pdf/resource_center/State_Comp_Privacy_Law_Chart.pdf
  • Jelinek, Thorsten, Wendell Wallach ve Danil Kerimi (2021), “Policy Brief: The Creation of A G20 Coordinating Committee for The Governance of Artificial İntelligence”, AI and Ethics, 1(2), 141-150.
  • Jobin, Anna, Marcello Ienca ve Effy Vayena (2019), “The Global Landscape of AI Ethics Guidelines”, Nature Machine Intelligence, 1(9), 389-399.
  • Jobin, Anna, Licinia Guettel, Laura Liebig ve Christan Katzenbach (2021), “AI Federalism: Shaping AI Policy within States in Germany”. arXiv preprint arXiv:2111.04454.
  • Koşar, Arif (2019), “Endüstri 4.0: Gerçeklik, Strateji ve Ütopya”, https://teoriveeylem.net/tr/2019/06/11/endustri-4-0-gerceklik-strateji-ve-utopya/
  • Li, Zihao (2023), “The Dark Side of ChatGPT: Legal and Ethical Challenges from Stochastic Parrots and Hallucination”, arXiv, https://doi.org/10.48550/arXiv.2304.14347
  • Moy, Laura (2021), “Facing Injustice: How Face Recognition Technology May Increase the Incidence of Misidentifications and Wrongful Convictions”, William & Mary Bill of Rights Journal, 30(2).
  • NIST (2023), “AI Risk Management Framework”, https://www.nist.gov/itl/ai-risk-management-framework
  • NIST (2022), “Towards a Standard for Identifying and Managing Bias in Artificial Intelligence”, https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270.pdf
  • Park, Eunice (2023), “The AI Bill of Rights: A Step in the Right Direction”, Orange County Lawyer Magazine, 65(2). Richterich, Annika (2018), The Big Data Agenda: Data Ethics and Critical Data Studies, (University of Westminster Press).
  • STOA (2022), “Governing Data and Artificial İntelligence For All: Models For Sustainable and Just Data Governance”, https://www.europarl.europa.eu/stoa/en/document/EPRS_STU(2022)729533
  • UNESCO (2022), “Recommendation on the Ethics of Artificial Intelligence”, https://unesdoc.unesco.org/ark:/48223/pf0000381137
  • White House (2022), “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”, White House Office of Science and Technology Policy, https://www.whitehouse.gov/ostp/ai-bill-of-rights/
  • Yeung, Karen (2020), “Recommendation of The Council on Artificial Intelligence (OECD)”, International Legal Materials, 59(1), 27-34.
  • Yılmaz, İlay, Can Sözer ve Ecem Elver (2021), “Yapay Zekâ ile İlgili Güncel Düzenlemeler: Avrupa Birliği ve Amerika Birleşik Devletleri’nde Alınan Aksiyonlar Işığında Bir Değerlendirme”, Adalet Dergisi, (66), 445-469.
Toplam 36 adet kaynakça vardır.

Ayrıntılar

Birincil Dil Türkçe
Konular Kamu Yönetimi
Bölüm Araştırma Makaleleri
Yazarlar

Şafak Etike 0000-0002-3055-7876

Yayımlanma Tarihi 26 Haziran 2023
Yayımlandığı Sayı Yıl 2023 Cilt: 18 Sayı: 39

Kaynak Göster

APA Etike, Ş. (2023). YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ. Memleket Siyaset Yönetim, 18(39), 220-249. https://doi.org/10.56524/msydergi.1301819
AMA Etike Ş. YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ. Memleket Siyaset Yönetim. Haziran 2023;18(39):220-249. doi:10.56524/msydergi.1301819
Chicago Etike, Şafak. “YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ”. Memleket Siyaset Yönetim 18, sy. 39 (Haziran 2023): 220-49. https://doi.org/10.56524/msydergi.1301819.
EndNote Etike Ş (01 Haziran 2023) YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ. Memleket Siyaset Yönetim 18 39 220–249.
IEEE Ş. Etike, “YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ”, Memleket Siyaset Yönetim, c. 18, sy. 39, ss. 220–249, 2023, doi: 10.56524/msydergi.1301819.
ISNAD Etike, Şafak. “YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ”. Memleket Siyaset Yönetim 18/39 (Haziran 2023), 220-249. https://doi.org/10.56524/msydergi.1301819.
JAMA Etike Ş. YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ. Memleket Siyaset Yönetim. 2023;18:220–249.
MLA Etike, Şafak. “YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ”. Memleket Siyaset Yönetim, c. 18, sy. 39, 2023, ss. 220-49, doi:10.56524/msydergi.1301819.
Vancouver Etike Ş. YAPAY ZEKAYI İNSAN VE KAMUSAL YARAR İÇİN ÇALIŞTIRMAK: ABD VE AB POLİTİKA BELGELERİNİN ÖNERİLERİ. Memleket Siyaset Yönetim. 2023;18(39):220-49.

Cited By

Yapay Zekada Hukuk İhlalleri
MetaZihin: Yapay Zeka ve Zihin Felsefesi Dergisi
https://doi.org/10.51404/metazihin.1269258