حوزه‌های بهره مندی هوش مصنوعی در حقوق بنیادین افراد در پرتو بررسی جهات مشروعیت آن

نویسندگان

    عباس سلحشور دانشجوی دکتری گروه الهیات، واحد نجف آباد، دانشگاه آزاد اسلامی، نجف ‌آباد، ایران
    احمد رضا توکلی * استادیار، گروه الهیات، واحد نجف ‌آباد، دانشگاه آزاد اسلامی، نجف ‌آباد، ایران Tavakolimady @gmail.com
    محمدعلی حیدری استادیار، گروه الهیات، واحد نجف ‌آباد، دانشگاه آزاد اسلامی، نجف آباد، ایران

کلمات کلیدی:

هوش مصنوعی, حفاظت از داده‌ها, حقوق بنیادین, مشروعیت

چکیده

امروزه جلوه‌های حقوق بشری در هوش مصنوعی و جهات مشروعیت آن، چالشی است که با نحوه پرداختن به آنها، شکاف‌ها و چالش ها، و تأثیرگذاری بر اصول حقوق بشر متمرکز می‌شود. چنین موضوعاتی عبارتند از: شفافیت الگوریتمی، آسیب پذیری­های امنیت سایبری، بی عدالتی، سوگیری و تبعیض، مسائل مربوط به حریم خصوصی و حفاظت از داده ها، مسئولیت آسیب و عدم پاسخگویی که با روشی کتابخانه‌ای بررسی شده است. این پژوهش با تمکر بر «آسیب‌پذیری» برای تثبیت درک حوزه هوش مصنوعی و حقوق بنیادین افراد که اغلب مورد نگرانی است بهره برده و آن را در راستای بررسی مشروعیت بخشی به این تکنولوژی استفاده می‌کند. یافته‌ها نشان می‌دهد با توجه به کارهای مطلوب انجام شده در حوزه قانون و نظارت بر هوش مصنوعی و اذعان به اینکه این حوزه نیاز به ارزیابی مداوم و چابکی در رویکرد دارد، این بحث را پیش می‌برد که با توجه به شدت تأثیرات فناوری‌های هوش مصنوعی، به ویژه بر افراد و گروه‌های آسیب پذیر و حقوق بشر آن‌ها حائز اهمیت بوده و قبل از وارد نمودن آن‌ها بر عرصه و حضور حقوق افراد باید مشروعیت آن‌ها را با محک اخلاق سنجید.

دانلودها

دسترسی به دانلود اطلاعات مقدور نیست.

مراجع

Chalmers, A. W. (2019). Choosing lobbying sides: the general data protection regulation of the European Union. J. Public Policy(No39). https://doi.org/10.1017/S0143814X18000223

Cheng, Varshney, & Liu. Socially Responsible AI Algorithms: Issues, Purposes, and Challenges. Journal of Artificial Intelligence Research(N5).

Coeckelbergh, M. (2020). AI Ethics. https://doi.org/10.7551/mitpress/12549.001.0001

Commissioner for Human Rights. (2019). Unboxing Artificial Intelligence: 10 steps to protect Human Rights. In. European Office of the Commissioner for Human Rights.

Ghaly, M. (2022). For the Classical Beginnings of Self-Propelled Machines, an Article Published on the Internet, Aristotle's Politics. In.

Ginevra Le, M. (2022). AI vs Human Dignity: When Human Underperformance is Legally Required. Groupe d'études géopolitiques(4).

Hallström, J. (2022). Embodying the past, designing the future: technological determinism reconsidered in.

Heleen, L. J. (2020). An approach for a fundamental rights impact assessment to automated decision-making. International Data Privacy Law, 10(1). https://doi.org/10.1093/idpl/ipz028

Kaminski, M. E. (2019). Binary Governance: Lessons from the GDPR's Approach to Algorithmic Accountability. University of Colorado Law School University of Colorado Law School, 92. https://doi.org/10.2139/ssrn.3351404

Lilian, E., & Michael, V. (2017). Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking for. 16 DUKE L. & TECH. REV. 17, 44. https://doi.org/10.31228/osf.io/97upg

Mehrabi, N., Morstatter, F., Nripsuta, S., Kristina Lerman, A. U., & Galstyan, A. (2022). A Survey on Bias and Fairness in Machine Learning. https://doi.org/10.1145/3457607

Mostafavi Ardebili, M. M., Taghizadeh Ansari, M., & Rahmati Far, S. (2022). Functions and Requirements of Artificial Intelligence from the Perspective of Fair Trial. Biannual Journal of Law and New Technologies, 3(6).

Rai, P., & Constantinides, S. (2019). Next-generation digital platforms: toward human-AI hybrids. Mis Quart, 43(1).

Richardson, R., Schultz, J., & Crawford, K. (2019). 'Dirty data, bad predictions: how civil rights violations impact police data, predictive policing systems, and justice'. NYULR.

Salari, A. (2018). Equality and Non-Discrimination in the Human Rights System. Legal Research Journal, 17(35).

Smith, M. (1994). Technological Determinism in American Culture. In Does Technology Drive History? The Dilemma Of Technological Determinism.

Stéphanie Laulhé, S., & Yulia, R. (2024). Challenges to Fundamental Human Rights in the age of Artificial Intelligence Systems: shaping the digital legal order while upholding Rule of Law principles and European values. Era Forum(No24). https://doi.org/10.1007/s12027-023-00777-2

Stone, P., Brooks, R., Brynjolfsson, E., & Calo, R. (2022). Artificial intelligence and life in 2030: the one hundred year study on artificial intelligence. ONE HUNDRED YEAR STUDY ON ARTIFICIAL INTELLIGENCE | REPORT OF THE 2015 STUDY PANEL | SEPTEMBER 2016.

Veale, M., Binns, R., & Lilian, E. (2018). Algorithms that remember: model inversion attacks and data protection law. Royal Society, 376(2133). https://doi.org/10.1098/rsta.2018.0083

Wachter, S., Mittelstadt, B., & Russell, C. (2021). Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI. Computer Law & Security Review, 41. https://doi.org/10.1016/j.clsr.2021.105567

دانلود

چاپ شده

۱۴۰۴/۰۳/۰۲

ارسال

۱۴۰۳/۱۱/۱۳

بازنگری

۱۴۰۴/۰۲/۱۴

پذیرش

۱۴۰۴/۰۲/۲۸

شماره

نوع مقاله

مقالات

ارجاع به مقاله

سلحشور ع. .، توکلی ا. ر.، و حیدری م. . (1404). حوزه‌های بهره مندی هوش مصنوعی در حقوق بنیادین افراد در پرتو بررسی جهات مشروعیت آن. دانشنامه فقه و حقوق تطبیقی. https://jecjl.com/index.php/jecjl/article/view/76

مقالات مشابه

1-10 از 74

همچنین برای این مقاله می‌توانید شروع جستجوی پیشرفته مقالات مشابه.