Encrucijada entre Prompts éticos y juicio humano en la era de la Inteligencia Artificial
DOI:
https://doi.org/10.47230/unesum-ciencias.v8.n2.2024.4-19Palavras-chave:
Inteligencia Artificial, Ética, Prompts Éticos, Juicio Moral, Toma de Decisiones, Razonamiento Contextual.Resumo
En la era actual de rápido avance tecnológico, la inteligencia artificial (IA) ha penetrado en diversos aspectos de la toma de decisiones, incluyendo aquellas con implicaciones éticas significativas. Este estudio examina la compleja relación entre los prompts éticos implementados en sistemas de IA y el juicio moral humano, investigando si estos prompts pueden reemplazar efectivamente la toma de decisiones éticas humanas. El objetivo principal es evaluar las capacidades y limitaciones de los prompts éticos en la captura de la complejidad del razonamiento moral humano. La investigación revela que los prompts éticos han demostrado eficacia en situaciones donde las reglas éticas son claras y bien definidas, como en ciertos aspectos de la medicina y las finanzas, logrando en ocasiones igualar o superar el desempeño humano. Sin embargo, también se identificaron limitaciones significativas, particularmente en escenarios éticos complejos que requieren una comprensión contextual profunda y flexibilidad cognitiva. Los sistemas de IA guiados por prompts éticos mostraron dificultades para manejar variaciones sutiles en dilemas morales y para adaptarse a diferentes contextos culturales. La investigación concluye que, si bien los prompts éticos representan un avance importante en la incorporación de consideraciones éticas en sistemas de IA, no pueden reemplazar completamente el juicio humano en la toma de decisiones éticas complejas. Se sugiere un enfoque híbrido que combine las fortalezas de los prompts éticos con la supervisión y el juicio humano continuo como el camino más prometedor para abordar los desafíos éticos en la era de la IA.
Downloads
Referências
AI Now Institute. (2019). AI Now 2019 Report. New York University. https://ainowinstitute.org/AI_Now_2019_Report.pdf
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J. F., & Rahwan, I. (2018). The Moral Machine experiment. Nature, 563(7729), 59-64. https://www.nature.com/articles/s41586-018-0637-6
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.
Bostrom, N., & Yudkowsky, E. (2014). The ethics of artificial intelligence. The Cambridge Handbook of Artificial Intelligence, 316-334.
Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. arXiv preprint arXiv:2005.14165. https://arxiv.org/abs/2005.14165
Cath, C., Wachter, S., Mittelstadt, B., Taddeo, M., & Floridi, L. (2018). Artificial Intelligence and the 'Good Society': the US, EU, and UK approach. Science and Engineering Ethics, 24(2), 505-528. https://link.springer.com/article/10.1007/s11948-017-9901-7
Char, D. S., Shah, N. H., & Magnus, D. (2018). Implementing machine learning in health care—addressing ethical challenges. *New England Journal of Medicine*, 378(11), 981-983. https://www.nejm.org/doi/full/10.1056/NEJMp1714229
Council of Europe. (2022). Artificial intelligence and the administration of justice. https://rm.coe.int/artificial-intelligence-and-the-administration-of-justice/1680a6f5a0
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
Floridi, L. (2013). The Ethics of Information. Oxford University Press, Reino Unido. https://global.oup.com/academic/product/the-ethics-of-information-9780199641321
Floridi, L. (2019 a). The Ethics of Artificial Intelligence. Oxford University Press. https://global.oup.com/academic/product/the-ethics-of-artificial-intelligence-9780198838159
Floridi, L., & Cowls, J. (2019 b). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, 1(1). https://hdsr.mitpress.mit.edu/pub/l0jsh9d1/release/7
Greene, J. D., Sommerville, R. B., Nystrom, L. E., Darley, J. M., & Cohen, J. D. (2021). An fMRI investigation of emotional engagement in moral judgment. Science, 293(5537), 2105-2108.
Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines, 30(1), 99-120.
Jiang, J., He, D., & Allan, J. (2021). Comparing bayesian and frequentist measures of uncertainty in neural networks. arXiv preprint arXiv:2101.11582. https://arxiv.org/abs/2101.11582
Jonas, H. (1979). El principio de responsabilidad: ensayo de una ética para la civilización tecnológica. Herder Editorial.
Kleinberg, J., Ludwig, J., Mullainathan, S., & Rambachan, A. (2018). Algorithmic Fairness. AEA Papers and Proceedings, 108, 22-27. https://www.aeaweb.org/articles?id=10.1257/pandp.20181018
Li, X., Xu, B., Goodman, K. E., Schatz, B. R., & Zhang, Y. (2022). Artificial intelligence and machine learning in clinical research: A systematic review. Journal of Medical Internet Research, 24(1), e32344. https://www.jmir.org/2022/1/e32344/
Meta. (2022). Community Standards Enforcement Report. https://transparency.fb.com/data/community-standards-enforcement/
Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nature Machine Intelligence, 1, 501-507. https://www.nature.com/articles/s42256-019-0114-4
Nissenbaum, H. (2010). Privacy in Context: Technology, Policy, and the Integrity of Social Life. Stanford University Press.
O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
Ord, T. (2020). The Precipice: Existential Risk and the Future of Humanity. Hachette Books. https://www.hachettebookgroup.com/titles/toby-ord/the-precipice/9780316484916/
ProPublica. (2016). Machine Bias. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking, EE.UU. https://www.penguinrandomhouse.com/books/566677/human-compatible-by-stuart-russell/
Singer, P. (2021). Ethics in the Real World: 82 Brief Essays on Things That Matter. Princeton University Press, EE.UU. https://press.princeton.edu/books/paperback/9780691178479/ethics-in-the-real-world
TechTarget. (2023). Transparency in AI. https://www.techtarget.com/
Topol, E. J. (2019). High-performance medicine: the convergence of human and artificial intelligence. Nature Medicine, 25(1), 44-56. https://www.nature.com/articles/s41591-018-0300-7
UNESCO. (2021). Recommendation on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000380455
Wallach, W., & Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press, EE.UU. https://global.oup.com/academic/product/moral-machines-9780195374049
Publicado
Como Citar
Edição
Seção
Licença
Copyright (c) 2024 Mario González Arencibia
Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.