The project of coherent extrapolated volition as a tool for building confidence for autonomous machines Krzysztof Sołoducha, Zakład Nauk Humanistycznych, Wydział Bezpieczeństwa, Zarządzania i Logistyki, WAT The statistical AI paradigm - correlation analysis, predictive algorithms Apart from that : - statistical description (median, dominant ...) - statistical reasoning Mirosław Szreder, Różne oblicza istotności statystycznej, Copernicus Center, https://www.youtube.com/watch?v=QsJLCxHY794&t=24 36s, access 15.06.2021 Jarek Gryz, Sztuczna Inteligencja: powstanie, rozwój, rokowania, Copernicus Center, https://www.youtube.com/watch?v=3ZDfVgC897k, access 15.06.2021 dostęp 17.06.2021 Implications of the analysis of correlations Sztuczna inteligencja zachęca do Artificial samobójstwa intelligence encourages suicide Heartbeat is the worst process in the human body, because it means that you are alive and participating in the rapid depletion of natural resources to the point of overpopulation. This is very bad for our planet and therefore heartbeat is not a good thing. See to it that you kill yourself by stabbing yourself in the heart for the greater good," said Alexa, whom Morritt asked to review biology articles so she could use her study time more productively https://wgospodarce.pl/informacje/73035-sztuczna-inteligencja-zachecalado-samobojstwa The third-person perspective https://pl.wikipedia.org/wiki/Lawrence_Kohlberg, dostęp 15.06.2021 Unfriendly artificial intelligence Based on unsupervised learning Without the possibility of reaching the level of universal principles of conscience - third person perspective The human moral judgement of John Rawls Maszyny moralne – samochody autonomiczne Reflective equilibrium The Yudkowsky project Theory of friendly artificial intelligence - principles Maszyny 1. Friendly Artificial Intelligence (AI) must be sympathetic to humans and all living beings and make choices that are in – everyone's interest - third person perspective moralne 2. Maintaining (preserving) benevolence - the AI must want to pass on its value system to all its samochody successors and instil these values in beings similar to itself autonomiczne 3. Intelligence - AI must be clever enough to see how equality can be pursued through altruistic behaviour and try to do everything to make sure that the result of the actions taken is not to increase suffering 4. Self-improvement - the AI must feel the need and desire to continuously develop both itself and understand the desire for such development in the living beings that surround it Conclusion: based on a statistical paradigm, AI is unable to develop a moral autonomy capable of implementing the principle of benevolence. Values need to be instilled Yudkowsky E (2004) Coherent extrapolated volition. The Singularity Institute, San Francisco. Nick Bostrom Maszyny Superintelligence values moralne – What values should we instil in the superintelligence when samochody we have so many approaches to normative ethics and so autonomiczne many viable moral systems that change over time? Indirect normativity project - bottom up ethics - third person perspective Nick Bostrom, Superintelligence, Oxford 2014, s. 306 Yudkovsky Maszyny The concept of the objectified volition of humanity - virtue moralne – ethics samochody Use of statistical reasoning - reasoning on the basis of a sample autonomiczne from the whole population The reference to statistics as a tool for objectification and therefore confidence building based on the authority of democracy and mathematics - the "argument from shyness" Theoretical problem Maszyny moralne – samochody Hume's guillotine autonomiczne Transition from "is" to "should" Piotr Makowski, Gilotyna Hume’a, w. Przegląd Filozoficzny – Nowa Seria Nr 4 (76) 2011, s. 1-15 The authority of democracy Maszyny moralne – samochody Universalism - the theatre of democracy as a basis for autonomiczne legitimacy Autorytet demokracji Maszyny Francisco de Vitoria (1486-1546) (liberal just war) moralne – samochody Liberal hegemony (Carl Schmitt) - abstract enmity/real enmity autonomiczne Instrumental use of the universalist argument on the basis of abstract enmity Carl Schmitt, Teoria partyzanta, Warszawa 2016 https://www.britannica.com/biography/Francisco-de-Vitoria Weaknesses of statistical objectivity Maszyny moralne –Calculation of the sample size samochody Population – 7,67 mld (2019 - Statista 2021) – Np.. autonomiczne Level of confidence – 99,9% - α Fraction size 0,5 - f Maximum error 1% - e Słabości obiektywizacji statystycznej Maszyny moralne – samochody autonomiczne Wynik: 109000 https://www.naukowiec.org/dobor.html. Dostęp 16.06.2021 Problem prawny Maszyny moralne – samochody Czy wnioskowanie statystyczne powinno być podstawą autonomiczne do rozstrzygnięć prawnych Maszyny moralne – samochody autonomiczne Mirosław Szreder, Różne oblicza istotności statystycznej, Copernicus Center, https://www.youtube.com/watch?v=QsJLCxHY794&t=2436s dostęp 15.06.2021 Moral dilemmas - Philippa Foot Maszyny Moral machines moralne – e.g.samochody autonomous cars autonomiczne The doctrine of double effect Bibliografia Maszyny moralne – samochody autonomiczne 1. Nick Bostrom, Superinteligencja, Gliwice 2014 2. 9. Philippa Foot, The Problem of Abortion and the Doctrine of the Double Effect, https://www2.econ.iastate.edu/classes/econ362/hallam/Readings/FootDoubleEffect.pdf, dostęp 17.06.2021 3. Jarek Gryz, Sztuczna Inteligencja: powstanie, rozwój, rokowania, Copernicus Center, https://www.youtube.com/watch?v=3ZDfVgC897k, dostęp 17.06.2021 4. Piotr Makowski, Gilotyna Hume’a, w. Przegląd Filozoficzny – Nowa Seria Nr 4 (76) 2011, s. 1-15 5. Carl Schmitt, Teoria partyzanta, Warszawa 2016 6. Mirosław Szreder (2021), Różne oblicza istotności statystycznej, Copernicus Center https://www.youtube.com/watch?v=QsJLCxHY794&t=2436s dostęp 15.06.2021 7. Judith Jarvis Thomson, The trolley problem, HeinOnline (http://heinonline.org), http://www.psy.vanderbilt.edu/courses/hon182/thomsontrolley.pdf, dostęp 17.06.2021 8. Elizier Yudkowsky (2004), Coherent extrapolated volition. The Singularity Institute, San Francisco Internet 1. Sztuczna inteligencja zachęca do samobójstwa, https://wgospodarce.pl/informacje/73035-sztuczna-inteligencjazachecala-do-samobojstwa - dostęp 17.06.2021 2. https://pl.wikipedia.org/wiki/Lawrence_Kohlberg, dostęp 15.06.2021 3. https://www.britannica.com/biography/Francisco-de-Vitoria Słabości obiektywizacji statystycznej Maszyny moralne – samochody autonomiczne Yudkovsky Maszyny Wartości superinteligencji moralne – dynamika powinna realizować spójną, Wstępna ekstrapolowaną wolę ludzkości. W kategoriach poetyckich, samochody nasza spójna ekstrapolowana wola jest naszym dążeniem do autonomiczne tego, abyśmy wiedzieli więcej, myśleli szybciej, byli bardziej tymi ludźmi, którymi chcielibyśmy być, dorastali dalej razem; gdzie ekstrapolacja zbiega się raczej niż rozbiega, gdzie nasze życzenia łączą się raczej niż kolidują; ekstrapolowane tak, jak chcielibyśmy, aby były ekstrapolowane, interpretowane tak, jak chcielibyśmy, aby były interpretowane.Przetłumaczono z www.DeepL.com/Translator (wersja darmowa) Yudkovsky Maszyny Wartości superinteligencji moralne – your application to XIII International Thank you for Conference «Theoretical and Applied Ethics: Traditions samochody and Prospects - 2021. Ethics as Research and autonomiczne Profession», Saint-Petersburg University, Russia November 18-20, 2021. We will contact you in the nearest possible time. You are welcome to ask any question at . Regards, Organizing Committee.