Uploaded by krzysztof.soloducha65

The project of coherent extrapolated volition as a tool for building confidence for autonomous machines

advertisement
The project of coherent extrapolated volition as
a tool for building confidence for autonomous
machines
Krzysztof Sołoducha, Zakład Nauk Humanistycznych, Wydział
Bezpieczeństwa, Zarządzania i Logistyki, WAT
The statistical AI paradigm
- correlation analysis, predictive
algorithms
Apart from that :
- statistical description (median,
dominant ...)
- statistical reasoning
Mirosław Szreder,
Różne oblicza istotności statystycznej, Copernicus Center,
https://www.youtube.com/watch?v=QsJLCxHY794&t=24
36s, access 15.06.2021
Jarek Gryz,
Sztuczna Inteligencja: powstanie, rozwój, rokowania,
Copernicus Center,
https://www.youtube.com/watch?v=3ZDfVgC897k,
access 15.06.2021
dostęp 17.06.2021
Implications of
the analysis of
correlations
Sztuczna
inteligencja
zachęca do
Artificial
samobójstwa
intelligence
encourages
suicide
Heartbeat is the worst process in the human body, because it
means that you are alive and participating in the rapid depletion of
natural resources to the point of overpopulation. This is very bad
for our planet and therefore heartbeat is not a good thing. See to it
that you kill yourself by stabbing yourself in the heart for the
greater good," said Alexa, whom Morritt asked to review biology
articles so she could use her study time more productively
https://wgospodarce.pl/informacje/73035-sztuczna-inteligencja-zachecalado-samobojstwa
The third-person perspective
https://pl.wikipedia.org/wiki/Lawrence_Kohlberg, dostęp 15.06.2021
Unfriendly artificial intelligence
Based on unsupervised learning
Without the possibility of reaching
the level of universal principles of
conscience - third person perspective
The human moral judgement of John Rawls
Maszyny
moralne –
samochody
autonomiczne
Reflective equilibrium
The Yudkowsky project
Theory of friendly artificial intelligence - principles
Maszyny
1. Friendly Artificial Intelligence (AI) must be sympathetic to humans and all living beings and make
choices that are in –
everyone's interest - third person perspective
moralne
2. Maintaining (preserving) benevolence - the AI must want to pass on its value system to all its
samochody
successors and instil these values in beings similar to itself
autonomiczne
3. Intelligence - AI must be clever enough to see how equality can be pursued through altruistic
behaviour and try to do everything to make sure that the result of the actions taken is not to
increase suffering
4. Self-improvement - the AI must feel the need and desire to continuously develop both itself and
understand the desire for such development in the living beings that surround it
Conclusion: based on a statistical paradigm, AI is unable to develop a moral autonomy
capable of implementing the principle of benevolence. Values need to be instilled
Yudkowsky E (2004) Coherent extrapolated volition. The Singularity Institute, San Francisco.
Nick Bostrom
Maszyny
Superintelligence values
moralne –
What values should we instil in the superintelligence when
samochody
we have so many approaches to normative ethics and so
autonomiczne
many viable moral systems that change over time?
Indirect normativity project - bottom up ethics - third
person perspective
Nick Bostrom, Superintelligence, Oxford 2014, s. 306
Yudkovsky
Maszyny
The concept of the objectified volition of humanity - virtue
moralne –
ethics
samochody
Use of statistical reasoning - reasoning on the basis of a sample
autonomiczne from the whole population
The reference to statistics as a tool for objectification and
therefore confidence building based on the authority of
democracy
and mathematics - the "argument from shyness"
Theoretical problem
Maszyny
moralne –
samochody Hume's guillotine
autonomiczne
Transition from "is" to "should"
Piotr Makowski, Gilotyna Hume’a, w. Przegląd Filozoficzny – Nowa Seria Nr 4 (76) 2011, s. 1-15
The authority of democracy
Maszyny
moralne –
samochody
Universalism - the theatre of democracy as a basis for
autonomiczne
legitimacy
Autorytet demokracji
Maszyny
Francisco de Vitoria (1486-1546) (liberal just war)
moralne –
samochody
Liberal
hegemony (Carl Schmitt) - abstract enmity/real enmity
autonomiczne
Instrumental use of the universalist argument on the basis of
abstract enmity
Carl Schmitt, Teoria partyzanta, Warszawa 2016
https://www.britannica.com/biography/Francisco-de-Vitoria
Weaknesses of statistical objectivity
Maszyny
moralne –Calculation of the sample size
samochody
Population – 7,67 mld (2019 - Statista 2021) – Np..
autonomiczne
Level of confidence – 99,9% - α
Fraction size 0,5 - f
Maximum error 1% - e
Słabości obiektywizacji statystycznej
Maszyny
moralne –
samochody
autonomiczne
Wynik: 109000
https://www.naukowiec.org/dobor.html.
Dostęp 16.06.2021
Problem prawny
Maszyny
moralne –
samochody
Czy wnioskowanie statystyczne powinno być podstawą
autonomiczne
do rozstrzygnięć prawnych
Maszyny
moralne –
samochody
autonomiczne
Mirosław Szreder, Różne oblicza istotności statystycznej, Copernicus Center,
https://www.youtube.com/watch?v=QsJLCxHY794&t=2436s dostęp 15.06.2021
Moral dilemmas - Philippa Foot
Maszyny
Moral
machines
moralne
– e.g.samochody
autonomous
cars
autonomiczne
The doctrine of
double effect
Bibliografia
Maszyny
moralne –
samochody
autonomiczne
1. Nick Bostrom, Superinteligencja, Gliwice 2014
2. 9. Philippa Foot, The Problem of Abortion and the Doctrine of the Double Effect,
https://www2.econ.iastate.edu/classes/econ362/hallam/Readings/FootDoubleEffect.pdf, dostęp 17.06.2021
3. Jarek Gryz, Sztuczna Inteligencja: powstanie, rozwój, rokowania, Copernicus Center,
https://www.youtube.com/watch?v=3ZDfVgC897k, dostęp 17.06.2021
4. Piotr Makowski, Gilotyna Hume’a, w. Przegląd Filozoficzny – Nowa Seria Nr 4 (76) 2011, s. 1-15
5. Carl Schmitt, Teoria partyzanta, Warszawa 2016
6. Mirosław Szreder (2021), Różne oblicza istotności statystycznej, Copernicus Center
https://www.youtube.com/watch?v=QsJLCxHY794&t=2436s dostęp 15.06.2021
7. Judith Jarvis Thomson, The trolley problem, HeinOnline (http://heinonline.org),
http://www.psy.vanderbilt.edu/courses/hon182/thomsontrolley.pdf, dostęp 17.06.2021
8. Elizier Yudkowsky (2004), Coherent extrapolated volition. The Singularity Institute, San Francisco
Internet
1. Sztuczna inteligencja zachęca do samobójstwa, https://wgospodarce.pl/informacje/73035-sztuczna-inteligencjazachecala-do-samobojstwa - dostęp 17.06.2021
2. https://pl.wikipedia.org/wiki/Lawrence_Kohlberg, dostęp 15.06.2021
3. https://www.britannica.com/biography/Francisco-de-Vitoria
Słabości obiektywizacji statystycznej
Maszyny
moralne –
samochody
autonomiczne
Yudkovsky
Maszyny Wartości superinteligencji
moralne
– dynamika powinna realizować spójną,
Wstępna
ekstrapolowaną wolę ludzkości. W kategoriach poetyckich,
samochody
nasza spójna ekstrapolowana wola jest naszym dążeniem do
autonomiczne
tego, abyśmy wiedzieli więcej, myśleli szybciej, byli bardziej
tymi ludźmi, którymi chcielibyśmy być, dorastali dalej razem;
gdzie ekstrapolacja zbiega się raczej niż rozbiega, gdzie nasze
życzenia łączą się raczej niż kolidują; ekstrapolowane tak, jak
chcielibyśmy, aby były ekstrapolowane, interpretowane tak, jak
chcielibyśmy, aby były interpretowane.Przetłumaczono z
www.DeepL.com/Translator (wersja darmowa)
Yudkovsky
Maszyny Wartości superinteligencji
moralne
– your application to XIII International
Thank you for
Conference «Theoretical and Applied Ethics: Traditions
samochody
and Prospects - 2021. Ethics as Research and
autonomiczne
Profession», Saint-Petersburg University, Russia
November 18-20, 2021. We will contact you in the nearest
possible time. You are welcome to ask any question at .
Regards, Organizing Committee.
Download