magicw März 4, 2016 · bearbeitet März 4, 2016 von magicw Die Oberklassefahrzeuge sind heute bereits in der Lage auf Autobahnen bis 140km/h selbständig zu fahren. Also Tempomat und Abstandsregelautomat laufen auch schon bei Geschwindigkeiten über 140km/h. Ist aber in der Tat kein hochautomatisiertes Fahren so wie Achim schon schrieb. Hier liegt die ethische Frage, auf die ich hinauswollte: Mag jetzt hart klingen aber auf die Ethik kann ich verzichten. Wo willst du denn einen Amokfahrer einordnen, der bewußt falsch fährt und einen Unfall mit Todesfolge verursacht? Grundsätzlich glaube ich auch daran, dass vollautomatisiertes Fahren die Sterblichkeitsrate im Strassenverkehr nochmals signifikant reduzieren wird. Es ist m.E. weniger die Ethik als eher die Haftungsfrage, die hier bei Personenschaden zu kären ist wenn Automaten involviert sind. Diesen Beitrag teilen Link zum Beitrag
Achim März 4, 2016 · bearbeitet März 4, 2016 von Achim Wo willst du denn einen Amokfahrer einordnen, der bewußt falsch fährt und einen Unfall mit Todesfolge verursacht? Grundsätzlich glaube ich auch daran, dass vollautomatisiertes Fahren die Sterblichkeitsrate im Strassenverkehr nochmals signifikant reduzieren wird. Das ist richtig. Technisch ist es sicher in naher Zukunft möglich, Unfallursachen wie überhöhte Geschwindigkeit, Unaufmerksamkeit oder Vorsatz zu eliminieren. Das ist auch gut so, erfordert aber kein komplett autonom agierendes Fahrzeug. Es ist m.E. weniger die Ethik als eher die Haftungsfrage, die hier bei Personenschaden zu kären ist wenn Automaten involviert sind. Nein, eine vollautomatisierte Maschine, welche im Ausnahmefall das unvermeidliche "Opfer" auswählen muss, erfordert eine vorherige Festlegung der Auswahlkriterien. Dies ist mit Sicherheit eine ethische Frage. Oder plakativ formuliert: Welches Leben ist "mehr wert" als das andere? Da eine derartige Entscheidung m.E. weder getroffen noch in eine Maschine implementiert werden darf, glaube ich nicht, dass wir einen vollautomatisierten Autoverkehr erleben werden. Aber vielleicht irre ich mich auch und es gelingt, o.g. Situation auszuschließen. Diesen Beitrag teilen Link zum Beitrag
Zweite Wahl März 5, 2016 · bearbeitet März 5, 2016 von Zweite Wahl Im Schatten der aktuellen Erpressungstrojaner kann man nur hoffen, dass die Autobauer absolut wasserdichte Software basteln. Diesen Beitrag teilen Link zum Beitrag
odenter März 6, 2016 Im Schatten der aktuellen Erpressungstrojaner kann man nur hoffen, dass die Autobauer absolut wasserdichte Software basteln. http://www.t-online.de/computer/sicherheit/id_72703930/bmw-sicherheitsluecke-hacker-knackt-tueren-per-mobilfunk.html http://www.faz.net/aktuell/technik-motor/auto-verkehr/keyless-go-gehackt-autoklau-mit-laptop-14019257.html Eigentlich habe ich einen Artikel gesucht wo in den USA bei einem Auto mit Smartphone der Motor deaktiviert wurde. Diesen Beitrag teilen Link zum Beitrag
LagarMat März 7, 2016 http://www.sueddeutsche.de/digital/waffenexperte-dieser-mann-kaempft-gegen-killerroboter-1.2894559 Auszug: Dieser Mann kämpft gegen KillerroboterUnter Technologie-Optimisten wirkt Stephen Goose immer etwas verloren. Wenn sich die Herolde einer glücklicheren digitalen Zukunft und deren unglaublichen Möglichkeiten treffen, ist er der Spielverderber. Goose ist Waffenexperte bei der Menschenrechtsorganisation Human Rights Watch und oft ein einsamer Mahner. Für seine Organisation leitet er die Kampagne gegen autonome Waffensysteme, kurz Killerroboter. Goose will Killerroboter verbieten lassen und dafür ein Protokoll der UN-Waffenkonvention nutzen, so ähnlich wurden bereits Brandwaffen, Landminen oder Streumunition geächtet. Im April steht eine neue Verhandlungsrunde der Staaten in Genf an. SZ: Mr. Goose, im Nahen Osten bombardieren Kampfflugzeuge Städte, Terroristen enthaupten ihre Opfer. Warum machen Sie sich Sorgen über Killerroboter, die es noch gar nicht gibt? Stephen Goose: Wir sprechen über Waffen der Zukunft, und wir wollen ein präventives Verbot dieser Waffen. Das ist keine verrückte Idee, wir haben es schon einmal getan: Seit 1995 sind blendende Laserwaffen verboten, die Menschen erblinden lassen sollten. Die USA und China besaßen schon Prototypen. Sie hätten eine große Gefahr für Zivilisten dargestellt, auch jede Armee ist besser dran ohne sie. Das trifft auch auf vollautonome Waffensysteme zu. Was ist an ihnen so gefährlich? In hoch entwickelten Armeen gibt es einen Trend zu einer immer größeren Autonomie der Waffen. Algorithmen könnten bald Entscheidungen über Leben und Tod treffen. Es darf nicht so weit kommen, dass wir keine menschliche Kontrolle über einzelne Angriffe haben. Menschen müssen in die wichtigsten Entscheidungen eingebunden sein, vor allem in die, auf wen gezielt und wer getötet wird. Drohnen Kampfroboter Wer entwickelt diese Waffen? Die Plattformen existieren bereits, denken Sie an Drohnen. Diese werden zu Killerrobotern werden, wenn unsere Kampagne keinen Erfolg hat. Der menschliche Pilot wird entfernt, künstliche Intelligenz übernimmt, nach den Luftsystemen sind Bodenwaffen, Boden-zu-Boden-Waffen und Unterwassersysteme dran. Halbautonome Vorläufer existieren schon, dabei können Menschen noch eingreifen und die Computer überstimmen. Die USA haben zum Beispiel das X47B: ein Flugzeug, das ohne menschliche Hilfe von einem Flugzeugträger abheben und landen kann - praktisch das gefährlichste Flugmanöver, das Sie machen können. Wenn das Militär es will, kann es mehrere Tausend Pfund Bomben tragen. Südkorea und Israel haben auf dem Boden Systeme, die automatisch Ziele erkennen und feuern. Ein Mensch trifft zwar die letzte Entscheidung, aber dafür hat er meist nur eine Sekunde. Diesen Beitrag teilen Link zum Beitrag
StinkeBär März 8, 2016 https://www.maxblue.de/investmenttrends/robotik-industrie-4-0.html Unter o.g. Link sind auch Firmen benannt, die ich allerdings nicht kenne. Diesen Beitrag teilen Link zum Beitrag
odenter August 28, 2016 Hier mal wieder was zu dem Thema. http://www.focus.de/finanzen/karriere/berufsleben/experten-schlagen-alarm-roboter-vernichten-millionen-jobs-eine-region-trifft-es-besonders-hart_id_5868381.html Es wird auf eine Erhebung einer Jobsuchmaschine verwiesen sowie auf eine Studie der ING DIba. Gemein ist beiden das behauptet wird es werden mehr Jobs wegfallen als neue Jobs geschaffen werden. Diesen Beitrag teilen Link zum Beitrag
Limit September 6, 2016 Nein, eine vollautomatisierte Maschine, welche im Ausnahmefall das unvermeidliche "Opfer" auswählen muss, erfordert eine vorherige Festlegung der Auswahlkriterien. Diese Wahl muss getroffen werden. Ob die spontane Entscheidung eines Fahrers in einer extremen Stresssituation besser ist als eine auf Wahrscheinlichkeiten und festen Regeln basierte Lösung bezweifle ich. Dies ist mit Sicherheit eine ethische Frage. Oder plakativ formuliert: Welches Leben ist "mehr wert" als das andere? Diese Frage muss nicht zwangsläufig beantwortet werden bzw. kannst du jedem Leben den gleichen Wert zuweisen. In der Hinsicht kann Software sehr viel objektiver sein als es ein Mensch jemals sein könnte. Da eine derartige Entscheidung m.E. weder getroffen noch in eine Maschine implementiert werden darf, glaube ich nicht, dass wir einen vollautomatisierten Autoverkehr erleben werden. Solche Fragen zu beantworten ist schwierig, vor allem weil es keine richtige, sondern nur viele mehr oder weniger falsche Lösungen gibt. Ich kann auch sehr gut verstehen, dass man eine solche Entscheidung nicht einem Computer überlassen will. Allerdings gehe ich auch davon aus, dass ein vollautomatisches System mit entsprechender Programmierung die Gesamtopferzahlen im Straßenverkehr deutlich reduzieren könnte. Diese Entscheidungen dem einzelnen Fahrer zu überlassen war aufgrund fehlender Alternativen bisher Standard. In Zukunft könnte es zumindest rein objektiv betrachtet bessere Lösungen geben. Diese grundsätzlich auszuschließen, weil damit eine riesige Verantwortung verbunden ist, halte ich für falsch. Diesen Beitrag teilen Link zum Beitrag
Achim September 8, 2016 Nein, eine vollautomatisierte Maschine, welche im Ausnahmefall das unvermeidliche "Opfer" auswählen muss, erfordert eine vorherige Festlegung der Auswahlkriterien. Diese Wahl muss getroffen werden. Ob die spontane Entscheidung eines Fahrers in einer extremen Stresssituation besser ist als eine auf Wahrscheinlichkeiten und festen Regeln basierte Lösung bezweifle ich. Wenn "besser" auf die Minimierung von Opferzahlen eines Vorfalls bezogen ist, stimme ich dir zu. Dies ist mit Sicherheit eine ethische Frage. Oder plakativ formuliert: Welches Leben ist "mehr wert" als das andere? Diese Frage muss nicht zwangsläufig beantwortet werden bzw. kannst du jedem Leben den gleichen Wert zuweisen. In der Hinsicht kann Software sehr viel objektiver sein als es ein Mensch jemals sein könnte. Auch dem stimme ich zu. Aber folgendes Beispiel: Du befindest dich alleine in einem Fahrzeug auf einer Bundesstraße. Aus Unaufmerksamkeit, in Selbstmordabsicht oder warum auch immer überquert ein Fußgänger die Fahrbahn, während sich dein Fahrzeug nähert. Die Software, welche dein Auto steuert, erkennt den Konflikt und muss zwischen zwei gleichwertigen Leben entscheiden. Münzwurf. Dein Auto wird im Zuge des Ausweichmanövers gegen einen Baum gesteuert und dein Leben geopfert, das des Fußgängers verschont. Fragen: 1. Wärst du angesichts eines solchen denkbaren Szenarios bereit, dich in ein Fahrzeug zu setzen, welches dich aufgrund des Fehlverhaltens anderer "opfert"? 2. Wie sollen Hinterbliebene damit umgehen, zu wissen, dass ein geliebter Mensch per programmierten Zufallsgenerator zugunsten des Überlebens des Verursachers des Unfalls geopfert wurde? "Schicksal", "göttliche Fügung" oder was auch immer sind meiner Ansicht nach eher akzeptabel als ein "programmiertes Töten". Da eine derartige Entscheidung m.E. weder getroffen noch in eine Maschine implementiert werden darf, glaube ich nicht, dass wir einen vollautomatisierten Autoverkehr erleben werden. Solche Fragen zu beantworten ist schwierig, vor allem weil es keine richtige, sondern nur viele mehr oder weniger falsche Lösungen gibt. Ich kann auch sehr gut verstehen, dass man eine solche Entscheidung nicht einem Computer überlassen will. Allerdings gehe ich auch davon aus, dass ein vollautomatisches System mit entsprechender Programmierung die Gesamtopferzahlen im Straßenverkehr deutlich reduzieren könnte. Diese Entscheidungen dem einzelnen Fahrer zu überlassen war aufgrund fehlender Alternativen bisher Standard. In Zukunft könnte es zumindest rein objektiv betrachtet bessere Lösungen geben. Diese grundsätzlich auszuschließen, weil damit eine riesige Verantwortung verbunden ist, halte ich für falsch. Soweit kann ich auch zustimmen. "Objektiv" betrachtet, also im Sinne der Statistik. sind weniger Opfer immer besser. Ich schließe es allerdings (bei der aktuellen Organisation des Straßenverkehrs) aus, weil ich eine gesellschaftliche Akzeptanz eines oben genannten Szenarios zugunsten einer geringeren Gesamtopferzahl für ausgeschlossen halte. Die Möglichkeiten der Technik zur Unfallvermeidung sind mit Sicherheit sehr ausbaufähig. Ein "selbstentscheidendens" Fahrzeug halte ich allerdings für unrealistisch. Diesen Beitrag teilen Link zum Beitrag
Limit September 8, 2016 [..]Aber folgendes Beispiel: Du befindest dich alleine in einem Fahrzeug auf einer Bundesstraße. Aus Unaufmerksamkeit, in Selbstmordabsicht oder warum auch immer überquert ein Fußgänger die Fahrbahn, während sich dein Fahrzeug nähert. Die Software, welche dein Auto steuert, erkennt den Konflikt und muss zwischen zwei gleichwertigen Leben entscheiden. Münzwurf. Dein Auto wird im Zuge des Ausweichmanövers gegen einen Baum gesteuert und dein Leben geopfert, das des Fußgängers verschont. Fragen: 1. Wärst du angesichts eines solchen denkbaren Szenarios bereit, dich in ein Fahrzeug zu setzen, welches dich aufgrund des Fehlverhaltens anderer "opfert"? 2. Wie sollen Hinterbliebene damit umgehen, zu wissen, dass ein geliebter Mensch per programmierten Zufallsgenerator zugunsten des Überlebens des Verursachers des Unfalls geopfert wurde? "Schicksal", "göttliche Fügung" oder was auch immer sind meiner Ansicht nach eher akzeptabel als ein "programmiertes Töten". zu 1.) Rein subjektiv betrachtet hätte ich damit, wie sicherlich viele andere auch, Bedenken. Allerdings dürfte die Wahrscheinlichkeit bei einem Unfall zu sterben mit einem ausgereiften automatischen System trotz allem niedriger als bei der Selbststeuerung sein. Bei anderen automatisierten Systemen wie z.B. dem Autopilot im Flugzeug hat sich gezeigt, dass der Computer sicherer Arbeit als die allermeisten Piloten, selbst unter schwierigen Situationen wie der Landung auf einem Flugzeugträger bei schwerem Seegang. Wenn sich das auch beim Auto so entwickelt dürften die Leute sich recht schnell daran gewöhnen. zu 2.) Programmierter Zufall wird sehr wahrscheinlich niemals Bestandteil einer solchen Software werden. Aus Sicht des Autoherstellers und der meisten Fahrer dürfte eine Priorisierung der Insassen bevorzugt werden. Auch der Gesetzgeber dürfte keine Einwende haben. Wenn es doch mal dazu kommt, dass die Software den Insassen die niedrigere Priorität gibt, dann sollte das nicht ohne objektiven Grund geschehen. Das selbe Problem hast du aber potentiell auch beim Taxifahren oder bei jedem anderen Verkehrsmittel, bei dem du nicht selbst steuerst. Soweit kann ich auch zustimmen. "Objektiv" betrachtet, also im Sinne der Statistik. sind weniger Opfer immer besser. Ich schließe es allerdings (bei der aktuellen Organisation des Straßenverkehrs) aus, weil ich eine gesellschaftliche Akzeptanz eines oben genannten Szenarios zugunsten einer geringeren Gesamtopferzahl für ausgeschlossen halte.Die Möglichkeiten der Technik zur Unfallvermeidung sind mit Sicherheit sehr ausbaufähig. Ein "selbstentscheidendens" Fahrzeug halte ich allerdings für unrealistisch. Bei einer Umfrage war die Mehrheit der Teilnehmer durchaus für solche Regeln. Dass viele der Teilnehmer bei der zweiten Frage dann aber angaben ein solches Auto eher nicht kaufen zu wollen zeigt wie schwierig die Frage ist. Ich denke, dass es eine Sache ist, an die sich die Menschen gewöhnen werden. Selbst-Entscheidend sind diese Auto auch nicht. Die Entscheidung wird eben nur nicht mehr vom Fahrer zum Zeitpunkt des Unfalls getroffen, sondern durch den Ingenieur zum Zeitpunkt der Softwareentwicklung. Autos, die eigenständige Entscheidungen treffen, z.B. mit Hilfe von "Machine Learning" Algorithmen werden vermutlich nicht erlaubt werden, zumindest nicht für kritische Systeme. Diesen Beitrag teilen Link zum Beitrag
Achim September 8, 2016 [..]Aber folgendes Beispiel: Du befindest dich alleine in einem Fahrzeug auf einer Bundesstraße. Aus Unaufmerksamkeit, in Selbstmordabsicht oder warum auch immer überquert ein Fußgänger die Fahrbahn, während sich dein Fahrzeug nähert. Die Software, welche dein Auto steuert, erkennt den Konflikt und muss zwischen zwei gleichwertigen Leben entscheiden. Münzwurf. Dein Auto wird im Zuge des Ausweichmanövers gegen einen Baum gesteuert und dein Leben geopfert, das des Fußgängers verschont. Fragen: 1. Wärst du angesichts eines solchen denkbaren Szenarios bereit, dich in ein Fahrzeug zu setzen, welches dich aufgrund des Fehlverhaltens anderer "opfert"? 2. Wie sollen Hinterbliebene damit umgehen, zu wissen, dass ein geliebter Mensch per programmierten Zufallsgenerator zugunsten des Überlebens des Verursachers des Unfalls geopfert wurde? "Schicksal", "göttliche Fügung" oder was auch immer sind meiner Ansicht nach eher akzeptabel als ein "programmiertes Töten". zu 1.) Rein subjektiv betrachtet hätte ich damit, wie sicherlich viele andere auch, Bedenken. Allerdings dürfte die Wahrscheinlichkeit bei einem Unfall zu sterben mit einem ausgereiften automatischen System trotz allem niedriger als bei der Selbststeuerung sein. Bei anderen automatisierten Systemen wie z.B. dem Autopilot im Flugzeug hat sich gezeigt, dass der Computer sicherer Arbeit als die allermeisten Piloten, selbst unter schwierigen Situationen wie der Landung auf einem Flugzeugträger bei schwerem Seegang. Wenn sich das auch beim Auto so entwickelt dürften die Leute sich recht schnell daran gewöhnen. Die Wahrscheinlichkeit ist sicher geringer. Die Frage ist, inwiefern ebenfalls der Software-basierte Ausgang des Einzelfalls gesellschaftlich akzeptiert wird. Das Beispiel des Autopiloten bei Flugzeugen geht hier ins Leere, da dieser sicher keine Abwägung zwischen potentiell zu opfernden Leben vornimmt, sondern ausschließlich die Sicherheit der Insassen erhöht. zu 2.) Programmierter Zufall wird sehr wahrscheinlich niemals Bestandteil einer solchen Software werden. Aus Sicht des Autoherstellers und der meisten Fahrer dürfte eine Priorisierung der Insassen bevorzugt werden. Auch der Gesetzgeber dürfte keine Einwende haben. Wenn es doch mal dazu kommt, dass die Software den Insassen die niedrigere Priorität gibt, dann sollte das nicht ohne objektiven Grund geschehen. Das selbe Problem hast du aber potentiell auch beim Taxifahren oder bei jedem anderen Verkehrsmittel, bei dem du nicht selbst steuerst. Hier weichst du dein vorheriges Argument, man müsste einfach nur jedem Leben den gleichen Wert zumessen, auf. Es stellt sich wiederum die Frage, warum das Leben des Insassen des Fahrzeugs schützenswerter ist, als das Leben eines Nicht-Insassens... Soweit kann ich auch zustimmen. "Objektiv" betrachtet, also im Sinne der Statistik. sind weniger Opfer immer besser. Ich schließe es allerdings (bei der aktuellen Organisation des Straßenverkehrs) aus, weil ich eine gesellschaftliche Akzeptanz eines oben genannten Szenarios zugunsten einer geringeren Gesamtopferzahl für ausgeschlossen halte.Die Möglichkeiten der Technik zur Unfallvermeidung sind mit Sicherheit sehr ausbaufähig. Ein "selbstentscheidendens" Fahrzeug halte ich allerdings für unrealistisch. Bei einer Umfrage war die Mehrheit der Teilnehmer durchaus für solche Regeln. Dass viele der Teilnehmer bei der zweiten Frage dann aber angaben ein solches Auto eher nicht kaufen zu wollen zeigt wie schwierig die Frage ist. Ich denke, dass es eine Sache ist, an die sich die Menschen gewöhnen werden. Selbst-Entscheidend sind diese Auto auch nicht. Die Entscheidung wird eben nur nicht mehr vom Fahrer zum Zeitpunkt des Unfalls getroffen, sondern durch den Ingenieur zum Zeitpunkt der Softwareentwicklung. Autos, die eigenständige Entscheidungen treffen, z.B. mit Hilfe von "Machine Learning" Algorithmen werden vermutlich nicht erlaubt werden, zumindest nicht für kritische Systeme. Eine Gewöhnung wird m.E. bereits durch die Schwierigkeit der Festlegung von Handlungsanweisungen an die Software verhindert. Es wird keinen allgemeinen Konsens diesbezüglich geben, weil die ethische Frage, wie und ob Menschenleben gegeneinander abgewogen werden dürfen und dann diese Abwägung einer Software übertragen werden kann, nicht abschließend bzw. allgemeingültig zu beantworten ist. Diesen Beitrag teilen Link zum Beitrag
lswfma September 8, 2016 ...Selbst-Entscheidend sind diese Auto auch nicht. Die Entscheidung wird eben nur nicht mehr vom Fahrer zum Zeitpunkt des Unfalls getroffen, sondern durch den Ingenieur zum Zeitpunkt der Softwareentwicklung. Autos, die eigenständige Entscheidungen treffen, z.B. mit Hilfe von "Machine Learning" Algorithmen werden vermutlich nicht erlaubt werden, zumindest nicht für kritische Systeme. Auch das muss nicht sein. Ein Fahrer kann eine Vorgabe definieren, für jede oder die aktuelle Fahrt. Z.B. "Ich will um jeden Preis überleben...". Im Falle eines Unfalls steht dann vor Gericht die Frage der Mitverantwortung im Raum. Welche Konsequenzen könnte/sollte solch eine Vorgabe rechtlich haben? In jedem Fahrzeug können eine Vielzahl Strategien gespeichert sein, wer fährt wählt -vor der Fahrt-.... Im Prinzip haben wir das bereits jetzt, wer fährt wählt im Moment der Entscheidung, in der Situation. Diesen Beitrag teilen Link zum Beitrag
Maikel September 9, 2016 Aus Sicht des Autoherstellers und der meisten Fahrer dürfte eine Priorisierung der Insassen bevorzugt werden. Auch der Gesetzgeber dürfte keine Einwende haben. Bzgl. des Gesetzgebers habe ich erhebliche Zweifel; schließlich sind heutzutage die Autofahrer die "Bösen", die mit einem potentiell gefährlichen Geschoß unterwegs sind. Ich sehe aber auch einen sachlichen Grund dafür, daß das Auto eher dem fremden Fußgänger ausweicht: Die Insassen des Autos sind nämlich dank Knautschzone, Gurt und Airbags wesentlich besser geschützt als der Fußgänger, so daß das Risiko von (schweren) Verletzungen für sie geringer ist. Bei einer Umfrage war die Mehrheit der Teilnehmer durchaus für solche Regeln. Dass viele der Teilnehmer bei der zweiten Frage dann aber angaben ein solches Auto eher nicht kaufen zu wollen zeigt wie schwierig die Frage ist. Ich denke, dass es eine Sache ist, an die sich die Menschen gewöhnen werden. Ja, die Frage ist schwierig; aber wir Menschen neigen dazu, seltene Risiken zu verdrängen. Wenn ich mich gleich aufs Fahrrad setze, statt mit dem Auto zu fahren, dann ist das Risiko, daß mir dabei etwas passiert, objektiv höher; trotzdem fahre ich mit dem Rad, und nicht aus Umweltschutzgründen. Diesen Beitrag teilen Link zum Beitrag
DarkBasti September 9, 2016 Wenn Stammtischphilosophen über Programmieren reden, kann man die Hände über den Kopf schlagen. Es muss sich ja nicht die Frage stellen, ob jemand geopfert wird. So etwas würde kein Programmierer implementieren. Es ist doch viel viel leichter in solch einem Fall zu bremsen. Das sollte für keinen Programmierer ein Problem darstellen. Man muss sich vorher Gedanken machen wie man den Schaden am besten minimiert und da ist bremsen bedeutend einfacher als irgendwelche Lenkmanöver oder Philosophische Entscheidungen treffen zu wollen. Bei der Thematik mit dem Zufallsgenerator ist mir eingefallen wie manche in Berlin fahren. Die würfeln vor jeder Abbiegung wahrscheinlich erst einmal bevor sie sich entscheiden wohin sie fahren. @ Achim Zu der Idee mit den definierten Vorgaben, willst du da ein Suizidmodus programmieren lassen oder was soll der Blödsinn? Diesen Beitrag teilen Link zum Beitrag
Maikel September 9, 2016 Es muss sich ja nicht die Frage stellen, ob jemand geopfert wird. So etwas würde kein Programmierer implementieren. Es ist doch viel viel leichter in solch einem Fall zu bremsen. Wenn Programmierer sich die Welt schön einfach reden ... dann haben die Benutzer später das Problem. Nach dem Motto: Nein, dieser Fall kann gar nicht eintreten, da brauche ich mir nicht die Mühe zu machen, dafür eine Sicherheits-Routine zu entwickeln. Zur Not kann ich eine Meldung einbauen: "Unbekannter Fehler"; und wenn sich genügend Leute darüber beschwert haben, mach ich eben ein Update auf die Version beta 0.2. Ist doch ganz einfach einzuspielen. Es ging doch gerade um einen, meinetwegen konstruierten, Fall, daß ein Fußgänger plötzlich und unerwartet auf die Bundesstraße tritt. Da sollte auch ein AutoAuto mit etwa 100 km/h unterwegs sein, und hat einen Bremsweg von mindestens 30 Metern. Solange das AutoAuto nicht hellsehen kann, können also Situationen auftreten, die mit einfachem Bremsen nicht abgefangen werden können. Es ist sicherlich so, daß ein AutoAuto aufgrund der schnelleren Reaktion öfter solche und ähnliche Unfälle vermeiden kann, aber nicht immer. BTW: Ich bin selbst Software-Entwickler. Diesen Beitrag teilen Link zum Beitrag
Ramstein September 9, 2016 Es muss sich ja nicht die Frage stellen, ob jemand geopfert wird. So etwas würde kein Programmierer implementieren. Es ging doch gerade um einen, meinetwegen konstruierten, Fall, daß ein Fußgänger plötzlich und unerwartet auf die Bundesstraße tritt. Da sollte auch ein AutoAuto mit etwa 100 km/h unterwegs sein, und hat einen Bremsweg von mindestens 30 Metern. Solange das AutoAuto nicht hellsehen kann, können also Situationen auftreten, die mit einfachem Bremsen nicht abgefangen werden können. Gute Güte; Naivität ist aber weit verbreitet. Natürlich sagt man nicht, ein Mensch läuft auf die Fahrbahn und "soll überfahren werden", sondern es ist Hund, Kuh, oder Strauss. Schon vor Jahrzehnten, als ein Kollege Bedenken hatte, Software für die Sichtsimulation eines Panzerfahrers zu schreiben, hiess es: "Dann denken Sie, Sie fahren einen VW auf der Autobahn". Diesen Beitrag teilen Link zum Beitrag
DarkBasti September 9, 2016 Auch bei Kuh, Strauß und Elefant muss man bremsen. Das ist nicht naiv sondern realitätsnah. Oder ist dir die Kuh heilig, dass du lieber dein Auto in den nächsten Baum lenkst? Leute macht den Führerschein, bevor ihr über Dinge Philosophiert die ihr nicht versteht! Mal Programmieren für Anfänger: Wenn etwas im Weg Dann Bremse Wenn nicht Dann fahr weiter Ende Wenn So den Pseudocode patentiere ich mir und werde steinreich Diesen Beitrag teilen Link zum Beitrag
WOVA1 September 9, 2016 Mal Programmieren für Anfänger: Wenn etwas im Weg Dann Bremse Wenn nicht Dann fahr weiter Ende Wenn So den Pseudocode patentiere ich mir und werde steinreich Klasse . Mit drei bis vier Stoffmäusen wäre die Autobahn dicht. Diesen Beitrag teilen Link zum Beitrag
Musterboo September 9, 2016 Einem Elefant würde mein Auto vermutlich dann in Zukunft ausweichen, bei einer Kuh oder einem Strauss besteht die reale Chance, dass sich mein Auto mit dem Kühlschrank synchronisiert hat und anhand meiner vorher getätigten Einkaufslist drauf hält ..... Sie haben ihr Ziel erreicht. Aber spaß bei Seite! Ich würde das Szenario von Achim sogar noch etwas verschärfen. Man sitzt im Auto und aus welchen gründen auch immer, rennt das eigene Kind vors Auto Nun hat man die Chance in den LKW im Gegenverkehr zu steuern mit der Hoffnung es zu überleben oder das eigene Kind umzusebeln. Diese Entscheidung einer Maschine zu überlassen halte ich für äußerst bedenklich. Diesen Beitrag teilen Link zum Beitrag
Schwachzocker September 9, 2016 ... Diese Entscheidung einer Maschine zu überlassen halte ich für äußerst bedenklich. Es wird auch in Zukunft keine Maschine geben, die den Menschen die Eigenverantwortung abnimmt, auch dann nicht wenn man es noch so gern hätte. Diesen Beitrag teilen Link zum Beitrag
Maikel September 9, 2016 Mal Programmieren für Anfänger: Das wär schlimm, wenn die Software für AutoAutos von Anfängern geschrieben würde! Diesen Beitrag teilen Link zum Beitrag
Achim September 9, 2016 Wenn Stammtischphilosophen über Programmieren reden, kann man die Hände über den Kopf schlagen. Es muss sich ja nicht die Frage stellen, ob jemand geopfert wird. So etwas würde kein Programmierer implementieren. Es ist doch viel viel leichter in solch einem Fall zu bremsen. Das sollte für keinen Programmierer ein Problem darstellen. Man muss sich vorher Gedanken machen wie man den Schaden am besten minimiert und da ist bremsen bedeutend einfacher als irgendwelche Lenkmanöver oder Philosophische Entscheidungen treffen zu wollen. Nein, der Gedanke, dass ein selbstfahrendes Auto auch bremsen kann, ist mir nicht gekommen. Ich nahm bisher immer ein mit Vollgas vor sich hin bretterndes und wild ausweichendes Fahrzeug an. Natürlich stellt ich die Frage des Abwägen von Opfern nur in Situationen, in denen ein Todesopfer unvermeidich ist. Ich würde sagen, Thema verfehlt. @ Achim Zu der Idee mit den definierten Vorgaben, willst du da ein Suizidmodus programmieren lassen oder was soll der Blödsinn? Die Frage kann ich dir nicht beantworten, da du dich offensichtlich auf einen nicht von mir stammenden Beitrag beziehst. Diesen Beitrag teilen Link zum Beitrag
schmidtl September 9, 2016 Ich hätte auch noch zwei Lösungsvorschläge. 1) wir wägen Menschenleben gegeneinander ab. Das ist leicht, durch Knhaltsanalyse von Presseartikeln. Da steht zum Beispkel "Bei einem Unglück gab es viele tote, darunter mehrere Frauen und tragischerweise genau zwei Kinder" Daraus folgt, offensichtlich, das die Wertigkeit Kind > Frau > Rest gilt. Im Moment, und in unserem Kulturkreis. In Asken sieht das schon ganz anders aus, im arabischen Raum auch, Big Data sei dank kann das Auto hier adaptieren. 2) Alternative. Ein Auto hat zu jeder Zeit einen Impuls (Richtungsvektor, Geschwindigkeit) An dem Impuls wird NUR DANN was geändert, wenn durch die Änderung niemand zu Schaden kommt. Falls jemand zu Schaden kommen könnte, bleibt der Impuls unverändert, die Konsequenzen daraus werden nicht beachtet. Aber ganz ehrlich, die Diskussion ist müßig, und typisch Deutsch. Ziel ist es doch nicht, Opfer zu vermeiden, sondern die Zahl der Opfer gegenüber dem Status quo zu verringern. Diesen Beitrag teilen Link zum Beitrag
WOVA1 September 10, 2016 Aber ganz ehrlich, die Diskussion ist müßig, und typisch Deutsch. Ziel ist es doch nicht, Opfer zu vermeiden, sondern die Zahl der Opfer gegenüber dem Status quo zu verringern. Typisch Deutsch ? Wohl kaum, siehe MIT: Why Self-Driving Cars Must Be Programmed to Kill Diesen Beitrag teilen Link zum Beitrag
DarkBasti September 12, 2016 Der Sensor muss natürlich unter der Philosophischen Prämisse erkennen, dass es sich um Kinder im Wagen handelt. Kann ja nicht sein, das ein Zwerg weiter leben darf weil er für ein Kind gehalten wurde. Bei allen unter, mmmh sagen wir 1,70 wird nicht gebremst, sondern es wird todesmutig, je nach Gelände gegen in den nächsten Baum oder in das nächste Auto gesteuert. Alle über 1,70 werden ohne zu bremsen überfahren. Kann ja nicht sein, das es zu Staus kommt nur weil jemand auf der Straße steht. Diesen Beitrag teilen Link zum Beitrag