Ein langer Bericht über künstliche Intelligenz: 15.000 Wörter, um Ihnen zu sagen, wo die Probleme mit künstlicher Intelligenz liegen

Ein langer Bericht über künstliche Intelligenz: 15.000 Wörter, um Ihnen zu sagen, wo die Probleme mit künstlicher Intelligenz liegen

Vorwort

Künstliche Intelligenz (KI) ist eine Sammlung von Technologien, darunter maschinelles Lernen, logisches Denken, Wahrnehmung und Verarbeitung natürlicher Sprache. Das Konzept und die Anwendung künstlicher Intelligenz begannen vor 65 Jahren, aber die jüngsten Fortschritte und Anwendungen der KI haben diese Technologie wieder zu einem heißen Thema gemacht. Da KI in allen Bereichen des sozialen und wirtschaftlichen Lebens der Menschen immer stärker zum Einsatz kommt, ergeben sich neue Chancen und Herausforderungen. Ihre enormen potenziellen Auswirkungen zwingen die Menschen dazu, sorgfältig über die Entwicklung und Anwendung von KI-Technologie nachzudenken.

Der im Juli dieses Jahres abgehaltene „AI Now“-Workshop war der letzte einer Reihe von Studien, die gemeinsam vom Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses und dem Nationalen Wirtschaftsrat gefördert wurden. In einer Reihe früherer Studien wurde KI aus unterschiedlichen Perspektiven analysiert und untersucht, von Richtlinien und Vorschriften über KI-Sicherheitskontrolle bis hin zum öffentlichen Wohl durch KI und der Frage, wie das Potenzial von KI ausgeschöpft werden kann. Dieses Mal befasst sich „AI Now“ hauptsächlich mit den Auswirkungen der KI im sozialen und wirtschaftlichen Bereich im nächsten Jahrzehnt. Experten und Wissenschaftler aus verschiedenen Bereichen aus der ganzen Welt kamen zusammen, um ihre Ansichten darzulegen. Zu den diskutierten Fragen gehören: Welche Probleme sind durch die rasante Entwicklung der KI in diesem Stadium entstanden? Wie können wir KI besser verstehen und nutzen, um eine fairere und gerechtere Zukunft zu schaffen?

Es gibt unzählige soziale und wirtschaftliche Probleme. In diesem „AI Now“ werden hauptsächlich die Grundsätze „medizinische Versorgung“, „Arbeitsbeschäftigung“, „KI-Fairness“ und „KI-Ethik“ erörtert.

Der Grund, warum „medizinische Versorgung“ und „Arbeitsbeschäftigung“ als Hauptthemen gewählt wurden, liegt darin, dass die KI in diesen beiden Bereichen bereits weit vorgedrungen ist und die Probleme, die KI mit sich bringen kann, in diesen beiden Bereichen ausgeprägter und offensichtlicher sind. „KI-Fairness“ und „KI-Ethik“ sind Themen, die in Zukunft jeden beschäftigen werden: Wird KI zum Weltfrieden beitragen oder wird sie soziale Ungerechtigkeit verschärfen? Und wie kann sichergestellt werden, dass die Vorteile der KI der gesamten Menschheit zugute kommen?

Ziel des Seminars ist es, der menschlichen Gesellschaft einen größeren Nutzen aus KI zu verschaffen. Da dieses „AI Now“-Seminar zahlreiche Experten und Wissenschaftler zu Diskussionen zusammenbringt, hat es sowohl innerhalb als auch außerhalb der Künstliche-Intelligenz-Community eine erhebliche Bedeutung.

Fragen und Anregungen

Das Seminar prognostizierte mögliche Situationen, die durch KI in der Zukunft entstehen könnten und gab entsprechende Vorschläge. Es sollte darauf hingewiesen werden, dass die folgenden Vorschläge das Ergebnis der Weisheit aller Teilnehmer sind und nicht die Position einer Einzelperson oder Organisation darstellen.

Da KI zunehmend in allen Aspekten des gesellschaftlichen und wirtschaftlichen Lebens zum Einsatz kommt, können die folgenden Fragen und die entsprechenden Vorschläge als Leitfaden für Investoren und Praktiker in verwandten Bereichen dienen.

1. Problem: Die Entwicklung und Anwendung von KI ist auf spezifische Infrastruktur sowie personelle und materielle Ressourcen angewiesen. Der Mangel an diesen grundlegenden Ressourcen wird die Entwicklung der KI zweifellos einschränken, und die Beherrschung dieser Infrastrukturen und Ressourcen wird in den frühen Phasen der KI-Entwicklung von entscheidender Bedeutung sein.

Empfehlung: Verbessern Sie die Ressourcenbasis für die Entwicklung von KI aus mehreren Kanälen. Konzentrieren Sie sich auf den Aufbau unterstützender Bereiche wie Datensätze, Computer und die damit verbundene Talentausbildung und -schulung.

2. Frage: Obwohl sich der aktuelle Stand der KI noch in einem frühen Stadium befindet, existiert KI bereits als künstlicher Assistent in vielen Bereichen und hat Auswirkungen auf die Arbeitsbeziehungen. Jason Furman, Vorsitzender des Wirtschaftsbeirats von Obama, sagte, dass gering qualifizierte Handarbeit die Arbeit sei, die am ehesten durch KI und automatisierte Maschinen ersetzt werde. Wenn Roboter beginnen, mit Menschen um Arbeitsplätze zu konkurrieren, wird sich auch die Verteilung der menschlichen Ressourcen ändern.

Empfehlung: Aktualisieren Sie Ihr Denken und Ihre Fähigkeiten, um mit den Veränderungen der Beschäftigungsstruktur fertig zu werden, die durch den Einsatz von KI entstehen. In Zukunft werden KI-Maschinen die überwiegende Mehrheit der gering qualifizierten Arbeitsplätze übernehmen und die Menschen werden ihre Qualifikationsreserven sowie ihre Einkommens- und Ausgabengewohnheiten anpassen müssen, um mit der neuen Situation zurechtzukommen.

3. Problem: KI- und Automatisierungsprozesse finden meist im Hintergrund und außerhalb des Sichtfelds statt. Ohne menschliches Eingreifen können Maschinen unfaire oder unangemessene Entscheidungen treffen. Da KI-Anwendungen weiter zunehmen, werden KI-Beurteilungen und -Korrekturen immer wichtiger und schwieriger.

Empfehlung: Die Unterstützung der Forschung zur KI-Kalibrierung und zu Errata sowie Verfahren zur Bewertung des KI-Fehlerrisikos sollten ebenfalls auf die Tagesordnung gesetzt werden. Diese Studien sollten parallel zur rasanten Weiterentwicklung der KI durchgeführt werden, ebenso wie die Gerechtigkeit im menschlichen System mit der Verwaltung zusammenhängt. So können Fehler der KI rechtzeitig erkannt und schwerwiegende Folgen vermieden werden.

4. Problem: Die Forschung zur Fairness und Rechenschaftspflicht öffentlicher und privater Institutionen im KI-Modell scheint im Widerspruch zu einigen aktuellen US-Gesetzen zu stehen, etwa dem Computer Fraud and Abuse Act (CFAA) und dem Digital Millennium Copyright Act (DMCA).

Empfehlung: Um es klar zu sagen: Weder der Computer Fraud and Abuse Act noch der Digital Millennium Copyright Act schränken die Forschung ein.

5. Frage: Obwohl KI in vielen Bereichen wie der Medizin und der Arbeitswelt in rasantem Tempo eingesetzt wird, gibt es derzeit keine anerkannte Möglichkeit für Menschen, die Auswirkungen von KI zu bewerten .

Empfehlung: Unterstützen Sie die Forschung zu Systemen zur Folgenabschätzung bei KI. Darüber hinaus sollte die Forschung auf diesem Gebiet in enger Zusammenarbeit mit staatlichen Stellen durchgeführt werden, damit die Ergebnisse von der staatlichen Verwaltung genutzt werden können.

6. Problem: Die Stimmen derjenigen, deren Rechte und Interessen durch den Einsatz von KI verletzt werden, werden oft ignoriert .

Empfehlung: Beim Aufbau von KI-Systemen sollte die Meinung der Betroffenen gehört werden. Um Ungerechtigkeiten oder zu radikale Entwicklungen zu vermeiden, sollte die KI von allen Beteiligten gemeinsam entwickelt werden.

7. Problem: Die KI-Forschung konzentriert sich hauptsächlich auf elektronische Technologien und schenkt menschlichen Belangen oft nicht genügend Aufmerksamkeit. In Zukunft werden die Mitglieder der Informatik immer homogener und einheitlicher, was sich nachteilig auf die Vision und Erfahrung der KI-Entwickler auswirken und wiederum die Entwicklung von KI-Produkten beeinträchtigen wird.

Empfehlung: KI-Forscher und -Entwickler sollten so vielfältig wie möglich sein. Die Vielfalt und der Pluralismus der Entwickler werden auch reichhaltigere und farbenfrohere KI-Produkte hervorbringen. In Zukunft sollte der KI-Bereich mehr interdisziplinäre Forschung unterstützen, damit KI-Systeme elektronisches Rechnen sowie Sozial- und Geisteswissenschaften integrieren können.

8. Problem: Bestehende ethische Standards werden der Komplexität der Probleme, mit denen KI in der Realität konfrontiert ist, nicht mehr gerecht . (Beispielsweise in der medizinischen Versorgung, der Strafverfolgung, der Strafjustiz, im Arbeitsrecht usw.) Gleichzeitig wird in den Informatikkursen an Universitäten zwar allmählich begonnen, der moralischen Erziehung Beachtung zu schenken, diese wird jedoch in der Praxis nicht gründlich umgesetzt.

Empfehlung: Arbeiten Sie mit Berufsverbänden wie der Association for Artificial Intelligence (AAAI), der Association for Computing Machinery (ACM) und dem Institute of Electrical and Electronics Engineers (IEEE) zusammen, um die Entwicklung ethischer Standards zu fördern, die neuen Situationen gerecht werden. Gleichzeitig sollten diese neuen ethischen Standards im Schulunterricht umgesetzt werden. Jeder Student, der sich für Informatik interessiert, sollte zusätzlich zu den berufsbezogenen Kursen eine moralische Ausbildung zu Bürgerrechten, Freiheiten usw. erhalten. Dementsprechend sollten sich auch Praktiker, die in Bereichen arbeiten, in denen KI Einzug gehalten hat (wie etwa im medizinischen Bereich), dieser neuen ethischen Standards bewusst sein.

Vier zentrale Fragen zur Künstlichen Intelligenz heute

Wir werden nun vier zentrale aktuelle Themen rund um KI genauer unter die Lupe nehmen und den Lesern die Möglichkeit geben, Einblicke und Ratschläge von Branchenexperten zu erhalten. Die Diskussion umfasst Herausforderungen, Chancen und mögliche Interventionen für jedes Schlüsselproblem.

  1. Soziale Ungerechtigkeit

Wie verursachen künstliche Intelligenzsysteme soziale Ungerechtigkeiten wie Voreingenommenheit und Diskriminierung?

Künstliche Intelligenzsysteme spielen in wichtigen Entscheidungsbereichen eine immer wichtigere Rolle – von Krediten und Versicherungen bis hin zu Entscheidungen Dritter und Bewährungsfragen. Künstliche Intelligenz wird den Menschen bei der Entscheidung ersetzen, wer wichtige Chancen erhält und wer im Stich gelassen wird. Dies wird eine Reihe von Fragen hinsichtlich Rechten, Freiheit und sozialer Gerechtigkeit aufwerfen.

Manche Menschen sind davon überzeugt, dass der Einsatz künstlicher Intelligenzsysteme dazu beitragen kann, eine Reihe von Problemen zu überwinden, die durch subjektive menschliche Vorurteile verursacht werden. Andere wiederum befürchten, dass künstliche Intelligenzsysteme diese Vorurteile verstärken und die Chancenungleichheit weiter vergrößern.

In dieser Diskussion werden Daten eine entscheidende Rolle spielen und die große Aufmerksamkeit der Menschen erregen. Die Funktionsweise eines künstlichen Intelligenzsystems hängt häufig von den Daten ab, die es erhält, und ist zugleich eine intuitive Widerspiegelung dieser Daten. Hierzu gehören auch die Quellen dieser Daten und die Verzerrungen im Erhebungsprozess. Aus dieser Perspektive ist der Einfluss künstlicher Intelligenz eng mit der entsprechenden Big-Data-Technologie verbunden.

Im Großen und Ganzen gibt es zwei Formen der Datenverzerrung.

Der erste Grund besteht darin, dass die erhobenen Daten die tatsächliche Situation objektiv nicht genau widerspiegeln können (hauptsächlich aufgrund ungenauer Messmethoden, unvollständiger oder zu einseitiger Datenerhebung, nicht standardisierter Selbsteinschätzung und anderer Mängel im Datenerhebungsprozess).

Der zweite Grund besteht darin, dass es bei der Datenerhebung zu einer subjektiven strukturellen Verzerrung kommt (beispielsweise durch die gezielte Vorhersage von Karriereerfolgsquoten, indem bei der Erhebung von Karrieredaten Jungen gegenüber Mädchen subjektiv bevorzugt werden).

Die erste Art der Datenverzerrung kann durch eine „Bereinigung der Daten“ oder eine Verbesserung des Datenerfassungsprozesses gelöst werden. Letzteres erfordert jedoch komplexe menschliche Eingriffe. Es ist erwähnenswert, dass zwar viele Organisationen viel Arbeit in die Lösung dieses Problems gesteckt haben, es jedoch immer noch keinen Konsens darüber gibt, wie man Datenverzerrungen „erkennt“.

Wenn die gesammelten Daten die oben genannten Abweichungen aufweisen, wird auch das mit diesen Daten trainierte künstliche Intelligenzsystem entsprechende Abweichungen aufweisen und das von ihm erstellte Modell oder die Ergebnisse werden diese Abweichungen zwangsläufig replizieren und verstärken. In diesem Fall werden die Entscheidungen des KI-Systems unterschiedliche Auswirkungen haben und zu sozialer Ungerechtigkeit führen. Und diese Ungerechtigkeit ist viel subtiler als menschliche Vorurteile und Ungerechtigkeit.

In Branchen, in denen die Risikokontrolle im Vordergrund steht, hat die weitverbreitete Anwendung künstlicher Intelligenzsysteme zu einer deutlichen Zunahme von Phänomenen wie der entfremdeten Behandlung von Menschen aufgrund subtiler Unterschiede geführt, insbesondere in der Versicherungsbranche und anderen Bereichen der sozialen Sicherheit. Durch den Einsatz künstlicher Intelligenzsysteme können Unternehmen durch „Reverse Selection“ gezielter bestimmte Gruppen und Einzelpersonen identifizieren und so Risiken effektiver vermeiden.

Im Bereich der Krankenversicherung beispielsweise werden Systeme künstlicher Intelligenz die Merkmale und das Leistungsverhalten von Versicherungsnehmern analysieren und denjenigen, bei denen besondere Krankheiten festgestellt werden oder die in Zukunft häufig auftreten, höhere Prämien berechnen. In dieser Situation sind Menschen mit schlechter Gesundheit und geringen wirtschaftlichen Möglichkeiten besonders benachteiligt. Aus diesem Grund behaupten Kritiker oft, dass die Auswirkungen oft negativ seien, selbst wenn die Vorhersagen der KI-Systeme zutreffend seien und die Versicherer rational handelten.

Der Wettbewerb in der Versicherungsbranche könnte diesen Trend noch verstärken und der Einsatz künstlicher Intelligenzsysteme könnte diese Ungleichheit letztlich noch verschärfen. Natürlich können die normativen Prinzipien der einschlägigen Antidiskriminierungsgesetze und -vorschriften zur Lösung dieser Probleme beitragen, auch wenn dieser Ansatz möglicherweise nicht der wirksamste oder gerechteste ist. Darüber hinaus sind auch die Entwicklung und der Einsatz von KI-Systemen wichtig, doch der bestehende Rechtsrahmen kann entsprechende Forschung behindern. Gesetze wie der Computer Fraud and Abuse Act (CFAA) und der Digital Millennium Copyright Act (DMCA) schränken diese Art der Forschung ein. Daher müssen die aktuellen Bestimmungen reformiert werden, um sicherzustellen, dass die notwendige Forschung reibungslos durchgeführt werden kann.

Wird künstliche Intelligenz einer Minderheit von Nutzen sein?

Systeme der künstlichen Intelligenz haben neue Wege zur Generierung wirtschaftlichen Werts eröffnet und auch neue Auswirkungen auf die Verteilung wirtschaftlichen Werts gehabt. Bis zu einem gewissen Grad wird die Wertverteilung von KI-Systemen einer bestimmten Gruppe von Menschen zugutekommen, wodurch bestehende Unterschiede bei der Lohn-, Einkommens- und Vermögensverteilung fortbestehen oder sich verschärfen.

Organisationen, die in der Lage sind, KI-Technologien zu entwickeln, werden diese Ungleichheit verschärfen. Künstliche Intelligenz wird sich voraussichtlich zu einer riesigen Branche mit einem Marktwert von mehreren Milliarden Dollar pro Jahr entwickeln. Die Entwicklung von Technologien für künstliche Intelligenz erfordert hohe Vorabinvestitionen, darunter enorme Rechenressourcen und Big Data, die beide sehr teuer sind. Dies führt dazu, dass die Entwicklung und Anwendung künstlicher Intelligenz auf einen bestimmten Umfang beschränkt bleibt. In diesem Fall können nur Unternehmen mit starker Daten- und Rechenleistung durch künstliche Intelligenzsysteme ein tieferes Verständnis der Marktdynamik erlangen und sich dadurch mehr Vorteile verschaffen, sich den Matthäus-Effekt „die Reichen werden reicher“ verschaffen und mehr Erfolg haben.

Andererseits können KI und automatisierte Systeme die Kosten für Waren und Dienstleistungen senken, und wenn diese Kostensenkungen den Verbrauchern zugute kommen, kann KI die Kluft zwischen Arm und Reich verringern. In diesem Fall können KI-Systeme den Lebensstandard der Gesellschaft insgesamt verbessern und sogar einen allmählichen Umverteilungseffekt auslösen.

Darüber hinaus wird künstliche Intelligenz auch einen völlig neuen Lebensstil mit sich bringen. In einem KI-Umfeld haben diejenigen, deren Arbeitsplätze verloren gehen, die Möglichkeit, neue Wege der Ressourcenbeschaffung zu fordern, während diejenigen, deren Arbeitsplätze betroffen sind, durch KI neue Beschäftigungsmöglichkeiten schaffen können. Mit anderen Worten: KI kann die Arbeitskräftekrise lindern und den Menschen die Möglichkeit geben, neue Lebens- und Arbeitsweisen zu verfolgen und so das allgemeine Wohlergehen der Gesellschaft zu verbessern.

Dennoch weisen einige Kritiker darauf hin, dass KI-Systeme die Fähigkeiten mancher Arbeitnehmer überflüssig machen könnten, was die durch die Automatisierung verdrängten Arbeitskräfte dazu zwingen könnte, sich nach neuen Beschäftigungsmöglichkeiten umzusehen. Selbst wenn diese Arbeitnehmer neue Arbeitsplätze finden können, weisen diese häufig eine geringe Wertschöpfung und geringere Arbeitsplatzsicherheit auf. Aus dieser Perspektive vernichten künstliche Intelligenz und Automatisierungssysteme tatsächlich Arbeitsplätze.

Wenn das Erlernen neuer beruflicher Fähigkeiten zudem sehr teuer ist, kann es sein, dass Arbeitnehmer zu dem Schluss kommen, dass eine solche berufliche Weiterbildung für die neue Stelle nicht angemessen ist. In diesem Fall werden künstliche Intelligenzsysteme nicht nur die soziale Ungleichheit verstärken, sondern auch zu dauerhafter Arbeitslosigkeit und Armut führen. Aus diesem Grund ist das Verständnis der potenziellen Auswirkungen von KI-Systemen auf die Belegschaft ein wichtiger Aspekt für das Verständnis ihrer Auswirkungen auf die wirtschaftliche Gleichheit.

Wie viele Technologien zuvor spiegelt KI tendenziell die Werte ihrer Schöpfer wider. Daher kann die Gleichberechtigung in der KI-Technologie auch durch Vielfalt in den Entwicklungs-, Bereitstellungs- und Wartungsphasen der KI gefördert werden.

Derzeit sind Frauen und Minderheiten im Bereich der künstlichen Intelligenz und in der Informatikbranche insgesamt unterrepräsentiert. Diese Situation hat bis zu einem gewissen Grad auch zu einem Mangel an Inklusivität in der gesamten Technologie geführt, was zu bestimmten Vorurteilen führte und die Berücksichtigung anderer Gruppen durch relevante Praktiker fortsetzte oder einschränkte.

Darüber hinaus wird zunehmend anerkannt, dass Vielfalt im Bereich der KI dazu beitragen kann, dass KI-Systeme den Interessen verschiedener Personengruppen dienen. Um Voreingenommenheit, Diskriminierung und Ungleichheit anzugehen, benötigen KI-Teams eine breitere Perspektive.

2. Arbeitsbeziehungen

Aktuelle Diskussionen über Arbeitsplätze und KI-Systeme drehen sich oft um die Sorge, dass Menschen in Zukunft ihre Arbeit verlieren könnten. Aktuelle Forschungsergebnisse deuten darauf hin, dass hier komplexere und unmittelbarere Probleme im Spiel sind, die nicht nur den Arbeitsmarkt, sondern auch die Beziehungen zwischen Arbeitgebern und Arbeitnehmern, Machtdynamiken, berufliche Verantwortung und die Rolle der Arbeit im Leben der Menschen betreffen.

Viele traditionelle Wirtschaftsforscher beobachten den heimischen Arbeitsmarkt und die Unternehmensinstitutionen in den Vereinigten Staaten genau, um die Auswirkungen von KI-Systemen zu untersuchen. Diese Art der Forschung kann sehr wichtige qualitative Daten liefern, die das Verständnis makroökonomischer Trends und der Bedingungen von Angebot und Nachfrage auf dem Arbeitsmarkt verbessern können, beispielsweise wie viele Arbeitsplätze in Zukunft verfügbar sein werden.

Gleichzeitig untersucht die sozialwissenschaftliche Forschung, wie sich Veränderungen in der Art und Dynamik der Arbeit auf die alltäglichen Lebenserfahrungen der Menschen auswirken. Beide Forschungsperspektiven sind von wesentlicher Bedeutung, um die sozialen und wirtschaftlichen Auswirkungen von KI-Systemen auf die Belegschaft kurzfristig zu messen.

Wird KI die Nachfrage nach Arbeitsplätzen beeinflussen?

Die Rolle der Automatisierungstechnologie in der Wirtschaft ist alles andere als ein neues Thema. Tatsächlich wird schon seit langem über die Auswirkungen von KI-Systemen diskutiert.

Obwohl es den Anschein hat, dass die Nachfrage nach Arbeitskräften mit der zunehmenden Verbreitung der Automatisierungstechnologie sinken wird, da die Menge der zu erledigenden Arbeit begrenzt sein wird, sind einige Ökonomen anderer Meinung und bezeichnen die Idee als Trugschluss der „Arbeitssynthese“. Sie weisen darauf hin, dass mit der Produktivitätssteigerung in einer Branche (aufgrund von Automatisierung oder anderen Faktoren) neue Branchen entstehen und damit ein neuer Bedarf an Arbeitskräften entsteht. So waren beispielsweise im Jahr 1900 in den USA 41 % der Arbeitskräfte in der Landwirtschaft tätig, im Jahr 2000 waren es nur noch 2 %. Trotz dieser Turbulenzen ist die Arbeitslosenquote auf lange Sicht nicht gestiegen, und die Beschäftigungsquote hat sich laut den Arbeitsmarktökonomen David Autor und David Dorn sogar verbessert. Zwei weitere Ökonomen, James Huntington und Carl Frey, machten düstere Vorhersagen: KI-Systeme würden einen enormen Stellenabbau zur Folge haben.

Diskutiert wird auch, ob Veränderungen und Schwankungen auf dem Arbeitsmarkt mit dem technologischen Fortschritt zusammenhängen oder ob sie lediglich eine Folge wirtschaftspolitischer Maßnahmen sind. Diese Sichtweise konzentriert sich auf die Rolle, die bestehende Rechtssysteme und Regulierungsmechanismen bei der Entwicklung von KI und automatisierten Systemen spielen sollten. Robert Gordon etwa argumentiert, dass die aktuelle Innovationswelle weniger umwälzend sei, als es den Anschein mache. Viele Andersdenkende argumentieren, dass der Arbeitsmarkt aufgrund des technologischen Wandels erhebliche Veränderungen erfährt. Diese Personen, darunter Joseph Stiglitz und Larry Mishel, sind der Ansicht, dass der Schutz der Arbeitnehmer ein hohes Maß an Aufmerksamkeit für die Regulierung und andere politische Änderungen im Zusammenhang mit KI und automatisierten Systemen erfordert.

Ökonomen wie Autor und Dorn haben festgestellt, dass das Phänomen der „Beschäftigungspolarisierung“ immer deutlicher wird, d. h., die Zahl der Arbeitsplätze für mittlere Qualifikationsanforderungen nimmt ab, während die Zahl der Arbeitsplätze für hohe und niedrige Qualifikationsanforderungen zunimmt. Zwar könnten in Zukunft neue Arbeitsplätze entstehen, doch diese sind in der Regel schlecht bezahlt und unbeliebt.

Beispielsweise muss ein Großteil der Arbeit zur Unterstützung von KI-Systemen tatsächlich von Menschen erledigt werden, die die Infrastruktur warten und sich um die „Gesundheit“ des Systems kümmern müssen. Diese Arbeitskräfte sind oft nicht sehr sichtbar, zumindest nicht im Hinblick auf die Medienberichterstattung und die Eindrücke, die die Menschen von KI haben. Daher wird es oft unterschätzt. Zu diesen Berufen gehören Reinigungskräfte, die Büros reinigen und Wartungsarbeiten durchführen, Techniker, die Serverausfälle beheben, und die sogenannten „Datenhygieniker“, die Daten zur Vorbereitung auf die Analyse „säubern“.

Bei der Frage nach den Auswirkungen von KI-Systemen auf die Erwerbsbevölkerung sollte nicht nur die Frage im Vordergrund stehen, ob in Zukunft neue Arbeitsplätze geschaffen werden, sondern auch, ob es sich dabei um menschenwürdige Arbeitsplätze handelt, mit denen man seinen Lebensunterhalt sichern kann.

Darüber hinaus konzentrieren sich Diskussionen über KI-Systeme und die Zukunft des Arbeitsmarktes oft auf Berufe, die traditionell als schlecht bezahlte Arbeiterjobs gelten, wie etwa in der Fertigung, im Transportgewerbe, im Einzelhandel oder im Dienstleistungssektor. Untersuchungen zeigen jedoch, dass in Zukunft ein breites Spektrum von Branchen betroffen sein wird, darunter auch Berufe, die eine spezielle Ausbildung oder Weiterbildung erfordern, wie etwa in der Radiologie oder im Rechtswesen. In diesem Zusammenhang müssen in Zukunft neue Fragen der beruflichen Verantwortung und Rechenschaftspflicht angegangen werden.

Welche Auswirkungen wird KI auf das Verhältnis zwischen Arbeitgeber und Arbeitnehmer haben?

In den letzten Jahren haben Forscher damit begonnen zu untersuchen, wie KI und automatisierte Systeme, die auf Big Data basieren – von Uber über automatisierte Dispositionssoftware großer Einzelhändler bis hin zur Arbeitsplatzüberwachung – die Beziehung zwischen Arbeitgebern und Arbeitnehmern verändern.

Die Studie kam zu dem Ergebnis, dass derartige Systeme zwar zur Stärkung der Arbeitnehmer eingesetzt werden können, die Technologie jedoch auch große Probleme verursachen kann. So können Arbeitnehmer beispielsweise ihrer Rechte beraubt, Diskriminierung am Arbeitsplatz verschärft und unfaire Arbeitspraktiken gefördert werden.

Beispielsweise werden zunehmend KI-gestützte Personalverwaltungs- und -einsatzplanungssysteme zur Verwaltung der Belegschaft eingesetzt, was das Wachstum der On-Demand-Wirtschaft und den Aufstieg des Prekariats vorantreibt. Während einige Forscher sagen, dass eine gute Zeitplanung wertvolle Flexibilität bieten kann, haben bisher mehr Studien ergeben, dass Mitarbeiter, die solchen Systemen unterliegen, unter emotionalem Stress und Unsicherheit leiden.

Zu den negativen Erfahrungen der Arbeitnehmer, die von diesen Systemen verwaltet werden, zählen chronische Unterbeschäftigung, finanzielle Instabilität, das Fehlen von Sozialleistungen, die herkömmlichen Vollzeitbeschäftigten zur Verfügung stehen, und die Unfähigkeit, für die Familie oder sich selbst zu sorgen (oder eine andere Arbeit zu finden, weil sie den Bereitschaftscharakter dieser Arbeit, der dies oft erfordert, nicht ertragen können). Darüber hinaus sind von diesen Problemen eher Frauen und Angehörige von Minderheiten betroffen.

Zudem wird es durch neue, auf KI-Systemen basierende Fernsteuerungsmodelle schwieriger, Arbeitgebern Entscheidungen des „Systems“ zuzuschreiben, die die Arbeitnehmer gravierend beeinträchtigen. Infolgedessen sind Arbeitnehmer stärker der Gefahr der Ausbeutung ausgesetzt.

Beispielsweise steuern Big Data und KI-gesteuerte Plattformen wie Uber aus der Ferne Routenführung, Preise, Vergütung und sogar Standards für die zwischenmenschliche Kommunikation – Entscheidungen, die traditionell von Menschen getroffen wurden.

Abgesehen davon, dass die Art und Logik bestimmter Entscheidungen verschleiert wird, wird diese Art der Fernverwaltung im Allgemeinen nicht als „Mitarbeiterverwaltung“ betrachtet.

Da diese neuen Managementmodelle nicht so recht in die bestehenden Regulierungsmodelle passen, werden sich Unternehmen wie Uber eher als Technologieunternehmen denn als Manager ihrer Mitarbeiter positionieren. Nach dieser Philosophie verstehen sich solche Unternehmen als Plattformen, die Verbindungen ermöglichen und daher gegenüber ihren Mitarbeitern nicht die gleiche Verantwortung tragen wie traditionelle Arbeitgeber. Bei diesem Modell tragen die Arbeitnehmer letztlich die mit der Beschäftigung verbundenen Risiken, die sowohl mit Vorteilen (wie etwa einer geringeren Steuerlast, Krankenversicherung und anderen Arbeitnehmerschutzbestimmungen) als auch mit potenziellen Entlastungsmodellen einhergehen.

3. Gesundheitswesen

Die meisten KI-Systeme, die wir im Gesundheitswesen eingesetzt sehen, basieren auf großen Datenbanken. Diese KI-Systeme extrahieren mithilfe verschiedener komplexer statistischer Modelle und Techniken des maschinellen Lernens automatisch verschiedene wichtige Informationen aus den riesigen Datenmengen, die sie sammeln.

Die bereits genutzten (und wachsenden) Quellen für Gesundheitsdaten – darunter elektronische Gesundheitsakten (EHRs), klinische und medizinische Datenbanken sowie von Unterhaltungselektronik und Apps hochgeladene Gesundheitsdaten – werden bereits in großer Zahl in KI-Systemen verwendet, die das Potenzial haben, die Gesundheitsversorgung zu verbessern.

Ob klinische Diagnose, Patientenversorgung oder Medikamente; Ob es um die Arzneimittelproduktion, das Organisationsmanagement oder die Interaktion mit Krankenversicherungsinformationen geht, diese KI-Systeme haben die Arbeit von Ärzten erheblich erleichtert.

Wie wird KI in die medizinische Forschung und Gesundheitsversorgung integriert?

Die Integration von KI-Systemen in die medizinische Forschung bietet äußerst spannende Anwendungsaussichten. Sie kann uns dabei helfen, die Pathologie dieser Krankheiten besser zu verstehen, mehr neue Behandlungsmethoden zu entwickeln, präzisere medizinische Diagnosen zu stellen und sogar spezielle Medikamente für einzelne Patienten auf individueller Basis herzustellen.

Angesichts der derzeitigen Einschränkungen und Vorurteile bei der Anwendung von KI im medizinischen Bereich könnten diese jedoch die Realisierung dieser Anwendungsaussichten behindern. Daher müssen Forscher diese Spitzentechnologie sorgfältiger untersuchen.

Zu den derzeitigen Einschränkungen bei der Anwendung von KI-Technologie im medizinischen Bereich zählen unvollständige oder ungenaue Forschungsdaten, die bestimmte Minderheitengruppen nicht abdecken. Darüber hinaus wird das komplexe Anreizsystem für medizinische Subventionen, insbesondere das US-Krankenversicherungssystem, die Anwendung der KI-Medizintechnologie in gewissem Maße behindern. Um ein einfaches Beispiel zu nennen: Einige der aktuellen medizinischen Subventionssysteme werden die Entwicklung bestimmter Arzneimitteltypen stärker unterstützen oder eher dazu neigen, individuelle Behandlungspläne zu subventionieren.

Medizinische Forschungsdaten weisen häufig objektive und universelle Eigenschaften auf, in der tatsächlichen Anwendung erweisen sich diese Forschungsergebnisse jedoch häufig als einseitig, vorübergehend und nur auf bestimmte Gruppen oder Krankheiten ausgerichtet. Die von KI-Systemen auf Grundlage dieser „einseitigen“ Daten analysierten und erstellten Modelle können zu fehlerhaften Vermutungen führen, diese begründen oder daraus ableiten.

Glücklicherweise können solche Fehler vermieden werden. Wenn die von einem KI-System gesammelten Daten nicht die oben genannten Mängel aufweisen (vorausgesetzt, dies kann garantiert werden) oder wenn das vom KI-System verwendete Datengerüst die Fähigkeit besitzt, diese Probleme selbst zu beheben, wie beispielsweise randomisierte kontrollierte Studien (RCTs) oder andere öffentliche medizinische Datenbanken, und die inhärenten Fehler und Verzerrungen reduzieren kann, kann das Auftreten schwerwiegender Fehler wirksam vermieden werden.

Unter der Annahme, dass diese Fehler klein genug sind, um ignoriert zu werden, besteht eine der wahrscheinlichsten Anwendungsaussichten der Integration von KI-Systemen in die medizinische und gesundheitliche Forschung sowie in klinische Praxiszentren darin, dass KI Ärzte bei der Diagnose von Krankheiten unterstützen und regelmäßige Muster in riesigen Datenmengen erkennen kann, wodurch Ärzte diese „heimtückischen“ Läsionen, die tief im Körper verborgen sind, früher finden können.

Tatsächlich können KI-Systeme mittlerweile einige Krankheiten diagnostizieren, darunter auch Leukämie. Während der Untersuchungs- und klinischen Behandlungsphase können KI-Systeme Fehldiagnosen möglicherweise reduzieren oder in manchen Fällen sogar verhindern. Es ist zu beachten, dass Fehldiagnosen tödlich sein können, sodass der Wert der KI-gestützten Diagnosetechnologie offensichtlich ist.

Dabei spielen KI-Systeme bei der Diagnose und Symptomfeststellung eine immer wichtigere Rolle. Gerade deshalb müssen Forscher jedoch wachsam sein, um Situationen zu vermeiden, in denen die KI falsche Vermutungen anstellt und Beschreibungen des Gesundheitszustands als „normal“ oder „durchschnittlich“ ableitet.

Ebenso müssen wir nur einen Blick auf die US-Geschichte vor 1973 werfen, um uns vorzustellen, was passieren könnte, wenn KI eine Krankheit falsch diagnostiziert. Die Tragödie war unvermeidlich, als die American Psychiatric Association Homosexualität als Geisteskrankheit in ihr maßgebliches Diagnostic and Statistical Manual of Mental Disorders aufnahm.

Wenn KI-Systeme direkt in der Patientenversorgung eingesetzt werden, sind sie in alle Aspekte der Diagnose und des klinischen Managements eingebunden, wodurch häufig eine Trennung zwischen Pflegepersonal und Patienten entsteht. Daher ist es wichtig, die Grenzen der KI-„Expertise“ angemessen zu klären.

Bevor ein Humanchirurg seine Stelle antreten kann, besucht er zunächst eine medizinische Universität. Erst wenn sie strenge Prüfungen bestehen, können ihre medizinischen Fähigkeiten von der Welt anerkannt werden. Doch wie können wir einen herausragenden KI-Arzt schaffen, der einen berühmten menschlichen Arzt mit „Diplom“ unterstützt oder sogar ersetzt?

Ein solches medizinisches KI-System muss über eine absolut präzise Autorität auf Expertenniveau verfügen, ohne dass es zu Fehldiagnosen oder diagnostischen Verzerrungen kommt. Dieses Maß an Vertrauen bedeutet, dass diese KI-Systeme einer geringeren Kontrolle unterliegen werden, sowohl was die Bewertung ihrer Fähigkeiten vor Verlassen des Werks als auch was die Austestung ihrer Grenzen betrifft, was neue ethische Fragen aufwerfen wird, die derzeit nicht durch den Rahmen der medizinischen Ethik abgedeckt sind.

Darüber hinaus müssen wir auch auf Fragen achten, beispielsweise wo solche KI-Medizinsysteme im Bereich der Krankenversicherung eingesetzt werden, wem sie nützen usw. Zwar besteht ein echter Bedarf, die Gesundheitsversorgung für alle zugänglich und erschwinglich zu machen, doch gibt es zahlreiche Belege dafür, dass der Zugang zu Krankenversicherungen und Gesundheitsdaten nicht gerecht verteilt ist und Arme, Nicht-Weiße und Frauen häufig benachteiligt sind.

Anstatt diese systemischen Ungleichheiten zu beseitigen, könnte die Integration von KI-Systemen in das Gesundheitssystem die Schwere dieser Probleme sogar noch verstärken. Während KI-Systeme eine maßgeschneiderte Versorgung ermöglichen können, die einem breiten Personenkreis zugutekommt, können sie auch gezielt darauf trainiert werden, Randgruppen herauszufiltern, die oft übersehen und unterversorgt werden.

Werden diese Gruppen nicht ausreichend berücksichtigt, wirkt sich dies wiederum auf die von KI-Systemen erstellten Vorhersagemodelle aus. KI-Vorhersagemodelle werden durch die Gesundheitsdaten, die von privilegierten Gruppen hochgeladen werden, die Zugriff auf solche KI-Systeme haben, ständig verfestigt, sodass sie nur noch wirksames Feedback zum „Gesundheitszustand“ der Reichen geben und letztlich ein ganzheitliches kognitives Modell von Gesundheit und Krankheit aufbauen können, das „Randgruppen“ vollständig ausschließt.

Angesichts des derzeitigen Chaos in der US-Gesundheitsfinanzierung verdienen derartige Bedenken tatsächlich mehr Aufmerksamkeit. So wie dieses Chaos in der Vergangenheit die Integration medizinischer Technologien beeinträchtigt hat, wird es in Zukunft unweigerlich auch die Gestaltung und Wirksamkeit medizinischer KI-Systeme beeinträchtigen.

Auf der Grundlage solcher Überlegungen wird einerseits die kontinuierliche Entwicklung medizinischer KI-Systeme vorangetrieben, andererseits wird ständig daran gearbeitet, die Kosten dieser Systeme zu senken. Dies wird auch Interessengruppen (wie Politiker, Versicherungsunternehmen, Gesundheitseinrichtungen, Pharmaunternehmen, Arbeitgeber und andere) dazu veranlassen, auf die groß angelegte Erfassung von Gesundheitsdaten und die Entwicklung von KI-Systemen zu setzen, um ihre wirtschaftlichen Interessen bei der Modellentwicklung und der medizinischen Versorgung besser schützen zu können.

Allerdings werden die wichtige Schulung, die Ressourcen und die laufende Wartung, die für die Integration dieser Informationstechnologie- und KI-Systeme in Krankenhäuser und andere Gesundheitssysteme erforderlich sind, nicht immer unterstützt oder finanziert. Diese Situation hat tatsächlich zu einer ungleichen Verteilung der technischen Ressourcen und technischen Fähigkeiten geführt.

Welche Auswirkungen haben die für das Training der KI erforderlichen Datenerhebungen und Patientenbeobachtungen auf die Privatsphäre?

Aufgrund der extremen Abhängigkeit des KI-Systems vom Datenvolumen und der Notwendigkeit der Fallbeobachtung ergeben sich natürlich dringende Fragen wie etwa zum Schutz der Privatsphäre der Patienten, der Vertraulichkeit und des Sicherheitsschutzes.

Derzeit hängt die Erfüllung der hohen Leistungserwartungen an KI-basierte medizinische Systeme von der kontinuierlichen Erfassung riesiger Mengen an Patientendaten über eine Vielzahl von Geräten, Plattformen und das Internet ab. Dieser Prozess wird zwangsläufig einige Menschen oder Organisationen einbeziehen, die ein außergewöhnliches Überwachungsverhalten betreiben, das von Interessen bestimmt wird.

Gleichzeitig bringen Technologien wie homomorphe Verschlüsselung, differentielle Privatsphäre und stochastische Privatsphäre neue Hoffnung für den Umgang mit diesen chaotischen Phänomenen. Sie können es KI -Systemen ermöglichen, sie direkt aufzurufen, ohne die Daten nachzuschlagen. Obwohl sich diese neuen Technologien noch in den frühen Phasen von Forschung und Entwicklung befinden und nicht einmal eine allgemeine Anwendung entwickelt wurde, zeigen sie ermutigende Anwendungsaussichten.

Mit der jüngsten Förderung der evidenzbasierten Medizin durch die US-Regierung und der Änderung des Affordable Care Act von der Gebühr für den Service zur Gebühr werden die wirtschaftlichen Interessen, die an regulatorischem Verhalten und dem Verbrauch sensibler Gesundheitsdaten verbunden sind, immer schwerwiegender.

In Bezug auf Versicherungsunternehmen nimmt auch der Druck, dem sie ausgesetzt sind, um die Rationalität der gegenseitigen Systeme zu überprüfen.

Obwohl die US -Regierung 2008 das nichtdiskriminierende Gesetz über genetische Information erließ, sind Versicherungsunternehmen zunehmend daran interessiert, genetische Risikoinformationen zu erhalten, da ein Versicherungsmanagement erforderlich ist. Tatsächlich ist die differentielle Preisgestaltung inzwischen zu einer gemeinsamen Branchenpraxis unter Datenanalyseanbietern geworden, die wiederum die bestehenden Ungleichheiten weiter konsolidiert und verschärft.

Darüber hinaus haben „intelligente Geräte“ und andere angeschlossene Sensoren, die es KI -Systemen ermöglichen, die von ihnen benötigten Daten zu erhalten, die Verfolgung und Überwachung allgegenwärtig gemacht haben, was ständig den Umfang der aktuellen Datenschutzschutzrichtlinien wie das dadurch erstellte Gesetz zur Tragbarkeit und Rechenschaftspflicht für die Krankenversicherung erweitert.

Wenn KI -Systeme zunehmend in Produkte für Gesundheits- und Unterhaltungselektronik integriert werden, werden das Risiko von Patienten, die auf segmentierten Daten neu definiert werden, oder ihre Identität, Krankheiten und andere Gesundheitsinformationen, die durch Proxy -Daten vorhergesagt werden, zugenommen.

Darüber hinaus wird die Software, die diese Datenerfassungsgeräte antreibt, häufig eher privat als Open Source (nicht vorbehaltlich einer externen Überprüfung und Prüfung). Obwohl die US -Regierung kürzlich ein Dekret unterzeichnet hat, das relevante Bestimmungen im digitalen Millennium Copyright Act befreit, was es möglich macht, den Kodex für externe medizinische Einrichtungen zu überprüfen, ist es möglicherweise wichtiger, diese internen medizinischen Einrichtungen zu überprüfen, die nicht durch diese Ausnahmeregelung abgedeckt sind.

Im Allgemeinen haben Branchenexperten vor den erheblichen Sicherheitsrisiken für die Bereitstellung von Networking -Technologien auf IoT -Geräten gewarnt, von denen viele speziell auf Probleme mit der Sicherheit von Medizinprodukten abzielen.

Wie wirkt sich AI auf Patienten und Krankenversicherer aus?

KI-Technologien, die realisiert wurden oder erwartet werden, dass sie realisiert werden, haben weitreichende Auswirkungen auf den Bau von Gesundheitssystemen und sind auch für Patienten, die Pflege benötigen, oder bei Patienten mit schwachen körperlichen Erkrankungen von großer Bedeutung.

Die Menschen haben viele schöne Ideen über KI -Systeme, die ihre Hoffnungen auf sie als Mediatoren der Pflegearbeit festhalten und glauben, dass sie die Arbeit der Betreuer in Zukunft vollständig ersetzen könnten. Diese Verschiebung ist vielversprechend, kostengünstig und effizient und verbessert wahrscheinlich die Beziehung zwischen Patienten und ihren Ärzten oder anderen Betreuern und der Art und Weise, wie sie arbeiten.

Es gibt zahlreiche Beispiele, die das Potenzial von KI -Systemen zeigen, die Arbeit der menschlichen Pflege zu ersetzen oder zu unterstützen, einschließlich Roboterchirurgen, virtuellen Butlern und Begleitrobotern. Diese Beispiele haben nach und nach einige Debatten ausgelöst, z. Wenn Maschinen menschliche Arbeit ersetzen, können sie nicht nur das menschliche Fachwissen verbessern, sondern auch wirklich unabhängig werden? Wenn wir der Meinung sind, dass eine Maschine die Fähigkeit hat, für einen Patienten "zu sorgen", welche Art von "Pflege" -Funktionen hat sie? Wie definieren wir das Wort "Pflege"? Sind diese Dinge, die wir aus der Perspektive der Rechte der Patienten betrachten?

Obwohl Begleitroboter jedoch keine offensichtlichen Ergebnisse zum Ersetzen der menschlichen Krankenpflegearbeit erzielt haben, erhöht sich die Aussicht auf KI-gesteuerte Apps und verbundene Geräte, die es den Patienten ermöglichen, die Kontrolle ihres eigenen Gesundheitsmanagements von Tag zu Tag wieder zu erhöhen, was auch darauf hinweist, dass die direkte Interaktion zwischen KI-medizinischen Systemen und Patienten in der Frühentwicklungsstufe liegt.

Diese Art der direkten Interaktion zwischen Menschen und KI ist eigentlich ein zweischneidiges Schwert. Einerseits kann es den Patienten helfen, sich schneller zu erholen und ihr Zustand besser zu verstehen. Andererseits erfordert diese Änderung auch, dass sie mehr Risiken eingehen. Zu diesen Risiken gehören das Potenzial, Patienten in die Irre zu führen und die Qualität und Genauigkeit der von ihnen erhaltenen Informationen zu beeinflussen.

Darüber hinaus können diese AI-Apps die Verantwortung, die Ärzte ursprünglich für die Patienten selbst übertragen mussten, übertragen. Dies ist jedoch möglicherweise keine gute Nachricht für Patienten, da nicht jeder Zeit, finanzielle Ressourcen und Zugang zu KI-Technologie hat, um sich um ihre eigene Gesundheit zu kümmern.

Welche Art von Patienten kann die Vorteile dieser AI -Medizintechnologien genießen, die zuerst noch verbessert werden? Werden Patienten, die schlecht ausgestattet sind, um ihre eigenen personenbezogenen Daten zu verwalten und aufrechtzuerhalten, die minderwertige Gesundheitsversorgung erhalten?

Welche neuen Rollen müssen die Designer und Entwickler von Anwendungen, die mit AI -Technologie ausgestattet sind, in diesem Prozess der sozialen Entwicklung spielen? Welche neuen Aufgaben müssen angenommen werden?

Wie wird die medizinische Ethik, die immer im Vordergrund des Sturms steht, in diese einzigartigen, neuen Ingenieurtechnologie -Träger integriert werden?

4. Moralische Verantwortung

Der Einsatz von KI -Systemen wird nicht nur zu neuen Aufgaben führen, sondern auch bestehende Bereiche wie Berufsethik, Forschungsethik und sogar Bewertungen der öffentlichen Sicherheit in Frage stellen.

Jüngste Diskussionen über Ethik- und KI -Systeme haben dazu geführt, KI -Systeme zu priorisieren, die in Zukunft viel entstehen könnten, wie dem Aufkommen der „Singularität“ oder der Entwicklung der Superintelligenz.

Das heißt, diese Diskussion konzentriert sich häufig nicht auf die ethischen Auswirkungen von KI-Systemen kurz oder mittelfristig, beispielsweise kann die große Anzahl von aufgabenbasierten KI-Systemen, die derzeit verwendet werden, neue Herausforderungen erhöhen.

Zeitgenössische KI -Systeme sind in der Lage, eine Vielzahl von Aktivitäten auszuführen, und solche Technologien können traditionelle ethische Rahmenbedingungen neue Herausforderungen stellen, da sie eine Vielzahl von impliziten und expliziten Konsequenzen haben können. Wenn KI -Systeme in der menschlichen Gesellschaft eingesetzt werden, können sie zu unvorhersehbaren Interaktionen und Konsequenzen führen.

Es gibt kritische Probleme, die dringend angegangen werden müssen, um sicherzustellen, dass KI -Technologien in Bezug auf die Ressourcenzuweisung und das Potenzial zur Konzentration oder Umstrukturierung von Strom und Informationen keine Schäden verursachen, insbesondere für bereits marginalisierte Gruppen.

Wie befähigen wir die Entscheidungsfindung an die KI oder delegieren Sie sie?

Die Integration von KI -Systemen in soziale und wirtschaftliche Bereiche erfordert, dass wir soziale Probleme in technische Probleme verwandeln, die von KI gelöst werden können. Diese Verschiebung bietet keine Garantie dafür, dass KI -Systeme weniger Fehler machen als die vorhandenen Systeme, die sie ersetzen werden. Ryan Calo weist darauf hin, dass die Menschen im Allgemeinen davon ausgehen, dass KI-Systeme (wie selbstfahrende Autos) weniger Fehler machen als Menschen. Tatsächlich ist dies nicht der Fall. KI -Systeme mit geringer Raffinesse werden unweigerlich neue Arten von Fehlern machen, die Menschen nicht machen würden.

In vielen Bereichen erfordern ethische Rahmenbedingungen häufig die Produktion von Aufzeichnungen wie Krankenakten, Fallakten von Anwälten oder Forscher -Einreichungen in institutionelle Überprüfungsgremien. Darüber hinaus sind Wiedergutmachungsmechanismen für Patienten, Klienten oder alle anderen vorhanden, die das Gefühl haben, ungerecht behandelt zu werden.

Zeitgenössische KI -Systeme liefern solche Aufzeichnungen oder Sanierungsmechanismen oft nicht, entweder weil sie technisch unmöglich sind oder weil ihre Designer solche Aufzeichnungen oder Mechanismen nicht berücksichtigt haben.

Dies bedeutet, dass die betroffenen spezifischen Gruppen oder Einzelpersonen häufig nicht in der Lage sind, die Entscheidungen von KI oder anderen Vorhersagesystemen zu testen oder in Frage zu stellen. Dies verschlimmert verschiedene Formen von Leistungsasymmetrien. Machtungleichheit ist ein sehr wichtiges ethisches Thema.

Wenn betroffene Personen solche automatisierten Entscheidungen nicht überprüfen, in Frage stellen oder ansprechen, werden sie in einer relativ machtlosen Position versetzt.

Das Risiko besteht darin, dass KI -Systeme nicht nur die Kraft schutzbedürftiger Gruppen schwächen, sondern auch den Designern mehr Macht zur Definition ethisches Verhalten geben. Diese Kraft kann sich in sehr subtilen Formen manifestieren. Beispielsweise werden verschiedene automatisierte Systeme häufig verwendet, um bestimmte Personen in eine bestimmte Richtung zu beeinflussen oder zu "feinstimmen", und die Entscheidungsfindung oder die dominante Rolle wird von der Partei, die aus solchen Systemen entwirft, bereitstellt und gewinnt, weitgehend gespielt.

Wenn wir ein KI -System von Grund auf erstellen möchten, um Ziele wie die Korrektur der oben genannten Ungleichgewichte zu erreichen, wird dies selbst durch die Stärkelücke eingeschränkt. Das Aufbau und die Wartung von KI -Systemen erfordert massive Rechenressourcen und große Datenmengen. Unternehmen mit überdurchschnittlichen Daten- und Rechenressourcen haben strategischere Vorteile als Unternehmen, denen solche Ressourcen fehlen.

Wie befassen wir uns mit ethischen Fragen im Zusammenhang mit KI in verschiedenen bestehenden Branchen?

Wenn KI -Systeme tiefer in verschiedene Branchenumgebungen integriert werden (z. B. Medizin, Recht und Finanzen), werden wir auch mit neuen ethischen Dilemmata ausgesetzt sein, die verschiedene Branchen umfassen.

Beispielsweise wird die Verwendung von KI -Systemen im Gesundheitswesen die Kernwerte in Frage stellen, die in Ethikkodizes von medizinischen Fachkräften verankert sind (z. B. in Bezug auf Vertraulichkeit, Kontinuität der Versorgung, Vermeidung von Interessenkonflikten und das Recht auf Information).

Als verschiedene Stakeholder in der Gesundheitsbranche haben eine Vielzahl von KI -Produkten und -dienstleistungen eingeführt. Herausforderungen für diese Grundwerte können sich auf neue und unerwartete Weise darstellen.

Wenn ein Arzt ein KI -diagnostisches Gerät verwendet, das unter Verwendung von Arzneimittelversuchsdaten eines Pharmaunternehmens geschult wurde, das ein berechtigtes Interesse an der Verschreibung eines bestimmten Arzneimittels hat, wie sollte sich der Arzt an seinen Eid halten, um Interessenkonflikte zu vermeiden?

Obwohl dies ein hypothetisches Szenario ist, unterstreicht es die heiklen Probleme, die bei der Überarbeitung und Aktualisierung von professionellen Ethikkodizes angesprochen werden müssen.

Ebenso müssen professionelle Verbände, die für die Verwaltung der KI -Entwicklung und -wartung verantwortlich sind, entsprechende Maßnahmen in Betracht ziehen. Beispielsweise sollte der Association for Artificial Intelligence (AAAI) relevante ethische Codes entwickeln, während der Association for Computing Machinery (ACM) und das Institute of Electrical and Electronics Engineers (IEEE) ihre relevanten ethischen Codes ernsthaft überarbeiten müssen. Die vorhandenen Ethikkodizes für ACM und IEEE sind älter als 20 Jahre, und es ist unnötig zu erwähnen, dass sie nicht nur die Kernprobleme im Zusammenhang mit menschlicher Agentur, Privatsphäre und Sicherheit angehen, sondern auch nicht die Schäden verhindern, die sich aus KI und anderen automatisierten Entscheidungssystemen ergeben können. Dies wird immer wichtiger, da die KI -Technologien weiter in wichtige Bereiche der Gesellschaft integriert werden.

Obwohl mehr Hochschuleinrichtungen begonnen haben, die Bedeutung der beruflichen Ethik für die Lehre von technischen und wissenschaftlichen Themen zu betonen, liegen diese Bemühungen noch in einem frühen Stadium und es gibt Raum für weitere Expansion. Das Wissen in Bereichen wie Bürgerrechten, bürgerlichen Freiheiten und ethischen Praxis ist jedoch noch keine Voraussetzung für die Studenten, die beim Abschluss meistern. Es ist auch erwähnenswert, dass zwar Verstöße gegen ethische Standards in der Medizin Strafen wie den Verlust von medizinischen Privilegien durchführen, dies jedoch nicht für Informatik oder viele andere verwandte Bereiche gilt.

Es ist nicht klar, dass die meisten Informatiker mit dem Kerninhalt der ACM- oder IEEE -Standards vertraut sind. Es ist auch nicht klar, ob die Arbeitgeber aufgrund anderer Anreize oder Drucke nicht den solchen nichtbindenden Vorschriften einhalten würden. Aus praktischer Sicht ist es daher erforderlich, dass sie neben der einfachen Umschreibung und Aktualisierung ethischer Rahmenbedingungen sich auch auf ein breiteres Spektrum an Incentive -Mechanismen konzentrieren und sicherstellen, dass die Einhaltung ethischer Standards kein nachträglicher Gedanke ist, sondern ein Kernproblem, das in relevanten beruflichen Fickeln und einer unzureichenden Komponente des Lernens und der Praxis in der Fachgebiet von AI geachtet werden muss.

Erklären Sie den Vorschlag

Im Folgenden werden die Gründe hinter den oben erwähnten Empfehlungen weiter erläutert.

1. Diversifizieren und erweitern Sie die Ressourcen, die für die Entwicklung und Bereitstellung von KI erforderlich sind - wie der Zugriff auf Datensätze, Rechenressourcen, Bildung und Schulung - einschließlich der Erweiterung der Möglichkeiten zur Teilnahme an einer solchen Entwicklung. Besondere Aufmerksamkeit wird den Bevölkerungsgruppen gelegt, denen derzeit ein solcher Zugang fehlt.

Wie viele Menschen während der KI -Experten -Workshop erwähnt haben, sind diese Methoden zur Entwicklung und Ausbildung von KI -Systemen teuer und auf einige große Unternehmen beschränkt. Oder einfach ausgedrückt, DIY KI ist ohne viele Ressourcen unmöglich. Das Training von KI -Modellen erfordert viele Daten - desto besser. Es erfordert auch enorme Rechenleistung, was teuer ist. Dies begrenzt sogar Grundlagenforschung für Unternehmen, die es sich leisten können, für ihre Verwendung zu bezahlen, und beschränken so das Potenzial für demokratisierte Entwicklung von KI -Systemen, um unterschiedliche Bevölkerungsziele zu dienen. Die Investition in grundlegende Infrastrukturen und die Verwendung geeigneter Trainingsdaten kann dazu beitragen, das Spielfeld zu beseitigen. In ähnlicher Weise können die Entwicklungs- und Designprozesse in bestehenden Branchen und Institutionen für verschiedene interne Disziplinen und externe Kommentare beitragen, KI -Systeme zu entwickeln, die den Bedürfnissen verschiedener Umgebungen besser dienen und widerspiegeln.

2. Upgrade Definitionen und Frameworks, die faire Arbeitspraktiken kristallisieren, um strukturelle Änderungen zu berücksichtigen, die auftreten, wenn das KI -Management am Arbeitsplatz eingesetzt wird. Gleichzeitig werden wir alternative Einkommens- und Ressourcenverteilung, Bildungs- und Umschulungsmodelle untersuchen, um sich an die zunehmende Automatisierung der sich wiederholenden Arbeiten und die sich ändernde Arbeits- und Beschäftigungssituation in der Zukunft anzupassen.

Jason Furman, der Chefökonom von Präsident Obama, wies Jason Furman, der Chefökonom von Präsident Obama, darauf hin, dass 83% der Arbeitsplätze in den USA, die weniger als 20 US -Dollar pro Stunde zahlen, einen schwerwiegenden Druck durch die Automatisierung aussetzen werden. Bei Arbeitsplätzen mit mittlerem Einkommen, die 20 bis 40 US-Dollar pro Stunde zahlen, liegt der Anteil bis zu 31%. Dies ist eine enorme Veränderung des Arbeitsmarktes, die zum Auftreten einer Klasse dauerhafter Arbeitsloser führen könnte. Um sicherzustellen, dass die Effizienz von KI-Systemen auf dem Arbeitsmarkt nicht zu öffentlichen Unruhen oder dem Abbau wichtiger sozialer Institutionen wie Bildung führt (es besteht die Möglichkeit, dass die Bildung nicht mehr als besserer Weg zur Beschäftigung angesehen wird), sollten alternative Ressourcenzuweisungsmethoden und andere Modelle zur Bewältigung der Einführung der Einführung von Automatisierungstests die Einführung von Einführung in die Wahrnehmung, die sich mit der Einführung von potenziellem Umschlag befassen, und die Wechselzusatzstätigkeiten, die sich auf den Weg zum Wechsel zur Wahrnehmung befinden, und das Wegen, das sich auf die Wege befasst.

AI -Systeme haben nicht nur "Ersetzen von Arbeitnehmern", sondern haben auch mehrere andere Auswirkungen auf den Arbeitsmarkt. Zum Beispiel ändern sie Machtverhältnisse, Beschäftigungserwartungen und die Rolle der Arbeit selbst. Diese Veränderungen haben bereits tiefgreifende Auswirkungen auf die Arbeitnehmer. Daher ist es wichtig, diese Auswirkungen zu verstehen, wenn man überlegt, wie faire und unfaire Praktiken bei der Einführung von KI -Systemen artikuliert werden können. Wenn ein Unternehmen beispielsweise ein KI -System entwickelt, das effektiv als Management fungiert, kann es als Technologiedienstleistungsunternehmen angesehen werden, und im Gegensatz zu einem Arbeitgeber können seine Mitarbeiter möglicherweise nicht durch bestehende Gesetze geschützt werden.

3.. Unterstützen Sie die Forschung und Entwicklung von Methoden zur Messung und Bewertung der Genauigkeit und Fairness von KI -Systemen während der Entwurfs- und Einsatzphasen . In ähnlicher Weise unterstützen wir die Erforschung der Entwicklung von Methoden zur Messung und Behebung von KI-Fehlern und -beschädigungen, sobald sie auftreten, einschließlich der Rechenschaftspflicht für Benachrichtigungen, Korrekturen und Minderung von Fehlern und Schäden, die sich aus automatisierten Entscheidungen durch KI-Systeme ergeben. Diese Ansätze sollten priorisieren, dass die von automatisierten Entscheidungen betroffenen Personen benachrichtigt werden und Möglichkeiten entwickeln, um fehlerhafte oder schädliche Urteile in Frage zu stellen.

KI- und Prädiktivsysteme bestimmen zunehmend, ob Menschen Chancen gewinnen oder verlieren. In vielen Fällen erkennen die Menschen nicht, dass es Maschinen sind, nicht Menschen, die lebensverändernde Entscheidungen treffen. Auch wenn sie sich bewusst sind, gibt es keinen Standardprozess für die Herausforderung einer Fehlverdüdlung oder die Ablehnung schädlicher Entscheidungen. Wir müssen in Forschungs- und Technologieprototypen investieren, um sicherzustellen, dass Grundrechte und Verantwortlichkeiten in Umgebungen respektiert werden, in denen KI -Systeme zunehmend zur Treffen wichtiger Entscheidungen eingesetzt werden.

V. Um die für die Untersuchung, Messung und Bewertung der Auswirkungen von KI -Systemen erforderlichen Forschungen auf die Entscheidungen öffentlicher und privater Institutionen durchzuführen, insbesondere in Bezug auf wichtige gesellschaftliche Bedenken wie Fairness und Diskriminierung, müssen den Forschern explizit zugelassen werden, um Systeme über eine Vielzahl von Domänen und eine breite Palette verschiedener Methoden zu testen. Bestimmte US -amerikanische Gesetze wie das Gesetz über Computerbetrug und Missbrauch (CFAA) und das digitale Millennium Copyright Act (DMCA) machen es jedoch illegal, mit "nicht autorisierten" Computersystemen zu interagieren, selbst diejenigen, die im Internet öffentlich zugänglich sind, und können solche Forschungen einschränken oder verboten. Diese Gesetze sollten geklärt oder geändert werden, um ausdrücklich Interaktionen zuzulassen, die diese wichtige Forschung erleichtern.

5. Unterstützung der Grundlagenforschung zu leistungsstarken Bewertungs- und Bewertungsmethoden für die Auswirkungen von KI-Systemen auf das sozioökonomische Leben in realen Umgebungen . Arbeiten Sie mit Regierungsbehörden zusammen, um diese neuen Technologien in ihre investigativen, regulatorischen und Durchsetzungsfähigkeiten zu integrieren.

Derzeit fehlt uns ein strenger Ansatz zur Bewertung und Verständnis der sozioökonomischen Auswirkungen von KI -Systemen. Dies bedeutet, dass KI -Systeme in bestehende sozioökonomische Kugeln integriert und in neuen Produkten und Umgebungen eingesetzt werden, ohne ihre Auswirkungen zu messen oder genau zu berechnen. Diese Situation ähnelt der Durchführung eines Experiments, ohne die Ergebnisse aufzuzeichnen. Um sicherzustellen, dass die Vorteile von KI -Systemen realisiert werden, müssen konzertierte Forschung strenge Methoden entwickeln, um ihre Auswirkungen zu verstehen, was bei der Verwendung von Standardpraktiken in den Bereichen und innerhalb der Regierung beitragen kann. Solche Forschungen und ihre Ergebnisse können mit einem Frühwarnsystem verglichen werden.

6. Arbeiten Sie mit Vertretern und Mitgliedern der von automatisierten Entscheidungsanwendungen betroffenen Gemeinden und KI-Systemen zusammen, um die Rechenschaftspflicht bei der gemeinsamen Entwicklung und Bereitstellung solcher Systeme mit diesen Personen mitzubauen .

In vielen Fällen werden die von AI -Systemen betroffenen Systeme die maßgeblichsten Experten für den Kontext und die Ergebnisse des KI -Systems sein. Insbesondere angesichts der aktuellen mangelnden Vielfalt im KI -Bereich sind diejenigen, die vom Einsatz von KI -Systemen betroffen sind, tatsächlich in die Feedback- und Design -Richtung eingesetzt. Diese Vorschläge aus Feedback -Mechanismen können die Entwicklung von AI -Systemen und den breiteren politischen Rahmen direkt beeinflussen.

7. Stärken Sie die Handlungen, um die Vielfalt von AI -Entwicklern und Forschern zu erhöhen und alle Perspektiven, Kontexte und disziplinarischen Hintergründe in die Entwicklung von AI -Systemen zu erweitern und zu integrieren. Das KI -Feld sollte auch Computer, Sozialwissenschaften und Geisteswissenschaften kombinieren, um interdisziplinäre KI -Forschung auf die Auswirkungen von KI -Systemen auf mehrere Standpunkte zu unterstützen und zu fördern.

Informatik als Feld fehlt vielfältig. Insbesondere mangelnde Mangel an weiblichen Praktikern, und die Situation ist in der KI noch schlimmer. Während beispielsweise einige akademische KI -Labors von Frauen betrieben werden, waren nur 13,7% der Teilnehmer der jüngsten Konferenz für neuronale Informationsverarbeitungssysteme, eine der Hauptansammlungen des Feldes, Frauen. Kreise, denen die Vielfalt mangelt, berücksichtigt weniger wahrscheinlich die Bedürfnisse und Anliegen derjenigen, die nicht Teil von ihnen sind. Es ist wichtig, diese Bedürfnisse und Bedenken zu verstehen, da sie für die sozioökonomischen Institutionen, die KI einsetzen, von zentraler Bedeutung werden und dass die KI -Entwicklung diese wichtigen Perspektiven widerspiegelt. Die Konzentration auf Vielfalt in der Bevölkerung, die KI entwickelt, ist der Schlüssel, einschließlich der Vielfalt in Disziplinen außerhalb der Informatik, zusätzlich zu den Geschlecht und der Darstellung von geschützten Gruppen sowie auf dem Aufbau von Entwicklungspraktiken, die sich auf das Fachwissen beruhen, das aus relevanten sozioökonomischen Hintergründen gelernt wird.

Eine gründliche Bewertung der Auswirkungen von KI in sozioökonomischen Bereichen außerhalb der Informatik und in Unterfeldern der KI innerhalb der Informatik erfordert einen Großteil dieses Fachwissens. Da es viele Kontexte gibt, in denen KI integriert und verwendet wird - wie Medizin, Arbeitsmarkt oder Online -Werbung - sind dies selbst reiche Studienbereiche. Um wirklich einen strengen Prozess für die Bewertung der KI-Folgen zu entwickeln, benötigen wir eine interdisziplinäre Zusammenarbeit und die Einrichtung neuer Forschungsrichtungen und -bereiche.

8. Zusammenarbeit mit Berufsorganisationen wie dem Association for the Advancement of Artificial Intelligence (AAAI), dem Association for Computing Machinery (ACM) und dem Institut für Elektro- und Elektronikingenieure (IEEE), um professionelle Codes der Ethik besser zu aktualisieren (oder zu erstellen), die die Komplexität der Bereitstellung von AI- und automatisierten Systemen über sozioökonomische Sektoren hinweg besser bereitstellen. In Bezug auf diese Veränderungen in der Bildung, Kurse in der Staatsbürgerschaft, die bürgerlichen Freiheiten und die Ethik werden jedem angeboten, der Informatik beherrschen möchte. In ähnlicher Weise würden aktualisierte professionelle ethische Codes diejenigen Fachleute regieren, die KI -Systeme einführen, wie beispielsweise diejenigen, die sich für Ärzte und Krankenhausangestellte bewerben.

In Berufen wie Medizin und Recht wird das Verhalten von Fachleuten durch ethische Kodizes geregelt, die akzeptables und inakzeptables Verhalten kontrollieren. Professionelle Organisationen wie ACM und IEEE haben Ethik -Codes. Diese Codes sind jedoch veraltet und sind nicht ausreichend, um die spezifischen und oft subtilen Herausforderungen zu bewältigen, die durch die Verwendung von AI -Systemen in komplexen sozioökonomischen Umgebungen gestellt werden. Während Ärzte sich an berufliche Ethik halten, die ihr Verhalten gegenüber Patienten regeln, stellt die Entwicklung von AI -Systemen, wie sie bei der Diagnose und Behandlung von Patienten helfen, ethische Herausforderungen, die bestehende professionelle Ethikkodizes diagnostizieren und behandelt. Professionelle Codes und Informatik -Schulungen müssen aktualisiert werden, um die Verantwortlichkeiten widerzuspiegeln, die Bauherren von AI -Systemen gegenüber denen haben, die unverhältnismäßig unter den nachteiligen Auswirkungen ihrer Verwendung leiden. Wenn KI zur Erweiterung der menschlichen Entscheidungsfindung verwendet wird, sollten professionelle ethische Codes Schutz für die Identifizierung von Verantwortlichkeiten enthalten, wenn KI-Systeme den Interessenkonflikten unterliegen.

Als Gewinner des Qingyun-Plans von Toutiao und des Bai+-Plans von Baijiahao, des Baidu-Digitalautors des Jahres 2019, des beliebtesten Autors von Baijiahao im Technologiebereich, des Sogou-Autors für Technologie und Kultur 2019 und des einflussreichsten Schöpfers des Baijiahao-Vierteljahrs 2021 hat er viele Auszeichnungen gewonnen, darunter den Sohu Best Industry Media Person 2013, den dritten Platz beim China New Media Entrepreneurship Competition Beijing 2015, den Guangmang Experience Award 2015, den dritten Platz im Finale des China New Media Entrepreneurship Competition 2015 und den Baidu Dynamic Annual Powerful Celebrity 2018.

<<:  Wie schwierig ist das neue Modell, das Google anstrebt?

>>:  Die Gesamteinnahmen an den Kinokassen während der siebentägigen Nationalfeiertage sanken im Vergleich zum Vorjahr um 15,30 %: Musste sich Guo Jingming auf der Toilette verstecken und weinen? !

Artikel empfehlen

Auf diesem Planeten wurden neue Beweise für außerirdisches Leben entdeckt!

Ein Team unter der Leitung von Wissenschaftlern d...

Kann Laufen auf der Stelle Ihnen helfen, größer zu werden?

Größer zu werden dürfte der Traum vieler junger M...

Kann Yoga beim Abnehmen an den Waden helfen?

Viele Frauen, die auf ihre Schönheit achten, lege...

Wie sind die Reaktionen auf die ersten Yoga-Übungen?

Yoga ist in der Tat eine sehr gute Möglichkeit, s...

Ist die Schlafüberwachung mit einem Armband zuverlässig?

Die meisten Menschen, die in Großstädten leben, h...

Können Kniebeugen beim Abnehmen helfen?

Ich glaube, dass eine anmutige und schlanke Figur...