Beachten! Regierungen auf der ganzen Welt haben Regulierungsmaßnahmen zur KI-Sicherheit eingeführt, die sich hauptsächlich auf sechs Aspekte konzentrieren:

Inhaltsverzeichnis

Die Länder haben die Sicherheitsüberwachung durch künstliche Intelligenz verstärkt

Betreuungsvorschläge konzentrieren sich hauptsächlich auf sechs Aspekte

Technologie verbessert die Sicherheit künstlicher Intelligenz


Die rasante Entwicklung der globalen Technologie der künstlichen Intelligenz hat tiefgreifende Auswirkungen auf die wirtschaftliche und soziale Entwicklung sowie den Fortschritt der menschlichen Zivilisation und bietet der Welt enorme Chancen. Gleichzeitig bringt die Technologie der künstlichen Intelligenz auch unvorhersehbare Risiken und komplexe Herausforderungen mit sich.

Aufgrund der Unklarheit in der technischen Logik und im Anwendungsprozess künstlicher Intelligenz (KI) kann sie eine Reihe von Risiken auslösen, darunter Daten, Algorithmenrisiken, ethische Risiken, Risiken von Technologiemissbrauch und Risiken von Cyberangriffen. Diese Risiken können nicht nur die Privatsphäre und Unternehmensinteressen gefährden, sondern auch negative Auswirkungen auf die Gerechtigkeit und Stabilität der gesamten Gesellschaft haben.

Bild

Erstens das algorithmische Risiko. Da künstliche Intelligenz eine „Black Box“ ist, die auf Big Data, Deep Learning und Computeralgorithmen basiert, sind ihre Entscheidungslogik und -grundlage oft schwer zu erklären, was zu Unsicherheitsrisiken führt. In manchen Anwendungsbereichen mit hohen Anforderungen an die Fehlertoleranz kann diese Unerklärlichkeit sogar zu Sicherheitsrisiken führen.

Zweitens das Datenrisiko. Die Ausschöpfung des Werts von Daten ist der Schlüssel zur Verbesserung der Fähigkeiten der künstlichen Intelligenz, aber die Verbreitung sensibler Informationen wie der Privatsphäre birgt das Risiko von Datenlecks und Missbrauch. Sobald Daten aus Sicherheitsgründen eine Insel bilden, wird die Wertschöpfung von Datenelementen und die Entwicklung der KI-Branche eingeschränkt. Darüber hinaus kann die Verwendung urheberrechtlich geschützter Materialien zum Trainieren von KI-Modellen zu Urheberrechtsstreitigkeiten führen, während die Eingabe von Informationen über identifizierte oder identifizierbare natürliche Personen zu Problemen wie der Offenlegung von Geschäftsgeheimnissen führen kann.

Soziale und ethische Risiken, die nicht ignoriert werden können. Big Data, Geschlechterdiskriminierung, Rassendiskriminierung, regionale Diskriminierung usw. können zu Problemen der sozialen Gerechtigkeit führen . Obwohl KI auf riesigen Datenmengen basiert, sind diese Daten oft verzerrt, sodass Entscheidungen auf der Grundlage dieser Daten möglicherweise die soziale Ungerechtigkeit verschärfen. Darüber hinaus kann der Algorithmusentwurfsprozess durch die Wertneigung des Entwicklers beeinflusst werden, was es schwierig macht, die Fairness von Transaktionsentscheidungen effektiv zu gewährleisten.

Bezüglich Risiken des Missbrauchs von Technologie. Der Einsatz von KI zur Erstellung von Fake News, Fake News, Fake Accounts, Fake Stimmen, Fake Bildern usw. hat immer gravierendere Auswirkungen auf die Gesellschaft . Diese Verhaltensweisen können die soziale und wirtschaftliche Sicherheit, den persönlichen Ruf von Unternehmen und die Sicherheit von persönlichem Eigentum beeinträchtigen. Mit der kontinuierlichen Weiterentwicklung der Deep-Synthesis-Technologie kommt es häufig zu illegalen Aktivitäten und Fällen wie Betrug, Erpressung, Komplott und Verleumdung, bei denen diese Technologie zum Einsatz kommt.

Schließlich besteht die große Gefahr von Cyberangriffen. Angreifer können Sicherheitslücken in Systemen der künstlichen Intelligenz ausnutzen, um Angriffe wie Hijacking, Angriffe, Blockierung und Beeinträchtigung des Lernens und der Vorhersage künstlicher Intelligenz usw. durchzuführen. Darüber hinaus können Angreifer auch Technologien der künstlichen Intelligenz nutzen, um Angriffe zu starten, z. B. mithilfe von Algorithmen für maschinelles Lernen, um auf Passwörter oder Verschlüsselungsschlüssel von Benutzern zu schließen.

Bild


Die Länder haben die Sicherheitsüberwachung durch künstliche Intelligenz verstärkt

Die Steuerung künstlicher Intelligenz hängt mit dem Schicksal der gesamten Menschheit zusammen und ist ein gemeinsames Problem, mit dem alle Länder der Welt konfrontiert sind. Seit diesem Jahr haben viele Länder und Organisationen auf der ganzen Welt Initiativen oder Vorschriften eingeführt, die einstimmig eine Stärkung der Sicherheitsüberwachung künstlicher Intelligenz fordern. Künstliche Intelligenz verabschiedet sich von der umfassenden Entwicklung und begrüßt eine Phase der Synchronisierung von Sicherheit und Entwicklung.

Bild

Am 1. November unterzeichneten 28 Länder beim ersten globalen Sicherheitsgipfel für künstliche Intelligenz (KI) gemeinsam die „Bletchley-Erklärung“ zur internationalen Governance der künstlichen Intelligenz. Dies ist die weltweit erste internationale Erklärung zur sich schnell entwickelnden Technologie der künstlichen Intelligenz. Erklärung . Die Erklärung ermutigt relevante Akteure, geeignete Maßnahmen wie Sicherheitstests, Bewertungen usw. zu ergreifen, um die potenziell schädlichen Fähigkeiten von KI und ihre möglichen Auswirkungen zu messen, zu überwachen und abzuschwächen und für Transparenz und Rechenschaftspflicht zu sorgen. Die Länder werden aufgefordert, risikobasierte Richtlinien zu entwickeln, einschließlich der Entwicklung geeigneter Bewertungsindikatoren, Sicherheitstesttools und der Entwicklung von Kapazitäten des öffentlichen Sektors und wissenschaftlicher Forschung. Und entschlossen, den Aufbau eines international integrativen Netzwerks für hochmoderne wissenschaftliche KI-Sicherheitsforschung zu unterstützen, das bestehende und neue multilaterale und bilaterale Kooperationsmechanismen einschließt und ergänzt und die Bereitstellung von Informationen für die Entscheidungsfindung und das öffentliche Interesse durch bestehende internationale Foren fördert andere relevante Initiativen. Beste Wissenschaft.

Am 30. Oktober veröffentlichte die Gruppe der Sieben (G7) den „Internationalen Verhaltenskodex für Organisationen, die fortschrittliche Systeme der künstlichen Intelligenz entwickeln“. Der Verhaltenskodex umfasst insgesamt 11 Punkte und betont die Maßnahmen, die während des Entwicklungsprozesses ergriffen werden sollten, um Vertrauenswürdigkeit und Sicherheit zu gewährleisten. Unter anderem müssen Entwickler Risiken identifizieren und mindern, einschließlich Red-Team-Tests, Tests und Abhilfemaßnahmen. Entwickler müssen auch Schwachstellen, Vorfälle und Missbrauchsmuster nach der Bereitstellung identifizieren und entschärfen, einschließlich der Überwachung von Schwachstellen und Vorfällen und der Erleichterung der Erkennung und Meldung von Problemen durch Dritte und Benutzer. Darüber hinaus betonen die Richtlinien die Bedeutung der Entwicklung und Bereitstellung zuverlässiger Mechanismen zur Authentifizierung und Herkunft von Inhalten, wie z. B. Wasserzeichen. Diese Maßnahmen werden dazu beitragen, die Sicherheit und Zuverlässigkeit künstlicher Intelligenzsysteme zu gewährleisten und das Vertrauen der Benutzer in sie zu stärken.

Ebenfalls am 30. Oktober erließ US-Präsident Biden offiziell die Executive Order „Safe, Reliable and Trustworthy Artificial Intelligence“, die erste Reihe von Regulierungsvorschriften des Weißen Hauses zur generativen künstlichen Intelligenz. Die Durchführungsverordnung verlangt von mehreren US-Regierungsbehörden, Standards zu entwickeln, Produkte der künstlichen Intelligenz zu testen, die besten Methoden zur Inhaltsüberprüfung wie „Wasserzeichen“ zu suchen, Cybersicherheitspläne zu entwickeln und technische Talente anzuziehen, um die Privatsphäre zu schützen und Fairness und Bürgerrechte zu fördern. Schützen Sie die Interessen von Verbrauchern und Arbeitnehmern zu stärken, Innovation und Wettbewerb zu fördern und den Führungsstatus der Vereinigten Staaten zu stärken. Gleichzeitig heißt es in der Durchführungsverordnung, dass US-Nutzer vor KI-Betrug und -Täuschung geschützt werden, indem Standards für die Erkennung von KI-generierten Inhalten und die Zertifizierung offizieller Inhalte festgelegt werden.

Am 18. Oktober veröffentlichte die Cyberspace Administration of China die Global Artificial Intelligence Governance Initiative. Zu den spezifischen Maßnahmen gehören die Förderung der Einrichtung eines Systems zur Prüfung und Bewertung des Risikoniveaus, die Implementierung einer agilen Governance, eines klassifizierten und hierarchischen Managements sowie einer schnellen und effektiven Reaktion. Forschungs- und Entwicklungseinrichtungen müssen die Interpretierbarkeit und Vorhersagbarkeit künstlicher Intelligenz verbessern, die Authentizität und Genauigkeit von Daten verbessern, sicherstellen, dass künstliche Intelligenz immer unter menschlicher Kontrolle steht, und Technologien für künstliche Intelligenz entwickeln, die überprüfbar, überwacht, nachvollziehbar und vertrauenswürdig sind. Gleichzeitig sollten wir die Entwicklung und Anwendung verwandter Technologien für die Governance künstlicher Intelligenz aktiv weiterentwickeln und den Einsatz künstlicher Intelligenztechnologie unterstützen, um Risiken vorzubeugen und die Governance-Fähigkeiten zu verbessern. Darüber hinaus legt die Initiative Wert auf die schrittweise Einführung und Verbesserung von Gesetzen und Vorschriften, um die Privatsphäre und Datensicherheit bei der Forschung, Entwicklung und Anwendung künstlicher Intelligenz zu gewährleisten und der illegalen Erhebung, dem Diebstahl, der Manipulation und der Weitergabe personenbezogener Daten entgegenzuwirken.

Am 13. Juli kündigten die Cyberspace Administration of China und relevante nationale Ministerien die „Interim Measures for the Management of Generative Artificial Intelligence Services“ an. Wer generative künstliche Intelligenzdienste mit Merkmalen der öffentlichen Meinung oder Fähigkeiten zur sozialen Mobilisierung benötigt, sollte Sicherheitsbewertungen gemäß den einschlägigen nationalen Vorschriften durchführen und Verfahren zur Einreichung von Algorithmen sowie zur Einreichung von Änderungen und Löschungen gemäß den „Regulations on the Management of Algorithm Recommendations for Internet Information“ durchführen Dienstleistungen".

Im Juni dieses Jahres verabschiedete das Europäische Parlament den Genehmigungsentwurf des EU-Gesetzes zur künstlichen Intelligenz. Wenn der Gesetzentwurf offiziell angenommen wird, wird es die weltweit erste KI-Verordnung sein. Der Gesetzentwurf klassifiziert KI-Systeme basierend auf dem Risikoniveau in vier Klassifizierungen, von minimal bis inakzeptabel. Unter anderem erfordert „technische Robustheit und Sicherheit“, dass Systeme mit künstlicher Intelligenz zufällige Schäden während der Entwicklung und Nutzung minimieren und über die robuste Fähigkeit verfügen, auf unerwartete Probleme zu reagieren, um zu verhindern, dass böswillige Dritte das System illegal nutzen oder die Art und Weise seiner Nutzung ändern Leistungsverhalten. Darüber hinaus verbietet der Gesetzentwurf die Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken durch die ungezielte Extraktion von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen sowie den Einsatz solcher Methoden, um Systeme der künstlichen Intelligenz auf den Markt zu bringen, in Betrieb zu nehmen oder zu nutzen . Für generative KI-Systeme, die auf diesen Modellen basieren, fordert der Gesetzentwurf die Einhaltung von Transparenzanforderungen, das heißt, sie müssen offenlegen, dass die Inhalte durch das KI-System generiert wurden, und sicherstellen, dass die Generierung illegaler Inhalte verhindert wird. Darüber hinaus müssen bei der Verwendung urheberrechtlich geschützter Trainingsdaten detaillierte Zusammenfassungen dieser Daten veröffentlicht werden.

Darüber hinaus entbrannte Ende Oktober unter Wissenschaftlern wie Turing-Preisträgern und den „Großen Drei der Künstlichen Intelligenz“ eine heftige Debatte über die Kontrolle künstlicher Intelligenz. 24 chinesische und ausländische Wissenschaftler auf dem Gebiet der künstlichen Intelligenz unterzeichneten eine Erklärung, in der sie strengere Kontrollen für die Technologie der künstlichen Intelligenz forderten. Richten Sie eine internationale Regulierungsbehörde ein, verlangen Sie, dass fortschrittliche Systeme der künstlichen Intelligenz einer obligatorischen Registrierung und Überprüfung unterzogen werden, führen Sie Verfahren zur sofortigen „Abschaltung“ ein und verlangen Sie von Entwicklungsunternehmen, dass sie 30 % ihres Forschungsbudgets für die Sicherheit künstlicher Intelligenz aufwenden.

Bild


Betreuungsvorschläge konzentrieren sich hauptsächlich auf sechs Aspekte

Obwohl es Unterschiede in den Regulierungsprioritäten und heftige Debatten zwischen der akademischen Gemeinschaft der künstlichen Intelligenz und der Industrie gibt, haben sich Regierungen auf der ganzen Welt im Wesentlichen über ihre Haltung zur Stärkung der Aufsicht über künstliche Intelligenz geeinigt. Derzeit konzentriert sich die Aufsicht über künstliche Intelligenz hauptsächlich auf sechs Aspekte: Sicherheitstests und -bewertung, Inhaltszertifizierung und Wasserzeichen, Verhinderung von Informationsmissbrauch, erzwungene Schließung von Programmen, unabhängige Regulierungsbehörden sowie Risikoidentifizierung und Sicherheitsgarantie.

Sicherheitstests und -bewertung: Erfordern Sie Sicherheitstests und -bewertungen von KI-Systemen, um potenziell schädliche Fähigkeiten zu messen, zu überwachen und abzuschwächen sowie Transparenz und Rechenschaftspflicht zu gewährleisten. Entwickler müssen Sicherheitstestergebnisse und andere wichtige Informationen mit der Regierung teilen, um sicherzustellen, dass das System vor der Veröffentlichung sicher und zuverlässig ist.

Inhaltsauthentifizierung und Wasserzeichen: Legen Sie Standards für die Erkennung von KI-generierten Inhalten und die Authentifizierung offizieller Inhalte fest, um Benutzer vor KI-Betrug und Täuschung zu schützen. Betonen Sie die Entwicklung und Bereitstellung zuverlässiger Inhaltsauthentifizierungs- und Herkunftsmechanismen wie Wasserzeichen.

Gesichtssicherheit gewährleisten: Gesichter sind wichtige private Daten für künstliche Intelligenz und eine wichtige Anwendungsausgabe. Besonders wichtig ist die Verhinderung von Missbrauch. Der Aufbau oder die Erweiterung von Gesichtserkennungsdatenbanken durch die ungezielte Extraktion von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen ist verboten. Fordern Sie bei generativen KI-Systemen die Einhaltung von Transparenzanforderungen, um offenzulegen, wie Inhalte generiert werden, und um die Generierung illegaler Inhalte zu verhindern.

Risikoerkennung und Sicherheitsgewährleistung: Künstliche Intelligenzsysteme müssen robust und sicher sein, versehentliche Schäden minimieren und in der Lage sein, Probleme und böswillige Nutzung zu bewältigen. Entwickler müssen Schwachstellen, Vorfälle und Missbrauchsmuster nach der Bereitstellung identifizieren und entschärfen, einschließlich der Überwachung von Schwachstellen und Vorfällen und der Erleichterung der Erkennung und Meldung von Problemen durch Benutzer und Dritte.

Erzwungenes Herunterfahren festlegen: Einführung einer Funktion zum sofortigen Herunterfahren mit einem Klick, um den unerwarteten oder böswilligen Einsatz von Programmen mit künstlicher Intelligenz zu verhindern.

Einrichtung einer unabhängigen dreigliedrigen Agentur: Förderung der Einrichtung eines internationalen und integrativen Netzwerks für hochmoderne KI-Sicherheitsforschung, Einrichtung einer internationalen Regulierungsbehörde und Einführung einer obligatorischen Registrierung und Überprüfung fortschrittlicher Systeme der künstlichen Intelligenz.

Bild


Technologie verbessert die Sicherheit künstlicher Intelligenz

Basierend auf dem aktuellen Stand der Risiken durch künstliche Intelligenz und den Sicherheitsüberwachungsanforderungen verschiedener Länder bietet Dingxiang vier Sicherheitsfunktionen: Sicherheitserkennung durch künstliche Intelligenz, Sicherheitsintelligenz, Sicherheitsverteidigung und Gesichtssicherheitssicherung.

Sicherheitstests für Systeme mit künstlicher Intelligenz : Führen Sie umfassende Sicherheitstests für Anwendungen, Produkte und Apps mit künstlicher Intelligenz durch, identifizieren und erkennen Sie potenzielle Sicherheitslücken und bieten Sie zeitnahe Reparaturvorschläge an. Durch diesen Erkennungsmechanismus kann verhindert werden, dass Angreifer Sicherheitslücken für böswillige Angriffe ausnutzen.

Bedrohungsinformationen mit künstlicher Intelligenz : Dingxiang Defense Cloud Business Security Intelligence bietet vielschichtige und aus mehreren Blickwinkeln bestehende Angriffsinformationen mit künstlicher Intelligenz und kombiniert Technologie und Expertenerfahrung, um die Bedrohungsmethoden von Angreifern umfassend vorherzusagen. Helfen Sie Unternehmen, schnell zu reagieren und eine präzise Kontrolle bereitzustellen, um ihre Systeme der künstlichen Intelligenz vor potenziellen Bedrohungen zu schützen.

Vollständiger Sicherheitsschutz : Verwenden Sie die Dingxiang Defense Cloud, um Anwendungen, Apps und Geräte mit künstlicher Intelligenz zu verstärken und zu verschleiern, um deren Sicherheit zu verbessern. Gleichzeitig kann die Verschleierung und Verschlüsselung der Datenkommunikationsübertragung mit künstlicher Intelligenz Probleme wie Abhören, Manipulation und betrügerische Nutzung während des Informationsübertragungsprozesses verhindern. Darüber hinaus kann mit Hilfe der Dinsigh-Risikokontroll-Entscheidungsmaschine von Dingxiang die Geräteumgebung umfassend erkannt, verschiedene Risiken und abnormale Vorgänge in Echtzeit erkannt und die allgemeine Sicherheit verbessert werden. Darüber hinaus kann die Xintell-Modellierungsplattform von Dingxiang strategische Unterstützung für die Sicherheit künstlicher Intelligenz bieten und potenzielle Risiken und unbekannte Bedrohungen zeitnah erkennen.

Bild

Gesichtsanwendungssicherheitsschutz : Die Dingxiang-Plattform für Sicherheitsbewusstsein und -verteidigung für Unternehmen basiert auf fortschrittlichen Technologien wie Bedrohungsprüfungen, Stream Computing und maschinellem Lernen und integriert Geräterisikoanalyse, Identifizierung betrieblicher Angriffe, Erkennung abnormalen Verhaltens, Frühwarnung und Schutzbehandlung Eine aktive Sicherheitsverteidigung Die Plattform kann böswillige Verhaltensweisen wie Kameradiebstahl und Gerätefälschung in Echtzeit erkennen und verschiedene Gesichtsanwendungsrisiken wirksam verhindern und kontrollieren. Es verfügt über die Merkmale Bedrohungsvisualisierung, Bedrohungsrückverfolgbarkeit, Gerätekorrelationsanalyse, Multi-Account-Management, plattformübergreifende Unterstützung, aktive Verteidigung, offener Datenzugriff, Verteidigungsanpassung sowie vollständige Prozessprävention und -kontrolle.

Durch die vierschichtigen Sicherheitsfunktionen von Dingxiang können Unternehmen ihre Systeme der künstlichen Intelligenz besser vor Sicherheitsrisiken und Angriffen schützen, die Sicherheit von Anwendungen der künstlichen Intelligenz verbessern und die Sicherheitsvorschriften verschiedener Länder erfüllen.

Supongo que te gusta

Origin blog.csdn.net/dingxiangtech/article/details/134336763
Recomendado
Clasificación