Wenn Sie sich nicht dem neuesten Stand der künstlichen Intelligenz verschrieben haben, haben Sie möglicherweise noch nie den Begriff “Verbundlernen” gehört. Obwohl es möglicherweise nicht so prominent ist wie andere Tech-Trends wie 3D-Druck oder Drohnen, Ihre Auswirkungen auf die Privatsphäre und das maschinelle Lernen könnten zu einer weitaus stärkeren Nutzung führen in den kommenden Jahren.
Die kurze und einfache Version besagt, dass föderiertes Lernen ein alternatives Modell zur Verbesserung der Algorithmen ist, die heute viele Aspekte unseres Lebens beherrschen, sei es der News Feed von Facebook oder Google Maps. Im herkömmlichen System werden unsere Daten an einen zentralen Server gesendet, wo sie analysiert und die relevanten Informationen zur Änderung des Algorithmus verwendet werden.
Föderiertes Lernen bietet eine Lösung, die die Privatsphäre der Benutzer verbessert, weil Der Großteil der persönlichen Daten verbleibt auf dem Gerät einer Person. Algorithmen trainieren sich direkt auf Benutzergeräten und senden nur die relevanten Datenzusammenfassungen und nicht die Daten als Ganzes zurück. Auf diese Weise können Unternehmen ihre Algorithmen verbessern, ohne alle Benutzerdaten erfassen zu müssen. Dies bietet eine datenschutzorientiertere Lösung.
Was ist föderiertes Lernen??
Lügen wir nicht, für die meisten Menschen können die Tiefen des föderierten Lernens komplex und schwer zu verstehen sein. Das Gebiet der KI liegt weit außerhalb des Wissensbereichs vieler Menschen und beinhaltet weitaus mehr Mathematik und Logik, als die meisten von uns gewohnt sind.
Trotz dieser Schwierigkeiten ist föderiertes Lernen eine interessante und wichtige technische Entwicklung. Es lohnt sich also, sich ein Bild davon zu machen. Um die Sache zu vereinfachen, werden wir die Konzepte aufschlüsseln und auf vereinfachte Weise erklären, damit Sie das Gesamtbild verstehen können.
Maschinelles Lernen und Algorithmen
Wenn Sie Ihre Tage nicht mit dem Cosplay der 1930er Jahre verbringen, ist Ihr Leben voller Algorithmen. In diesem Zusammenhang meinen wir, wenn wir uns auf Algorithmen beziehen, im Wesentlichen Formeln oder Sätze von Anweisungen, die verwendet werden, um ein Problem herauszufinden oder ein gewünschtes Ergebnis zu berechnen.
Facebook, Instagram und Twitter verwenden sie, um personalisierte Inhalte bereitzustellen, die Sie höchstwahrscheinlich interessieren, und um den Plattformen mehr Geld zu bringen. Die Google-Suchmaschine verwendet ausgefeilte Algorithmen, um Ihre Suchbegriffe in Seiten umzuwandeln, die Ihrer Meinung nach genau das sind, wonach Sie suchen. Ihre E-Mail filtert Spam mit Algorithmen heraus, während Waze mithilfe von Algorithmen herausfindet, wie Sie am effektivsten von Punkt A zu Punkt B gelangen.
Es gibt unzählige andere Algorithmen, die uns helfen, Aufgaben zu erledigen, uns zu beschäftigen oder unter der Haube alltäglicher Prozesse zu lauern.
Firmen sind Wir sind ständig bemüht, diese Algorithmen zu verbessern, um Ihnen die effektivsten, genauesten und effizientesten Ergebnisse zu liefern, solange dies mit den eigenen Zielen des Unternehmens in Einklang steht – normalerweise um Geld zu verdienen.
Viele unserer am häufigsten verwendeten Algorithmen haben seit ihrer erstmaligen Bereitstellung einen langen Weg zurückgelegt. Denken Sie an die Suche in Google in den späten Neunzigern oder frühen 2000ern zurück – Sie mussten unglaublich spezifisch sein, und die Ergebnisse waren im Vergleich zu heute schrecklich.
Wie verbessern sich diese Algorithmen??
Ein wesentlicher Teil dessen, wie Algorithmen ihre Aufgaben verbessern, ist das maschinelle Lernen, ein Teilgebiet der künstlichen Intelligenz. Algorithmen für maschinelles Lernen beginnen mit der Entnahme und Analyse einer Datenprobe mit dem, was sie gelernt haben, Aufgaben effektiver zu erledigen. Sie sind in der Lage, sich zu verbessern, ohne dass diese Änderungen von einer externen Kraft wie einem menschlichen Entwickler programmiert werden müssen.
Das maschinelle Lernen boomte in den letzten Jahrzehnten und verbesserte unsere Algorithmen, um bessere Ergebnisse zu erzielen und neue Bereiche zu erschließen. Wegen seiner Nützlichkeit war es auch ein großer Geldverdiener für Unternehmen wie Facebook, Google und viele andere.
Alles beginnt mit Daten – je größer der Datenpool und je mehr hochwertige Datenpunkte vorhanden sind, Je genauer diese Algorithmen für maschinelles Lernen sein können. Je effektiver ein Algorithmus ist, desto mehr Geld kann er verdienen, was Daten im Wesentlichen zu einer Ware gemacht hat.
Diese Umstände haben zu einer massiven Ausweitung der Datenmenge geführt, die über Personen gesammelt wird. Zum größten Teil werden diese Daten von den Telefonen, Computern und anderen Bereichen der Benutzer gesammelt und dann an einen Server gesendet, auf dem sie analysiert werden, um den Algorithmus zu verbessern. Während dies hat Oft führte dies zu besseren Diensten und mehr Komfort, und auch diejenigen, die sich Sorgen um ihre Privatsphäre machen, mussten erhebliche Rückschläge hinnehmen.
Diese Unternehmen kennen Ihren Standort zu jeder Zeit, wissen, mit wem Sie befreundet sind, kennen Ihren gesamten Suchverlauf und vieles mehr. Sicher, es gibt Möglichkeiten, diese Art der Datenerfassung zu vermeiden, aber die Techniken sind im Allgemeinen für die meisten Menschen zu unpraktisch, um sich darum zu kümmern.
Inmitten einer Reihe von Datenschutzskandalen, wie dem Cambridge Analytica-Fiasko von Facebook und der massiven Datenschutzverletzung von Google +, bemerken Unternehmen dies zunehmend. Sie wollen nicht usurpiert werden und scheinen nach Wegen zu suchen, um ihre Ziele weiter voranzutreiben, ohne den Zorn ihrer Benutzer oder Gesetzgeber zu erregen. Vielleicht war der Wendepunkt, als Mark Zuckerberg auf der diesjährigen F8-Konferenz verkündete, dass die Zukunft privat ist.
Während es wahrscheinlich am besten ist, diese Bewegung mit Skepsis zu betrachten, gab es einige positive Entwicklungen in Bezug auf die Privatsphäre der Benutzer, von denen eine föderiertes Lernen ist.
Föderiertes Lernen
Warum senden wir den Algorithmus nicht an die Daten, anstatt Daten von Benutzergeräten auf unseren Server zu übertragen??
Dies ist das Kernkonzept des Verbundlernens. Der Begriff wurde in einem von Google-Mitarbeitern veröffentlichten Artikel aus dem Jahr 2016 geprägt, und das Unternehmen ist weiterhin führend auf diesem Gebiet.
Der föderierte Lernprozess.
Föderiertes Lernen verbessert Algorithmen, indem die aktuelle Version eines Algorithmus an berechtigte Geräte gesendet wird. Dieses Modell des Algorithmus lernt dann aus den privaten Daten auf den Telefonen einer ausgewählten Gruppe von Benutzern. Am Ende wird eine Zusammenfassung des neuen Wissens an den Server des Unternehmens zurückgesendet – die Daten selbst verlassen das Telefon nie.
Aus Sicherheitsgründen wird dieses Wissen im Allgemeinen auf dem Rückweg zum Server verschlüsselt. Um zu verhindern, dass der Server anhand der erhaltenen Zusammenfassung einzelne Daten ermitteln kann, hat Google die entwickelt Sichere Aggregation Protokoll.
Dieses Protokoll Verwendet Kryptografie, um zu verhindern, dass der Server auf die einzelnen Informationszusammenfassungen zugreift. Nach diesem Schema kann der Server nur auf die Zusammenfassung zugreifen, nachdem sie zu den Ergebnissen von Hunderten oder Tausenden anderer Benutzer hinzugefügt und aus diesen gemittelt wurde.
Alternative, Differential Privacy kann verwendet werden, um zufälliges Datenrauschen hinzuzufügen Zusammenfassung einer Person, die die Ergebnisse verdeckt. Diese zufälligen Daten werden hinzugefügt, bevor die Zusammenfassung an den Server gesendet wird. Auf diese Weise erhält der Server ein Ergebnis, das für das algorithmische Training genau genug ist, ohne dass die tatsächlichen Zusammenfassungsdaten an ihn weitergegeben werden. Dies schützt die Privatsphäre des Einzelnen.
Techniken wie das Secure Aggregation-Protokoll und der unterschiedliche Datenschutz sind für den Schutz der Benutzerinformationen sowohl vor dem Unternehmen als auch vor Hackern von entscheidender Bedeutung. Ohne sie könnte föderiertes Lernen die Privatsphäre der Benutzer nicht gewährleisten.
Sobald die Informationszusammenfassungen sicher an den Server gesendet wurden, werden sie zum Aktualisieren des Algorithmus verwendet. Der Vorgang wird tausende Male wiederholt, und Testversionen des Algorithmus werden auch an verschiedene Benutzergeräte gesendet. Auf diese Weise können Unternehmen neue Versionen von Algorithmen anhand von realen Benutzerdaten bewerten. Da die Analyse auf Benutzergeräten ausgeführt wird, können Algorithmen getestet werden, ohne dass Benutzerdaten auf einem zentralen Server zusammengefasst werden müssen.
Nach Abschluss der Tests wird das aktualisierte Algorithmusmodell an die Benutzergeräte gesendet, um das alte zu ersetzen. Der erweiterte Algorithmus wird dann in seinen normalen Aufgaben verwendet. Wenn alles nach Plan gelaufen ist, können die Ergebnisse effektiver und genauer erzielt werden.
Der ganze Zyklus wiederholt sich dann immer wieder:
- Der neue Algorithmus untersucht die Daten auf ausgewählten Benutzergeräten.
- Es sendet sicher Zusammenfassungen dieser Benutzerdaten an den Server.
- Diese Daten werden dann mit Ergebnissen anderer Benutzer gemittelt.
- Der Algorithmus lernt aus diesen Informationen, erstellt Aktualisierungen und testet sie.
- Eine weiterentwickelte Version des Algorithmus wird den Benutzern zur Verfügung gestellt.
Mit der Zeit lernt der Algorithmus aus Benutzerdaten und verbessert sich kontinuierlich, ohne dass die Daten jemals auf Unternehmensservern gespeichert werden müssen. Wenn Sie immer noch Probleme haben, sich mit der Funktionsweise von Föderiertem Lernen auseinanderzusetzen, hat Google diesen Cartoon veröffentlicht, in dem Sie den Ansatz von Föderiertem Lernen auf einfache Weise erläutern und veranschaulichen können.
Weitere Vorteile des Verbundlernens
Das föderierte Lernmodell bietet Benutzern neben dem Datenschutz noch weitere Vorteile. Anstatt ständig Daten mit dem Server zu teilen, Der Lernprozess kann durchgeführt werden, wenn ein Gerät aufgeladen wird, mit dem WLAN verbunden ist und nicht verwendet wird, Minimierung der Unannehmlichkeiten für die Benutzer.
Dies bedeutet, dass Benutzer unterwegs keine wertvollen Daten oder Akkus verschwenden. Da beim föderierten Lernen nur eine Zusammenfassung der relevanten Daten und nicht die Daten selbst übertragen werden, werden insgesamt weniger Daten übertragen als bei herkömmlichen Lernmodellen.
Föderiertes Lernen kann auch globale und personalisierte algorithmische Modelle liefern. Es kann Erkenntnisse aus einer breiteren Gruppe von Benutzern gewinnen und diese mit Informationen des einzelnen Benutzers kombinieren, um ein effektiveres Modell zu liefern, das ihren individuellen Anforderungen entspricht.
Anwendungen des föderierten Lernens
Föderiertes Lernen bietet eine Vielzahl potenzieller Anwendungsfälle, insbesondere in Situationen, in denen Datenschutzprobleme überschneiden sich mit der Notwendigkeit, Algorithmen zu verbessern. Derzeit wurden die bekanntesten Verbundlernprojekte auf Smartphones durchgeführt, aber die gleichen Techniken können auf Computer und IoT-Geräte wie autonome Fahrzeuge angewendet werden.
Einige der vorhandenen und potenziellen Verwendungen umfassen:
Google Gboard
Der erste groß angelegte Einsatz von föderiertem Lernen in der realen Welt war Teil von Googles Tastaturanwendung Gboard. Das Unternehmen wollte die Technik nutzen, um Wortvorschläge zu verbessern, ohne die Privatsphäre der Benutzer zu beeinträchtigen.
Nach dem alten Ansatz des maschinellen Lernens wäre die Entwicklung besserer Tastaturvorhersagen enorm invasiv gewesen – alles, was wir eingegeben haben, all unsere privaten Nachrichten und seltsamen Google-Suchen müssten zur Analyse an einen zentralen Server gesendet worden sein, und wer weiß, was die Daten sonst noch sind hätte verwendet werden können für.
Zum Glück entschied sich Google stattdessen für die föderierte Lernmethode. Da das algorithmische Modell auf Benutzergeräten abgelegt ist, kann es aus den eingegebenen Wörtern lernen, die Schlüsselinformationen zusammenfassen und dann an den Server zurücksenden. Diese Zusammenfassungen werden dann verwendet, um die Texterkennungsfunktion von Google zu verbessern, die dann getestet und an die Nutzer verteilt wird.
Die neue Version des Algorithmus bietet dank der Erkenntnisse aus dem Prozess eine verbesserte Erfahrung, und der Zyklus wiederholt sich. Auf diese Weise können Benutzer ihre Tastaturvorschläge kontinuierlich verbessern, ohne ihre Privatsphäre gefährden zu müssen.
Gesundheitswesen
Datenschutz und Sicherheit sind in der Gesundheitsbranche unglaublich komplex. Viele Unternehmen verfügen über erhebliche Mengen an sensiblen und wertvollen Patientendaten, die auch von Hackern sehr gesucht werden.
Niemand möchte, dass eine peinliche Diagnose an die Öffentlichkeit gelangt. Die Fülle der in diesen Repositories enthaltenen Daten ist äußerst nützlich für Betrug wie Identitätsdiebstahl und Versicherungsbetrug. Aufgrund der großen Datenmengen und der enormen Risiken für die Gesundheitsbranche, Die meisten Länder haben strenge Gesetze zur Verwaltung von Gesundheitsdaten erlassen, wie die HIPAA-Vorschriften der USA.
Diese Gesetze sind recht restriktiv und mit erheblichen Strafen verbunden, wenn eine Organisation gegen sie verstößt. Dies ist im Allgemeinen eine gute Sache für Patienten, die befürchten, dass ihre Daten falsch behandelt werden. jedoch, Diese Art von Gesetzgebung erschwert es auch, bestimmte Arten von Daten in Studien zu verwenden, die zu neuen medizinischen Durchbrüchen führen könnten.
Aufgrund dieser komplexen rechtlichen Situation recherchieren Organisationen wie Owkin und Intel Wie föderiertes Lernen genutzt werden kann, um die Privatsphäre der Patienten zu schützen und gleichzeitig die Daten zu nutzen.
Owkin arbeitet an einer Plattform, die verwendet föderiertes Lernen, um Patientendaten zu schützen In Experimenten zur Bestimmung der Arzneimitteltoxizität wird die Krankheitsentwicklung vorhergesagt und auch die Überlebensrate für seltene Krebsarten geschätzt.
Im Jahr 2023 arbeitete Intel mit dem Center for Biomedical Image Computing and Analytics der University of Pennsylvania zusammen, um zu demonstrieren, wie föderiertes Lernen als Proof-of-Concept auf die medizinische Bildgebung angewendet werden kann.
Die Zusammenarbeit ergab, dass unter einem föderierten Lernansatz das jeweilige Deep-Learning-Modell trainiert werden könnte 99 Prozent so genau wie das gleiche Modell, das mit herkömmlichen Methoden trainiert wurde.
Autonome Fahrzeuge
Föderiertes Lernen kann für selbstfahrende Fahrzeuge in zweierlei Hinsicht nützlich sein. Das erste ist, dass es die Privatsphäre der Benutzerdaten schützen könnte – viele Menschen mögen es nicht, wenn ihre Reisedaten und andere Fahrinformationen auf einen zentralen Server hochgeladen und analysiert werden. Föderiertes Lernen könnte die Privatsphäre der Benutzer verbessern, indem nur die Algorithmen mit Zusammenfassungen dieser Daten aktualisiert werden, anstatt alle Benutzerinformationen.
Der andere Hauptgrund für die Einführung eines föderierten Lernansatzes besteht darin, dass die Latenz potenziell verringert werden kann. In einem wahrscheinlichen zukünftigen Szenario, in dem sich eine große Anzahl selbstfahrender Autos auf unseren Straßen befindet, müssen sie in der Lage sein, bei Sicherheitsvorfällen schnell aufeinander zu reagieren.
Herkömmliches Cloud-Lernen beinhaltet große Datenübertragungen und ein langsameres Lerntempo Föderiertes Lernen könnte es autonomen Fahrzeugen ermöglichen, schneller und genauer zu handeln, Unfälle zu reduzieren und die Sicherheit zu erhöhen.
Einhaltung der Vorschriften
Föderiertes Lernen kann Organisationen auch dabei helfen, ihre Algorithmusmodelle zu verbessern, ohne Patientendaten preiszugeben oder auf der falschen Seite der Vorschriften zu landen. Gesetze wie die europäische Datenschutz-Grundverordnung (GDPR) und das US-amerikanische Gesetz über die Portabilität von Krankenversicherungen (Health Insurance Portability Act) von 1996 enthalten strenge Vorschriften über die Daten von Personen und deren Verwendung.
Diese Gesetze sind im Allgemeinen vorhanden, um die Privatsphäre von Einzelpersonen zu schützen, was bedeutet, dass föderiertes Lernen potenziell neue Möglichkeiten eröffnen kann, wenn es möglich ist Lernen Sie aus den Daten und bewahren Sie sie trotzdem sicher auf und innerhalb der behördlichen Richtlinien.
Die Sicherheit und Privatsphäre von föderiertem Lernen
Föderiertes Lernen eröffnet eine Welt neuer Möglichkeiten, um Modelle des maschinellen Lernens zu trainieren, ohne den Datenschutz zu gefährden. Es muss jedoch sorgfältig implementiert werden, um Sicherheitsprobleme und die Möglichkeit der Offenlegung von Benutzerdaten zu verringern.
Einige der Hauptprobleme sowie ihre möglichen Lösungen umfassen:
Abfangen von Benutzerdaten-Zusammenfassungen
Die Gewährleistung eines angemessenen Datenschutzes und einer angemessenen Sicherheit erfordert im Allgemeinen eine Kombination verschiedener Technologien und Richtlinien. Föderiertes Lernen bietet uns zwar neue Möglichkeiten zum Schutz von Daten, muss jedoch neben komplementären Mechanismen implementiert werden.
Ein Beispiel für eine potenzielle Schwachstelle ist, dass beim Senden von Datenzusammenfassungen von Benutzern vom Gerät an den zentralen Server diese von Hackern abgefangen werden können, die sie zum Herausfinden der ursprünglichen Daten verwenden können.
Zum Glück hat dieses Problem eine relativ einfache Lösung, die wir bereits in vielen Bereichen der Informationssicherheit implementieren – wir müssen die Daten lediglich mit dem entsprechenden Algorithmus verschlüsseln, wenn sie zwischen den beiden Punkten übertragen werden.
Herausfinden der Originaldaten aus Benutzerzusammenfassungen
In bestimmten Szenarien können die Zusammenfassungen der Benutzerdaten verwendet werden, um die ursprünglichen Informationen zu ermitteln. Wenn eine böswillige Partei über die API Abfragen an das Modell sendet, können die Daten möglicherweise rekonstruiert werden, obwohl dies für das föderierte Lernen kein eindeutiges Problem darstellt.
Wenn Angreifer oder Organisationen, denen die Server gehören, die ursprünglichen Benutzerdaten auf diese Weise ermitteln könnten, wäre dies vollständig den Zweck der Implementierung von föderiertem Lernen zunichte machen. Es gibt zwei wichtige Mechanismen, die neben dem föderierten Lernen eingesetzt werden können, um dies zu verhindern: das Secure Aggregation-Protokoll von Google und die unterschiedlichen Datenschutzbestimmungen.
Das Secure Aggregation-Protokoll Verwendet die Mehrparteienberechnung, um den Durchschnitt einer Gruppe von Benutzerdatenzusammenfassungen zu berechnen, ohne die Datenzusammenfassungen einer einzelnen Person dem Server oder einer anderen Partei preiszugeben.
Bei diesem System werden alle Benutzerzusammenfassungen verschlüsselt, bevor sie das Gerät des Benutzers verlassen. Sie können vom Server erst entschlüsselt werden, wenn sie zusammengefügt und mit einer festgelegten Anzahl anderer Benutzerzusammenfassungen gemittelt wurden. Auf diese Weise kann der Server sein Modell auf Basis des Benutzerdurchschnitts trainieren, ohne einzelne Zusammenfassungen anzuzeigen, mit denen die privaten Daten einer Person ermittelt werden können.
Durch die sichere Aggregation wird nicht nur verhindert, dass der Server auf die Benutzerzusammenfassungen zugreift, sondern auch der Mann in der Mitte Angriffe viel schwieriger.
Die andere Option ist differenzierte Privatsphäre, Dies umfasst eine Vielzahl verwandter Techniken, bei denen den Daten eine bestimmte Menge an Rauschen hinzugefügt wird. Die Grundvoraussetzung für den Datenschutzunterschied ist, dass Abfragen bei der Datenbank keine Aufschluss darüber geben sollten, ob eine Person in die Daten aufgenommen wurde oder welche Informationen sie enthielten, damit die Daten eines Benutzers vertraulich bleiben.
Um zu verhindern, dass Abfragen diese Informationen anzeigen, können verschiedene Optionen verwendet werden, um den Daten Rauschen hinzuzufügen. Dieses Datenrauschen wird hinzugefügt, bevor es das Gerät eines Benutzers verlässt, wodurch sowohl der Server als auch die Angreifer daran gehindert werden, auf die Updates in ihrer ursprünglichen Form zuzugreifen.
Modellvergiftung
Föderiertes Lernen eröffnet den Gegnern die Möglichkeit, das algorithmische Modell zu „vergiften“. Im Wesentlichen bedeutet dies, dass Ein böswilliger Akteur kann das Modell beschädigen durch ihr eigenes Gerät oder durch die Übernahme der Geräte anderer Parteien, die an der Schulung des algorithmischen Modells beteiligt sind.
Diese Angriffe wurden von Bagdasaryan et al. in ihren Föderiertes Lernen durch Hintertüren Papier. Bei einem föderierten Lernmodell kann der Angreifer einen oder mehrere Teilnehmer übernehmen.
In bestimmten Szenarien, Es ist ihnen möglich, die Daten jedes Teilnehmers zu kontrollieren, den sie übernommen haben, um zu ändern, wie diese Daten lokal trainiert werden, um die Hyperparameter wie die Lernrate und die Gewichtung des einzelnen Modells zu ändern (bevor sie zur Aggregation an den Server gesendet werden). Es ist auch möglich, die Herangehensweise jedes Teilnehmers an lokales Training von einer Runde zur anderen zu ändern.
Mit diesen Fähigkeiten können Angreifer Hintertüren einschleusen, mit denen Algorithmen an ihre eigenen Ziele angepasst werden können. Zahlen aus der Studie zufolge war die Vergiftung des Modells weitaus wirksamer als andere Datenvergiftungsangriffe.
Bei einer Wortvorhersage-Aufgabe mit 80.000 Teilnehmern konnten die Forscher eine Backdoor-Genauigkeit von 50 Prozent erreichen, indem sie nur acht der Teilnehmer gefährdeten. Um den gleichen Effekt durch Vergiftung der Daten zu erzielen, hätten die Forscher 400 Teilnehmer gefährden müssen.
Eines der größten Probleme ergibt sich aus der Tatsache, dass föderiertes Lernen und das Secure Aggregation-Protokoll darauf abzielen, Benutzerdaten geheim zu halten. Bei korrekter Implementierung kann der Server auf diese Weise keine Anomalien in den Zusammenfassungen einzelner Benutzer erkennen.
Wie oben erwähnt, ermöglicht das Secure Aggregation-Protokoll den Zugriff auf Benutzerzusammenfassungen erst, nachdem sie zusammen mit anderen Benutzerdaten hinzugefügt wurden. Da Zusammenfassungen nicht einzeln gescreent werden können, ist es unmöglich, darin enthaltene Anomalien zu erkennen, sodass Modellvergiftungsangriffe die perfekte Art sind, sich einzuschleichen.
Zu diesem Zeitpunkt müssen diese Angriffe und ihre möglichen Abwehrkräfte eingehender untersucht werden.
Das Modell privat halten
Anspruchsvolle algorithmische Modelle können Millionen wert sein, was sie zu einem Ziel für Diebe macht. Sie können damit auf die gleiche Weise Geld verdienen wie die Unternehmen, die hinter den Algorithmen stehen, oder sie sogar für illegale Zwecke einsetzen. Dies würde nicht nur die Diebe davor bewahren, die enormen Mittel in den Bau des Modells zu investieren, sondern könnte auch das Original entwerten.
Unternehmen müssen ihr geistiges Eigentum schützen, und es scheint, als würde das Modell direkt an die Geräte der Benutzer gesendet Dies könnte leicht dazu führen, dass diese Modelle jedem ausgesetzt werden, der sie nehmen möchte. Es gibt jedoch Lösungen, mit denen Unternehmen ihre algorithmischen Modelle schützen können.
Eine davon ist zu Nutzen Sie die geheime gemeinsame Nutzung von Mehrparteienberechnungen. Auf diese Weise können Unternehmen die Modellgewichtung verschleiern, indem sie Fragmente auf Geräte verteilen. Bei diesem System kann keine der geheimen Beteiligten das gesamte Modell kennen.
Auf diese Weise können Unternehmen ihre algorithmischen Trainingsmodelle auf Geräte übertragen, ohne sich Gedanken über den Diebstahl ihres geistigen Eigentums machen zu müssen.
Einschränkungen des föderierten Lernens
Zusätzlich zu den potenziellen Sicherheitsproblemen weist das föderierte Lernen eine Reihe anderer Einschränkungen auf, die verhindern, dass es eine magische Pille ist, um alle unsere Datenschutzprobleme zu lösen.
Eine Überlegung ist, dass im Vergleich zu herkömmlichen Methoden des maschinellen Lernens, Für das föderierte Lernen sind wesentlich mehr Leistung und Speicher des lokalen Geräts erforderlich, um das Modell zu trainieren. Viele neue Geräte bieten jedoch ausreichend Leistung für diese Funktionen, und dieser Ansatz führt auch dazu, dass viel weniger Daten auf zentrale Server übertragen werden, wodurch die Datennutzung verringert wird. Viele Benutzer können diesen Kompromiss für nützlich halten, solange ihr Gerät leistungsfähig genug ist.
Ein weiteres technisches Problem betrifft die Bandbreite. Föderiertes Lernen wird über WLAN oder 4G durchgeführt, während traditionelles maschinelles Lernen in Rechenzentren stattfindet. Die Bandbreitenraten von WLAN oder 4G sind niedriger als die zwischen den Arbeitsknoten und Servern in diesen Zentren verwendeten.
Die Bandbreite für Geräte ist im Laufe der Jahre nicht so schnell gewachsen wie die Rechenleistung, sodass eine unzureichende Bandbreite möglicherweise einen Engpass verursachen kann Erhöht die Latenz und verlangsamt den Lernprozess im Vergleich zum traditionellen Ansatz.
Wenn das Algorithmus-Training ausgeführt wird, während ein Gerät verwendet wird, verringert es die Leistung eines Geräts. Google hat dieses Problem umgangen, indem nur Geräte trainiert wurden, die sich im Leerlauf befinden, eingeschaltet und an eine Steckdose angeschlossen sind. Während dies das Problem löst, ist es verlangsamt den Lernzyklus, weil das Training nur außerhalb der Stoßzeiten durchgeführt werden kann.
Eine weitere Herausforderung besteht darin, dass Geräte während des Trainings ausfallen – sie können von ihren Besitzern verwendet, ausgeschaltet oder auf andere Weise gestört werden. Die Daten von Geräten, die ausfallen, können möglicherweise nicht ordnungsgemäß verwendet werden, was zu einem weniger genauen algorithmischen Modell führen kann.
Ist föderiertes Lernen der neue Weg für maschinelles Lernen??
Föderiertes Lernen ist ein relativ neues Trainingsmodell und zeigt Potenzial in einer Reihe von verschiedenen Anwendungen. Weil es sich noch in einem relativ frühen Studienstadium befindet, Das Verfahren erfordert viel mehr Forschung, bevor alle Verwendungsmöglichkeiten ermittelt werden können, sowie die potenziellen Sicherheits- und Datenschutzrisiken, denen es ausgesetzt ist.
Bis dahin ist es schwer mit Sicherheit zu sagen, inwieweit der Ansatz in Zukunft umgesetzt wird. Die gute Nachricht ist, dass wir bereits gesehen haben, wie es mit Googles Gboard effektiv in der realen Welt eingesetzt wird.
Aufgrund einiger der zuvor besprochenen Einschränkungen ist es jedoch unwahrscheinlich, dass föderiertes Lernen traditionelle Lernmodelle in allen Szenarien ersetzt. Die Zukunft wird auch davon abhängen, wie sehr sich unsere großen Technologieunternehmen für den Datenschutz engagieren. Zu diesem Zeitpunkt haben wir guten Grund, skeptisch zu sein.
Siehe auch: Datenverletzungsstatistik 2023
hmaschine von Google, die seit ihrer Gründung im Jahr 1998 ständig verbessert wurde. Wie verbessern sich diese Algorithmen? Die Verbesserung von Algorithmen erfolgt durch maschinelles Lernen. Maschinelles Lernen ist ein Prozess, bei dem Algorithmen durch die Analyse von Daten verbessert werden. Je mehr Daten ein Algorithmus analysiert, desto besser wird er darin, Muster zu erkennen und Vorhersagen zu treffen. Föderiertes Lernen Föderiertes Lernen ist ein alternatives Modell zum herkömmlichen maschinellen Lernen. Im herkömmlichen Modell werden alle Daten an einen zentralen Server gesendet, wo sie analysiert werden. Im föderierten Lernen bleiben die meisten Daten auf dem Gerät des Benutzers. Der Algorithmus wird direkt auf dem Gerät des Benutzers trainiert und sendet nur die relevanten Datenzusammenfassungen zurück an den zentralen Server. Auf diese Weise können Unternehmen ihre Algorithmen verbessern, ohne alle Benutzerdaten zu erfassen. Weitere Vorteile des Verbundlernens sind eine höhere Privatsphäre und eine datenschutzorientiertere Lösung. Anwendungen des föderierten Lernens Föderiertes Lernen wird bereits in verschiedenen Anwendungen eingesetzt. Google Gboard verwendet föderiertes Lernen, um die Textvorschläge auf Ihrem Smartphone zu verbessern. Im Gesundheitswesen wird föderiertes Lernen verwendet, um die Genauigkeit von Diagnosen zu verbessern. Autonome Fahrzeuge verwenden föderiertes Lernen, um ihre Fähigkeiten zu verbessern. Einhaltung der Vorschriften Föderiertes Lernen kann auch dazu beitragen, die Einhaltung von Vorschriften zu verbessern. Unternehmen können ihre Algorithmen verbessern, ohne alle Benutzerdaten zu erfassen, was dazu beitragen kann, die Einhaltung von Datenschutzgesetzen zu verbessern. Die Sicherheit und Privatsphäre von föderiertem Lernen Es gibt jedoch auch Bedenken hinsichtlich der Sicherheit und Privatsphäre von föderiertem Lernen. Es besteht die Möglichkeit