Der AI Act: SmartLivingNEXT als Blaupause für vertrauenswürdige KI in Gebäuden und Wohnungen 

23. September 2025

Lesedauer:

7 Minuten

Die Europäische Union hat mit dem Artificial Intelligence Act (AI Act) einen rechtlichen Rahmen mit dem Ziel verabschiedet, in Europa eine sichere, vertrauenswürdige und menschenzentrierte Künstliche Intelligenz (KI) zu fördern, ohne Innovationen zu behindern. Basierend auf einem risikobasierten Ansatz trat die Verordnung am 1. August 2024 in Kraft. Für Forschungsprojekte wie SmartLivingNEXT bedeutet das: eine ethisch einwandfreie Nutzerzentrierung wird regulatorisch verpflichtend und ist gleichzeitig eine Innovationschance.

Der AI Act: SmartLivingNEXT als Blaupause für vertrauenswürdige KI in Gebäuden und Wohnungen. Quelle: DesignRage (2508998717) shutterstock

Ob intelligente Heizungsregelung, adaptive Lichtsteuerung, vorausschauende Wartung oder Nutzung von günstigem Strom aus erneuerbaren Energien: KI-Anwendungen im Bereich Smart Living versprechen mehr Komfort, Lebensqualität, Sicherheit, Energieeffizienz und Nachhaltigkeit. Doch sobald diese Systeme autonome Entscheidungen treffen oder personenbezogene Daten verarbeiten, greifen sie in den Alltag der Nutzenden ein.  

Der AI Act soll die Nutzung und Entwicklung von KI in der EU regulieren, um die Grundrechte der Menschen zu schützen. Zudem sollen die Einführung der Technologie, Innovationen und Investitionen gefördert werden. Das Gesetz verfolgt dabei einen risikobasierten Ansatz: Je höher das Risiko eines KI-Systems für Sicherheit, Gesundheit oder Grundrechte, desto strenger sind regulatorische Anforderungen. KI-Systeme der höchsten Risikoklasse sind in Europa als „unannehmbar“ verboten. 

Auch KI-basierte Smart-Living-Anwendungen müssen in Abhängigkeit vom Kontext in eine der Risikogruppen eingestuft werden. Interagieren sie mit Kritischen Infrastrukturen (KRITIS) oder besteht die Gefahr der Diskriminierung vulnerabler Gruppen, ist ihr Risiko als hoch einzuschätzen. Die Konsequenz: Solche Systeme müssen künftig u.a. dokumentierte Risikoanalysen, robuste Datenqualitäts- und Transparenzmechanismen, menschliche Kontrollmöglichkeiten und ein umfassendes Qualitätsmanagement vorweisen.  

Die Anforderungen werden derzeit über anerkannte Standards operationalisiert. Normen wie ISO/IEC 42001 (KI-Managementsysteme), ISO/IEC 23894 (Risikomanagement für KI) oder ISO/IEC 24029 (Bias Detection) befinden sich bereits in der Finalisierung oder Anwendung und werden durch europäische Normungsgremien wie CEN/CENELEC und OECD ergänzt. „Standardisierung ist das entscheidende Bindeglied zwischen Gesetzestext und praktischer Umsetzung“, erläutert Dr. Sebastian Hallensleben, Mitgestalter der europäischen KI-Governance u. a. bei CEN/CENELEC und OECD und Chief Trust Officer bei resaro, einem Unternehmen, das sich die Prüfung von KI-Anwendungen zur Aufgabe gemacht hat. „Wenn sich Organisationen und Forschungsprojekte wie SmartLivingNEXT früh an diesen Standards orientieren, können sie Vertrauen schaffen und das strukturiert, nachweisbar und belastbar.“ 

Nutzerzentrierung nicht nur denken, sondern belegen 

„Im Wohnumfeld reden wir nicht über Laborsituationen, sondern über das echte Leben von Menschen“, betont Birgid Eberhardt, Bereichsleiterin Forschung & Entwicklung der GSW Sigmaringen mbH und Konsortialpartnerin im Projekt SmartLivingNEXT. „Hier sind Vertrauen, Transparenz und Nutzbarkeit keine Zusatzfunktionen, sondern Grundvoraussetzungen. Viele Forschungsprojekte fokussieren sich stark auf die technologische Innovation, vergessen dabei aber, dass Akzeptanz und Praxistauglichkeit der Lösungen entscheidend sind. Wer die Anwenderperspektive von Projektbeginn an bis über dessen Ende hinaus mitdenkt, stellt sicher, dass entwickelte und erforschte KI-Anwendungen tatsächlich genutzt werden können. Bei der Entwicklung die Kriterien des AI Act zu berücksichtigen und diskriminierungsfreie Lösungen zu schaffen, gehört dazu.“  

SmartLivingNEXT bindet Wohnumgebungen als aktiven Teil der KI-Entwicklung mit ein. Feedback der Mietenden wird strukturiert erfasst, iterativ verarbeitet und transparent dokumentiert. Damit wird Nutzerzentrierung zur gelebten Praxis und zugleich zum Erfolgsfaktor regulatorischer Konformität. „Wir stellen uns der Herausforderung, technologische Entwicklung und Alltagsrealität zu verbinden“, so Eberhardt. „Unsere Mieterinnen und Mieter erleben die Systeme im Alltag und müssen sich damit sicher, respektiert und eingebunden fühlen. Dies kann nur durch die konsequente Berücksichtigung ethischer Grundsätze, die Erklärbarkeit ihrer Ergebnisse und die Einhaltung gesetzlicher Vorgaben erreicht werden. Zudem muss sichergestellt sein, dass Barrierefreiheit gemäß der EU-Richtlinien und Bundesgesetze umgesetzt wird, sodass alle Nutzerinnen und Nutzer unabhängig von individuellen Einschränkungen die entwickelten Anwendungen nutzen können. Nur so kann Vertrauen in KI-Systeme entstehen.” Ein wichtiger Bestandteil des Projekts ist daher die Entwicklung einer Governance-Struktur, die technische, rechtliche und soziale Aspekte integriert, die aller Voraussicht nach im Herbst dieses Jahres abgeschlossen sein wird. 

Von der Forschung zur Marktreife 

Der AI Act befindet sich in Deutschland gerade in der Umsetzung in nationales Recht, es ist daher jetzt die Zeit zum Handeln. Denn gerade in Forschungsprojekten werden die Grundlagen für eine spätere Marktreife gelegt und dies bedingt die Einhaltung regulatorischer Anforderungen. Organisationen, die KI-Systeme entwickeln oder nutzen wollen, sollten daher bereits heute: 

  • Die eigene Risikolage prüfen und dokumentieren. 
  • Nutzende aktiv in Anforderungsdefinitionen und Testverfahren einbeziehen sowie KI-basierte Ergebnisse erklärbar machen. 
  • Normbasierte Prozesse für Transparenz, Fairness und Sicherheit etablieren. 
  • Mitarbeitende und Partner für regulatorische Anforderungen sensibilisieren. 
  • Kooperationen mit Standardisierungsgremien und Verbänden suchen. 


„Wer bereits jetzt beginnt, sich an entstehende Standards anzulehnen, wird regulatorisch resilient und spart langfristig Ressourcen“, empfiehlt Dr. Hallensleben. 

SmartLivingNEXT als Blaupause für vertrauenswürdige KI 

Für SmartLivingNEXT, das neue KI-Basisservices u. a. für intelligente Gebäude, Wohnungen und Energienutzung entwickelt, bedeutet der AI Act eine doppelte Verantwortung: Einerseits muss das Projekt innovative Technologien vorantreiben, andererseits Regelkonformität entwickeln und ethische Prinzipien wahren. Ein Erfolgsfaktor liegt in der interdisziplinären Ausrichtung: Von der Technik- über die Datenschutz- bis zur Ethikperspektive werden alle Aspekte in enger Abstimmung mit entstehenden Standards eingebunden. „SmartLivingNEXT kann eine Blaupause dafür sein, wie man KI-Entwicklung und Compliance nicht als Widerspruch, sondern als Gestaltungsraum versteht“, so Dr. Hallensleben. Das Forschungsprojekt zeige, wie man Technologie und Vertrauen gleichzeitig schaffe. Eberhardt: „Der AI Act hilft uns, den richtigen Kompass zu setzen. Und das nicht nur technisch, sondern auch ethisch und sozial. Wenn wir als Wohnungswirtschaft heute die richtigen Fragen stellen, sind wir morgen nicht nur compliant, sondern wirklich zukunftsfähig.“ 

Der AI Act fordert viel, aber er bietet auch Orientierung und Qualitätssicherung. Für Forschungsprojekte wie SmartLivingNEXT bedeutet das: Nutzerzentrierung wird nicht nur zum regulatorischen Imperativ, sondern zum Innovationsmotor. Der AI Act ist somit keine Hürde, sondern ein Kompass für verantwortungsvolle Innovation.

Artikel im Audio-Format:

Redaktion:

Ilka

 Klein

Kategorie:

Leitprojekt

SmartLivingNEXT

Copyrights

DesignRage (2508998717) shutterstock

Bleiben Sie informiert über die neuesten Entwicklungen rund um SmartLivingNEXT:

Bundesministerium für Wirtschaft und Energie der Bundesrepublik Deutschland Logo

nach oben springen