Medienanstalten positionieren sich zu KI und Medien

Die Direk­to­ren­kon­fe­renz der Lan­des­me­di­en­an­stal­ten (DLM) hat ein Papier mit dem Titel „Viel­falt stär­ken, Ver­ant­wor­tung regeln, Ver­trau­en wah­ren“ beschlos­sen, in dem sie den Ein­satz KI-basierter Sys­te­me in Medi­en in den Blick nimmt. „Inno­va­ti­on braucht den rich­ti­gen Rah­men, um ihr Poten­ti­al voll zu ent­fal­ten,“ sagt Dr. Thors­ten Schmie­ge, Koor­di­na­tor des Fach­aus­schus­ses Infra­struk­tur und Inno­va­ti­on. „Mit dem vor­lie­gen­den Papier möch­ten die Medi­en­an­stal­ten als Ansprech­part­ner für die Bran­che agie­ren und neh­men dabei die für die Medi­en­auf­sicht rele­van­ten The­men in den Blick: Viel­falt, Ver­ant­wor­tung und Vertrauen.“ Ruth Mey­er, The­men­ver­ant­wort­li­che für Künst­li­che Intel­li­genz der DLM: „Die staats­fern orga­ni­sier­ten Medi­en­an­stal­ten sind in der Pflicht, die mög­li­chen Aus­wir­kun­gen von KI-Innovationen auf die Pro­duk­ti­on, Ver­brei­tung und Nut­zung von Medi­en in ihren Regu­lie­rungs­auf­trag ein­zu­be­zie­hen. Dar­über hin­aus hal­ten wir es für wich­tig, die Kom­pe­ten­zen im Umgang mit KI zu stär­ken, sie umfas­send in Bil­dungs­plä­ne zu inte­grie­ren und durch geziel­te Fort­bil­dungs­pro­gram­me zu fördern.“ Das Papier fasst die For­de­run­gen der Medi­en­an­stal­ten in den drei Grund­sät­zen „Viel­falt stär­ken“, „Ver­ant­wor­tung regeln“ und „Ver­trau­en wah­ren“ zusammen. Viel­falt stärken: Der Ein­satz von Künst­li­cher Intel­li­genz darf die Viel­falt in den Medi­en nicht beein­träch­ti­gen. Das bedeu­tet, dass sowohl bei der Erstel­lung als auch bei der Dis­tri­bu­ti­on von Medi­en durch KI-Systeme die Unter­schied­lich­keit von Mei­nun­gen und Per­spek­ti­ven sicht­bar blei­ben muss. Ver­ant­wor­tung regeln: Jour­na­lis­ti­sche Medi­en haben einen star­ken Ein­fluss auf die öffent­li­che Mei­nungs­bil­dung. Des­halb müs­sen sie bestimm­te Sorg­falts­pflich­ten wah­ren. Die­se Ver­ant­wor­tung gilt auch für den Ein­satz Künst­li­cher Intel­li­genz und liegt in letz­ter Kon­se­quenz immer beim Men­schen. Medi­en­schaf­fen­de und ‑anbie­ter haben des­halb beim Ein­satz von KI beson­de­re Prüf­pflich­ten. Auch aus medi­en­recht­li­cher Sicht müs­sen taug­li­che Kontroll- und Prüf­me­cha­nis­men auf­ge­setzt werden. Ver­trau­en wahren: Das Ver­trau­en in Medi­en­in­hal­te ist ent­schei­dend für die Viel­falt der Mei­nun­gen im demo­kra­ti­schen Dis­kurs. Um Ver­trau­en zu bewah­ren und KI als Chan­ce zu begrei­fen, sind medi­en­recht­li­che Prin­zi­pi­en wie Trans­pa­renz und Dis­kri­mi­nie­rungs­frei­heit auch auf KI anzu­wen­den. Maß­geb­lich ist hier­für ins­be­son­de­re die Kenn­zeich­nung des KI-Einsatzes durch die Medi­en­an­bie­ter. Und weil Ver­trau­en auch auf Ver­ste­hen grün­det, för­dern die Medi­en­an­stal­ten die Ver­mitt­lung von KI-Kompetenzen. Die Medi­en­an­stal­ten wer­den auf die­ser Basis auch eine Dis­kus­si­on zu etwa­igen Ände­run­gen des Medi­en­staats­ver­trags anregen. Das KI-Papier „Viel­falt stär­ken, Ver­ant­wor­tung regeln, Ver­trau­en wah­ren“ steht hier als Down­load zur Ver­fü­gung: https://www.die-medienanstalten.de/ueber-uns/positionen#c8543

AI Act verabschiedet

Die Direk­to­rin der Lan­des­me­di­en­an­stalt Saar­land und The­men­be­auf­trag­te Künst­li­che Intel­li­genz der Direk­to­ren­kon­fe­renz der Lan­des­me­di­en­an­stal­ten, Ruth Mey­er, begrüßt den heu­ti­gen Beschluss des AI Acts durch das Euro­päi­sche Par­la­ment.

"VMGH-Treff" – Tablet-Kurse im März 2024

Auch im Jahr 2024 wird das Pro­jekt “Vir­tu­el­les Mehr­ge­ne­ra­tio­nen­haus” mit­hil­fe der För­de­rung des Minis­te­ri­ums für Arbeit, Sozia­les, Frau­en und Gesund­heit unter der Pro­jekt­trä­ger­schaft der Lan­des­me­di­en­an­stalt Saar­land fortgeführt. 

AI Act verabschiedet

Die Direk­to­rin der Lan­des­me­di­en­an­stalt Saar­land und The­men­be­auf­trag­te Künst­li­che Intel­li­genz der Direk­to­ren­kon­fe­renz der Lan­des­me­di­en­an­stal­ten, Ruth Mey­er, begrüßt den heu­ti­gen Beschluss des AI Acts durch das Euro­päi­sche Par­la­ment.

"VMGH-Treff" – Tablet-Kurse im März 2024

Auch im Jahr 2024 wird das Pro­jekt “Vir­tu­el­les Mehr­ge­ne­ra­tio­nen­haus” mit­hil­fe der För­de­rung des Minis­te­ri­ums für Arbeit, Sozia­les, Frau­en und Gesund­heit unter der Pro­jekt­trä­ger­schaft der Lan­des­me­di­en­an­stalt Saar­land fortgeführt. 

Medienanstalten positionieren sich zu KI und Medien

Die Direk­to­ren­kon­fe­renz der Lan­des­me­di­en­an­stal­ten (DLM) hat ein Papier mit dem Titel „Viel­falt stär­ken, Ver­ant­wor­tung regeln, Ver­trau­en wah­ren“ beschlos­sen, in dem sie den Ein­satz KI-basierter Sys­te­me in Medi­en in den Blick nimmt. „Inno­va­ti­on braucht den rich­ti­gen Rah­men, um ihr Poten­ti­al voll zu ent­fal­ten,“ sagt Dr. Thors­ten Schmie­ge, Koor­di­na­tor des Fach­aus­schus­ses Infra­struk­tur und Inno­va­ti­on. „Mit dem vor­lie­gen­den Papier möch­ten die Medi­en­an­stal­ten als Ansprech­part­ner für die Bran­che agie­ren und neh­men dabei die für die Medi­en­auf­sicht rele­van­ten The­men in den Blick: Viel­falt, Ver­ant­wor­tung und Vertrauen.“ Ruth Mey­er, The­men­ver­ant­wort­li­che für Künst­li­che Intel­li­genz der DLM: „Die staats­fern orga­ni­sier­ten Medi­en­an­stal­ten sind in der Pflicht, die mög­li­chen Aus­wir­kun­gen von KI-Innovationen auf die Pro­duk­ti­on, Ver­brei­tung und Nut­zung von Medi­en in ihren Regu­lie­rungs­auf­trag ein­zu­be­zie­hen. Dar­über hin­aus hal­ten wir es für wich­tig, die Kom­pe­ten­zen im Umgang mit KI zu stär­ken, sie umfas­send in Bil­dungs­plä­ne zu inte­grie­ren und durch geziel­te Fort­bil­dungs­pro­gram­me zu fördern.“ Das Papier fasst die For­de­run­gen der Medi­en­an­stal­ten in den drei Grund­sät­zen „Viel­falt stär­ken“, „Ver­ant­wor­tung regeln“ und „Ver­trau­en wah­ren“ zusammen. Viel­falt stärken: Der Ein­satz von Künst­li­cher Intel­li­genz darf die Viel­falt in den Medi­en nicht beein­träch­ti­gen. Das bedeu­tet, dass sowohl bei der Erstel­lung als auch bei der Dis­tri­bu­ti­on von Medi­en durch KI-Systeme die Unter­schied­lich­keit von Mei­nun­gen und Per­spek­ti­ven sicht­bar blei­ben muss. Ver­ant­wor­tung regeln: Jour­na­lis­ti­sche Medi­en haben einen star­ken Ein­fluss auf die öffent­li­che Mei­nungs­bil­dung. Des­halb müs­sen sie bestimm­te Sorg­falts­pflich­ten wah­ren. Die­se Ver­ant­wor­tung gilt auch für den Ein­satz Künst­li­cher Intel­li­genz und liegt in letz­ter Kon­se­quenz immer beim Men­schen. Medi­en­schaf­fen­de und ‑anbie­ter haben des­halb beim Ein­satz von KI beson­de­re Prüf­pflich­ten. Auch aus medi­en­recht­li­cher Sicht müs­sen taug­li­che Kontroll- und Prüf­me­cha­nis­men auf­ge­setzt werden. Ver­trau­en wahren: Das Ver­trau­en in Medi­en­in­hal­te ist ent­schei­dend für die Viel­falt der Mei­nun­gen im demo­kra­ti­schen Dis­kurs. Um Ver­trau­en zu bewah­ren und KI als Chan­ce zu begrei­fen, sind medi­en­recht­li­che Prin­zi­pi­en wie Trans­pa­renz und Dis­kri­mi­nie­rungs­frei­heit auch auf KI anzu­wen­den. Maß­geb­lich ist hier­für ins­be­son­de­re die Kenn­zeich­nung des KI-Einsatzes durch die Medi­en­an­bie­ter. Und weil Ver­trau­en auch auf Ver­ste­hen grün­det, för­dern die Medi­en­an­stal­ten die Ver­mitt­lung von KI-Kompetenzen. Die Medi­en­an­stal­ten wer­den auf die­ser Basis auch eine Dis­kus­si­on zu etwa­igen Ände­run­gen des Medi­en­staats­ver­trags anregen. Das KI-Papier „Viel­falt stär­ken, Ver­ant­wor­tung regeln, Ver­trau­en wah­ren“ steht hier als Down­load zur Ver­fü­gung: https://www.die-medienanstalten.de/ueber-uns/positionen#c8543

"VMGH-Treff" – Tablet-Kurse im März 2024

Auch im Jahr 2024 wird das Pro­jekt “Vir­tu­el­les Mehr­ge­ne­ra­tio­nen­haus” mit­hil­fe der För­de­rung des Minis­te­ri­ums für Arbeit, Sozia­les, Frau­en und Gesund­heit unter der Pro­jekt­trä­ger­schaft der Lan­des­me­di­en­an­stalt Saar­land fortgeführt. 

Medienanstalten positionieren sich zu KI und Medien

Die Direk­to­ren­kon­fe­renz der Lan­des­me­di­en­an­stal­ten (DLM) hat ein Papier mit dem Titel „Viel­falt stär­ken, Ver­ant­wor­tung regeln, Ver­trau­en wah­ren“ beschlos­sen, in dem sie den Ein­satz KI-basierter Sys­te­me in Medi­en in den Blick nimmt. „Inno­va­ti­on braucht den rich­ti­gen Rah­men, um ihr Poten­ti­al voll zu ent­fal­ten,“ sagt Dr. Thors­ten Schmie­ge, Koor­di­na­tor des Fach­aus­schus­ses Infra­struk­tur und Inno­va­ti­on. „Mit dem vor­lie­gen­den Papier möch­ten die Medi­en­an­stal­ten als Ansprech­part­ner für die Bran­che agie­ren und neh­men dabei die für die Medi­en­auf­sicht rele­van­ten The­men in den Blick: Viel­falt, Ver­ant­wor­tung und Vertrauen.“ Ruth Mey­er, The­men­ver­ant­wort­li­che für Künst­li­che Intel­li­genz der DLM: „Die staats­fern orga­ni­sier­ten Medi­en­an­stal­ten sind in der Pflicht, die mög­li­chen Aus­wir­kun­gen von KI-Innovationen auf die Pro­duk­ti­on, Ver­brei­tung und Nut­zung von Medi­en in ihren Regu­lie­rungs­auf­trag ein­zu­be­zie­hen. Dar­über hin­aus hal­ten wir es für wich­tig, die Kom­pe­ten­zen im Umgang mit KI zu stär­ken, sie umfas­send in Bil­dungs­plä­ne zu inte­grie­ren und durch geziel­te Fort­bil­dungs­pro­gram­me zu fördern.“ Das Papier fasst die For­de­run­gen der Medi­en­an­stal­ten in den drei Grund­sät­zen „Viel­falt stär­ken“, „Ver­ant­wor­tung regeln“ und „Ver­trau­en wah­ren“ zusammen. Viel­falt stärken: Der Ein­satz von Künst­li­cher Intel­li­genz darf die Viel­falt in den Medi­en nicht beein­träch­ti­gen. Das bedeu­tet, dass sowohl bei der Erstel­lung als auch bei der Dis­tri­bu­ti­on von Medi­en durch KI-Systeme die Unter­schied­lich­keit von Mei­nun­gen und Per­spek­ti­ven sicht­bar blei­ben muss. Ver­ant­wor­tung regeln: Jour­na­lis­ti­sche Medi­en haben einen star­ken Ein­fluss auf die öffent­li­che Mei­nungs­bil­dung. Des­halb müs­sen sie bestimm­te Sorg­falts­pflich­ten wah­ren. Die­se Ver­ant­wor­tung gilt auch für den Ein­satz Künst­li­cher Intel­li­genz und liegt in letz­ter Kon­se­quenz immer beim Men­schen. Medi­en­schaf­fen­de und ‑anbie­ter haben des­halb beim Ein­satz von KI beson­de­re Prüf­pflich­ten. Auch aus medi­en­recht­li­cher Sicht müs­sen taug­li­che Kontroll- und Prüf­me­cha­nis­men auf­ge­setzt werden. Ver­trau­en wahren: Das Ver­trau­en in Medi­en­in­hal­te ist ent­schei­dend für die Viel­falt der Mei­nun­gen im demo­kra­ti­schen Dis­kurs. Um Ver­trau­en zu bewah­ren und KI als Chan­ce zu begrei­fen, sind medi­en­recht­li­che Prin­zi­pi­en wie Trans­pa­renz und Dis­kri­mi­nie­rungs­frei­heit auch auf KI anzu­wen­den. Maß­geb­lich ist hier­für ins­be­son­de­re die Kenn­zeich­nung des KI-Einsatzes durch die Medi­en­an­bie­ter. Und weil Ver­trau­en auch auf Ver­ste­hen grün­det, för­dern die Medi­en­an­stal­ten die Ver­mitt­lung von KI-Kompetenzen. Die Medi­en­an­stal­ten wer­den auf die­ser Basis auch eine Dis­kus­si­on zu etwa­igen Ände­run­gen des Medi­en­staats­ver­trags anregen. Das KI-Papier „Viel­falt stär­ken, Ver­ant­wor­tung regeln, Ver­trau­en wah­ren“ steht hier als Down­load zur Ver­fü­gung: https://www.die-medienanstalten.de/ueber-uns/positionen#c8543

AI Act verabschiedet

Die Direk­to­rin der Lan­des­me­di­en­an­stalt Saar­land und The­men­be­auf­trag­te Künst­li­che Intel­li­genz der Direk­to­ren­kon­fe­renz der Lan­des­me­di­en­an­stal­ten, Ruth Mey­er, begrüßt den heu­ti­gen Beschluss des AI Acts durch das Euro­päi­sche Par­la­ment.