Skip to content

7. Cloud and Web Applications

Ziel des Labs

In diesem Lab werden wir eine Embedded Applikation mit Cloud Infrastruktur erstellen. Hierbei wird das Raspberry Pi als Gateway für MQTT verwendet und um eine Webapplikation zur Verfügung zu stellen. Mehrere ESP32 oder alternativ Raspberry Pi wird als Messtation für Sensorwerte verwendet (via MQTT/WiFi ans Gateway Raspberry Pi). Via Wireguard VPN sind Server, Gastsystem und Raspberry Pis im gleichen virtuellen LAN. Sensorwerte werden schlussendlich an InfluxDB gesendet, welche in der Cloud durch den Server gehostet wird.

Für den Server in der Cloud wird Linode/Akamai verwendet. Der Server verfügt über eine öffentliche IP und ist übers Internet zugänglich.

Als Sensoren für den Versuch dienen z.B.

  • SHT40
  • BMP280
  • ...

Buildroot Packages neu kompilieren

In diesem Lab werden wir häufig neue Packages Buildroot hinzufügen. Hierfür werden wir nur die neu kompilierten Files auf die SD-Karte kopieren.

Um diesen Vorgan zu vereinfachen, finden Sie an dieser Stelle Target als MQTT Broker eine Hilfestellung.

Cloud Setup

Für dieses Lab werden wir ein Cloud-Setup für Raspberry Pi, ESP32 und Hostmaschine erstellen. Hierzu werden wir Wireguard als VPN verwenden um unseren Traffic zu verschlüsseln und NAT (Network Address Translation) zu durchdringen. Dank Wireguard wird es somit auch möglich sein via SSH auf das Target zu verbinden ohne zusätzliche Portforwards auf NAT-Seite des Targets.

Auf Serverseite werden wir Ubuntu 22.04 in der Cloud verwenden. Hierzu können wir uns mit dem Server in der Cloud für das Setup via SSH verbinden.

  1. Als erstes konfigurieren wir den Server in der Cloud.

  2. Wir erstellen ein VPN via Wireguard für

    • Raspberry Pi Targets
    • Ubuntu Gastsysteme (Hosts)
    • Server in der Cloud

    Der Server wird hierzu auf eingehende Wireguardverbindungen hören.

  3. Auf dem Server werden wir InfluxDB via Docker-Compose installieren um später vom Raspberry Pi Werte in die Cloud zu senden.

Netzwerksetups mit NAT

Häufig wird in lokalen Netzen NAT eingesetzt. Eine öffentliche IP Adresse wird so für viele Hosts im LAN "geteilt". Dies hat sicherheitstechnisch Vorteile, da so bereits eine Firewall besteht. Es ist allerdings unmöglich aus dem Internet heraus so direkt mit einem Host eine Verbindung herzustellen.

Gerade eine Verbindung zu einem Target über SSH wird so meistens verunmöglicht. Neben der Möglichkeit explizit für gewisse Hosts selektiv Portforwards einzurichten, wird häufig VPN (mit Keepalive) verwendet um diese Barriere zu umgehen und so NAT-Passtrhough zu ermöglichen. Wir werden Wireguard (im Kernel implementiertes, schlankes VPN) verwenden und erhalten hiermit auch gleich Verschlüsselten Traffic.

Wireguard basiert auf UDP und hat somit keinen grossen Overhead (TCP in TCP wäre z.B. sehr unpraktisch).

In Buildroot werden wir hierzu zusätzlich Wireguard Tools konfigurieren. Gast- und Serverseitig verwenden wir Ubuntu 22.04, welches wireguard-tools via apt Package-Management zur Verfügung stellt.

Server in der Cloud

Der Server in der Cloud dient dank der öffentlichen IP (wir verwenden keinen DNS) als Server für Wireguard. Zusätzlich verwenden wir den Server in der Cloud um via Docker eine InfluxDB Instanz zu hosten. Es wäre natürlich auch möglich InfluxDB auf dem Target zu hosten. Möchte man allerdings die Daten auch ohne VPN zur Verfügung haben macht es mehr Sinn InfluxDB direkt in der Cloud zu hosten. Zusätzlich werden mit dieser Lösung auch Resourcen auf dem Target entlastet.

User und SSH einrichten

Folgender Schritt ist für Sie schon durchgeführt worden, sie können diese also überspringen, sofern Sie bereits einen user ubuntu erhalten haben.

Die Instanz des Servers in der Cloud verfügt nur über einen root User. Als erstes wollen wir einen neuen User ubuntu erstellen, welcher via sudo Commands als Root ausführen kann. Auch hinterlegen wir von unserem Gastsystem den SSH Public Key, um ohne Passwort via SSH einloggen zu können.

Verbinden Sie Sie mit dem Server via SSH.

bash
ssh root@<ip-des-servers-der-gruppe>

Erstellen Sie zuerst einen neuen user ubuntu.

bash
adduser ubuntu

Fügen Sie den user der Gruppe sudo hinzu:

bash
adduser ubuntu sudo

Wechseln Sie zu ubuntu:

bash
su ubuntu

System updaten

Führen Sie ein upgrade des Systems durch:

bash
sudo apt update
sudo apt upgrade

Bei Dialogen können Sie jeweils die Defaults wählen.

SSH Public Key kopieren

Kopieren Sie nun den Public Key Ihrer Gastsysteme in das File ~/.ssh/authorized_keys.

bash
# .ssh erstellen

mkdir ~/.ssh

# Keys hier einfügen
nano ~/.ssh/authorized_keys

Eigene Public Keys

Die Public Keys finden Sie im Gastsystem unter ~/.ssh/id_rsa.pub. Falls Sie keine Keys erstellt haben, holen Sie dies (auf dem Gastsystem) nach via

bash
ssh-keygen -t rsa

Loggen Sie sich aus SSH aus und verbinden Sie sich wieder. Verifizieren Sie, dass Sie mit allen Gastsystemen ohne Passwort einloggen können.

Logins als Root / mit Passwort disablen

Aus Sicherheitsgründen sollte der Login via root immer verhindert werden. Studieren Sie das File /etc/ssh/sshd_config und setzen die entsprechenden Optionen auf no.

bash
PermitRootLogin no
PasswordAuthentication no

Starten Sie den SSH Server neu:

bash
sudo systemctl restart sshd

Testen Sie von einem anderen System ob Sie immer noch via Root einloggen können und ob Passwörter noch erlaubt sind.

Wireguard aufsetzen

Für das VPN (Wireguard) werden wir das Netz 10.10.10.0/24 verwenden. Hiefür stellt der Server auf Port 8080 (frei gewählt) den Wireguard Dienst zur Verfügung.

Installieren Sie das Packet wireguard-tools auf dem Server- und Gastsystem.

Weitere Infos zu Wireguard

Infos zu Wireguard finden Sie unter diesem Link https://www.wireguard.com/quickstart/

Für Host- und Gastsystem werden wir wg-quick verwenden: ein Tool, welches uns erlaubt eine Konfiguration (inkl. IP) vorzunehmen, die bei Systemboot auch direkt mit systemd gestartet wird.

Wireguard funktioniert ähnlich wie SSH über ein Public-Privatekeyverfahren. Hierzu wird ein Private Key erstellt und Public Key davon abgeleitet.

In einem einzigen Command können Public und Private Key erstellt werden.

Die folgenden Commands können Sie auf dem Gastsystem und auch auf dem Server ausführen.

bash
cd ~
mkdir wireguard
cd wireguard

# Keys erstellen
wg genkey | tee privatekey | wg pubkey > publickey

In dem Ordner ~/wireguard sind nun Public und Private Key generiert worden.

Sicherheit

In einem Production Setup sollten Sie immer sicherstellen, dass der Private Key nie in die Öffentlichkeit gelangt. Zusätlich können Sie auch noch einen Pre-Shared Key für die Verbindung generieren (vgl. https://www.wireguard.com/protocol/).

Serverseite

Verzeichnis /etc/wireguard/

Aufgepasst, ins Verzeichnis /etc/wiregaurd/ kann ein normaler user nicht hineinwechseln mit cd. Mit sudo nano /etc/wireguard/wg0.conf kann ein File zwar trotzem beschrieben werden.

Um ins Verzeichnis zu wechseln können Sie aber kurzfristig mit seiner Rootshell via sudo su wechseln und anschliessend mit CTRL+D wieder ausloggen.

Als nächstes erstellen wir das Serverseitige Setup. Hier ist es wichtig, dass wir auf Port 8080 hören.

Öffnen Sie das File /etc/wireguard/wg0.conf (z.B. mit sudo nano) und setzen Sie den Inhalt wiefolgt:

bash
[Interface]
Address = 10.10.10.1/24
ListenPort = <Listen Port>
PrivateKey = <Private Key der generiert wurde>
MTU = 1420
PostUp = iptables -A FORWARD -i %i -o %i -j ACCEPT
PostDown = iptables -D FORWARD -i %i -o %i -j ACCEPT

[Peer]
PublicKey = <Public Key des Gastsystems 1>
AllowedIPs = 10.10.10.2/32
PersistentKeepalive = 25

[Peer]
PublicKey = <Public Key des Gastsystems 2>
AllowedIPs = 10.10.10.3/32
PersistentKeepalive = 25

Das File wird für die Konfiguration des Interfaces wg0 verwendet. Mit iptables erlauben wir das Kommunizieren zwischen den Hosts unter sich im gleichen VPN.

PersistentKeepalive sorgt dafür, dass die Ports beim NAT offen gehalten werden. Alles 25 Sekunden ist ein Setting, welches breit von Routern unterstützt wird.

Starten Sie nun das Wireguard Interface mit:

bash
sudo wg-quick up wg0

Schauen Sie sich den status an mit

bash
sudo wg

Falls Sie neue Hosts hinzufügen möchten, können Sie diese weiterhin im File /etc/wireguard/wg0.conf anhängen. Achten Sie jeweils gut auf Public / Private Keys. Hier lohnt es sich mehrmals zu prüfen, ob diese richtig konfiguriert sind, da sonst Fehlermeldungen bei der Kommunikation via IP auftreten werden.

Starten Sie jeweils Wireguard nach Änderungen mit wg-quick down wg0 und wg-quick up wg0 wieder neu.

Gastsystem

UDP Traffic funktioniert nur via fhnw-private

Wechseln Sie entweder auf fhnw-private (auf dem Target z.B. mit nmtui) oder verwenden Sie für die folgenden Versuche einen mobilen Hotspot via Smartphone.

Nachdem Sie den Server konfiguriert haben, wollen wir die Gastsysteme ins gleiche Wireguardnetz verbinden. Erstellen Sie auch ein File /etc/wireguard/wg0.conf auf Ihren Gastsystemen.

bash
[Interface]
PrivateKey = <Private Key des Gastsystems>
Address = <IP des Gastsystems wie vom Server erwartet>
# Beispiel 10.10.10.2/24


[Peer]
PublicKey = <Public Key vom Server>
Endpoint = <Public IP des Servers>:<Port>
AllowedIPs = 10.10.10.0/24

AllowedIPs = 10.10.10.0/24 führt dazu, dass gleich ein Eintrag in die Routing Table beim starten des interfaces hinzugefügt wird.

Starten Sie auf dem Gastsystem nun das Wiregaurd Interface.

bash
sudo wg-quick up wg0

Hat alles geklappt, dann können Sie nun den Server pingen via ping 10.10.10.1.

Wireguard Interface mit systemd automatisch hochfahren

Nach einem Reboot wird das Wiregaurdinterface nicht hochgefahren. Es existiert allerdings ein einfacher "hook" für systemd um wg0 beim booten hochzufahren:

bash
 sudo systemctl enable wg-quick@wg0

Führen Sie diesen Command auf allen Gastsystemen sowie auf dem Server aus.

Wireguard auf dem Target

Weiter möchten wir Wireguard auf dem Target verwenden. Bevor Sie starten, stellen Sie sicher, dass folgende Voraussetzungen erfüllt sind:

  • WiFi funktioniert auf dem Target
  • Kernel unterstützt Wireguard (in menuconfig verifizieren)
  • Buildroot hat wireguard-tools kompiliert

wireguard-tools nachkompilieren

Sie können in Buildroot das Wiregaurd Package selektieren und das RFS neu kompilieren. Für das Deployment reicht es möglicherweise, wenn Sie wg in das /usr/bin Verzeichnis kopieren.

Falls Sie wg nicht ausführen können, sichern Sie Ihre targetseitigen config Files auf das Gastsystem und redeployen Sie buildroot vollständig auf die SD-Karte.

Leider existiert das praktische Programm wg-quick nicht im Buildroot repository. Allerdings können wir mit dem tool wg den Link Layer erstellen und später mit ifconfig resp. ip addr auch eine IP Adresskonfiguration vornehmen.

Public und Private Key auf dem Target erstellen

Generieren Sie wie bereits auf dem Gastsystem und Server den public und private key für wiregaurd:

bash
mkdir wireguard
cd wireguard
wg genkey | tee privatekey | wg pubkey > publickey

Serverseitig IP und Public Key eintragen

Auf der Serverseite können Sie nun den Public Key eintragen und eine IP Adresse für das Target auswählen (verwenden Sie diese später für das wg0 interface des Targets).

Vergessen Sie beim Server nicht das Wireguard Interface neuzustarten.

wg0.conf Config File

Erstellen Sie auf dem Target ein File wg0.conf mit folgendem Inhalt.

bash
[Interface]
PrivateKey = <Eigener Private Key>

[Peer]
PublicKey = <Public Key des Servers>
Endpoint = <Public IP vom Server>:<Port>
AllowedIPs = 10.10.10.0/24

Erstellen Sie nun ein neues wireguard interface mit ip link:

bash
ip link add dev wg0 type wireguard

Laden Sie die wg0.conf mit:

bash
wg setconf wg0 wg0.conf

Das Interface fahren Sie nun hoch mit

bash
ip link set up dev wg0

IP konfigurieren

Fügen Sie nun dem Wireguardinterface noch die IP hinzu:

bash
# IP muss serverseitig passen
ip addr add 10.10.10.4/24 dev wg0

Falls alles geklappt hat sollten Sie nun 10.10.10.1 pingen können.

Sogar sollten Sie jetzt in der Lage sein von Ihrem Gastsystem via SSH auf 10.10.10.4 connecten zu können.

Das funktioniert nun sogar von Ausserhalb des WiFi Netzes! Starten Sie einen Accesspoint mit Ihrem Smartphone, connecten Sie Ihr Hostsystem und verbinden Sie sich via SSH über das Gastsystem mit dem Target um die Verbindung zu validieren.

mit /etc/network/interfaces automatisch wg0 starten

Da uns wg-quick auf dem Target fehlt, starten wir wg0 automatisch mit /etc/network/interfaces.

Editieren Sie das File und fügen Sie die wg0 section hinzu. Achten Sie auf absoulute Pfade und verifizieren Sie, dass die File tatsächlich existieren.

bash
auto wg0
iface wg0 inet static
    requires wlan0
    pre-up ip link add $IFACE type wireguard
    pre-up wg setconf $IFACE /root/$IFACE.conf
    pre-up ip link set up dev $IFACE
    address 10.10.10.4
    netmask 255.255.255.0
    post-down ip link del $IFACE

Nach einem Reboot sollte nun wg0 von selber starten.

Serverseitiges Setup für InfluxDB

InfluxDB https://docs.influxdata.com/influxdb/v2.2/get-started/ ist eine Webapplikation und Datenbank optimier für Zeitserien. Wir werden InfluxDB verwenden um Messdaten zu speichern und visualisieren.

Um die Applikation möglichst modular zu halten und unabhängig von unserer Cloud Instanz zu sein, werden wir Docker und Docker Compose verwenden um InfluxDB zu verwalten.

Docker und Docker Compose Installieren

Auf dem Server installieren Sie Docker und Docker Compose

bash
sudo apt install docker docker-compose

Adden Sie Ihren user nun der Gruppe docker.

bash
sudo adduser ubuntu docker

Rebooten Sie nun den Server.

Erstellen Sie ein neues Directory influx in Ihrem Home Directory und wechseln Sie hinein. Hier werden wir alle relevanten Files für den docker container anlegen.

bash
cd ~
mkdir influx
cd influx

Erstellen Sie nun ein Directory und Volume für influxdb:

bash
cd ~
mkdir influxdb

# das volume wird im docker container gemountet
mkdir influxdb-volume

Docker Compose File

Erstellen Sie das Docker-Compose File docker-compose.yml.

bash
services:
  influxdb:
    image: influxdb
    restart: unless-stopped
    env_file:
      - 'env.influxdb'
    volumes:
      - ./influxdb-volume:/var/lib/influxdb2
    network_mode: "host"

Erstellen Sie auch ein File env.influxdb mit Environment Variablen für das Setup:

bash
DOCKER_INFLUXDB_INIT_MODE=setup
DOCKER_INFLUXDB_INIT_USERNAME=root
DOCKER_INFLUXDB_INIT_PASSWORD=embedded
DOCKER_INFLUXDB_INIT_ORG=embedded
DOCKER_INFLUXDB_INIT_ADMIN_TOKEN=token
DOCKER_INFLUXDB_INIT_BUCKET=embedded

Docker Compose starten

Starten Sie nun Docker Compose mit docker compose up -d. Das Docker Image hostet nun influxdb. Über Port 8086 kann die Applikation im Webbrowser angezeigt und konfiguriert werden:

docker-compose vs docker compose

Auf Ubuntu LTS 24.04 erhält man mit dem Command docker-compose einen Error. Der Command docker compose ohne - scheint allerdings noch zu klappen.

Auf dem Gastsystem können Sie die Applikation im Webbrowser via http://10.10.10.1:8086 besuchen und sicht mit root und pw embedded einloggen.

Sicherheit

In einem Produktionsumfeld macht es Sinn gute Passwörter auszwählen. Auch wenn wir unsere Applikation nicht gegen "aussen" verfügbar machen, empfiehlt es sich trotzdem übliche Sicherheitsmassnahmen vorzunehmen.

Um in eine Shell des Docker Containers via ssh zu gelangen (z.B. um mit influx als Command zu arbeiten) kann folgender Command verwendet werden:

bash
docker compose exec influxdb sh

Messwerten an InfluxDB senden

InfluxDB stellt eine API via http zur Vefügung um Messwerte zu senden. Ein Beispiel hierzu finden Sie unter https://docs.influxdata.com/influxdb/v2/write-data/developer-tools/api/. Mit einem einfachen curl Command (HTTP Request von der Commandline her) können Daten an InxluxDB gesent werden.

Influx v2

Für die Versuche verwenden wir Influx v2, da v3 zum Zeitpunkt noch nicht released worden ist.

Neben vielen anderen Time Series Applikationen wie Grafana, Prometheus, etc. bietet Influx den Vorteil, dass eine Datenbank bereits integriert ist und nicht extern gehostet werden muss.

Ein nettes Feature, welches leider fehlt, wäre das Updated eines Dashboards via websocket. Alternativ gibt es einen "auto refresh", welcher aber ständig pollt, auch wenn keine neuen Werte vorhanden sind.

bash
curl --request POST "http://localhost:8086/api/v2/write?org=embedded&bucket=embedded&precision=ns" \
   --header "Authorization: Token token" \
   --header "Content-Type: text/plain; charset=utf-8" \
   --header "Accept: application/json" \
   --data-binary "
    airSensors,sensor_id=TLM0201 temperature=73.97038159354763,humidity=35.23103248356096,co=0.48445310567793615 `date +%s%N`
    airSensors,sensor_id=TLM0202 temperature=75.30007505999716,humidity=35.651929918691714,co=0.5141876544505826 `date +%s%N`" -vvv

localhost

Sie können localhost auch mit der IP des Servers im VPN ersetzen (also 10.10.10.1).

Testen Sie den Command vom Gastsystem und vom Target her.

Der Wert 1630424257000 ist der Zeitwert, bei welchem die Messung stattgefunden hat als EPOCH Time (ns die vergangen sind seit dem 1. Januar 1970). Mit date +%s%N können Sie den Wert in der BASH ermitteln. Brauchen wir weniger Auflösung, so können wir precision im HTTP Request auch mit s ersetzen um auf Sekunden genau zu arbeiten.

Ermitteln Sie die aktuelle Zeit in ms nach EPOCH und senden Sie einige imaginäre Messwerte via curl an InxluxDB. Validieren Sie, dass diese unter dem Bucket embedded unter Explore im Userinterface erscheinen.

curl fehlt auf dem Target

curl wird standardmässig von buildroot nicht selektiert. Sie finden das Paket unter Libraries / libcurl. Selektieren Sie auch das binary.

Nach make können Sie der Anleitung unter Target als MQTT Broker folgen um die Files auf die SD-Karte zu kopieren.

Target als MQTT Broker

Das Target soll für den ESP32 als MQTT Broker dienen und gleichzeitig empfangene Werte an InfluxDB senden.

Kompilieren Sie das RFS neu und kopieren Sie binaries auf die SD-Karte. Sie können mit folgendem Command die neu erstellten Files als tar archiv verpacken:

bash
# zuerst ins buildroot source dir wechseln

cd output/target
# idealerweise alle files löschen, die konfiguriert wurden
rm etc/network/interfaces
rm etc/wpa_supplicant.conf
tar -cvf ../rootfs.tar -N "1 hour ago" *

Sie können nun die nur eben erstellten Files auf die SD-Karte kopieren:

bash
cd ..
# erstelltes archiv
ls -al rootfs.tar

# sicherstellen, dass die SD gemountet ist

lsblk

# über dem rfs der SD entpacken

sudo tar -xvf rootfs.tar -C /media/${USER}/rootfs

Mosquitto wird bereits mit einem Eintrag in /etc/init.d gestartet. Validieren Sie mit

bash
netstat -lt

und

bash
ps

.

MQTT lokal testen

Studieren Sie die Commands mosquitto_sub und mosquitto_pub. Installieren Sie auf dem Gastsystem mosquitto und testen Sie Publish / Subscribe.

MQTT - CURL Brücke

Eine sehr einfache Lösung Messwerte von MQTT an InfluxDB weiterzugeben ist via Shell Script.

Als erstes warten wir genau einmal auf eine MQTT Message

bash
mosquitto_sub -h localhost -C 1 -t "sensor/temp"

Die Zeit in Sekunden nach 1970 erhalten wir mit dem Command date +%s.

Als nächstes können wir einen curl absetzen mit dem Output vom Sensorwert (z.B. in einer Shell Variablen zwischenspeichern).

bash
curl --request POST \
"http://10.10.10.1:8086/api/v2/write?org=embedded&bucket=embedded&precision=s" \
  --header "Authorization: Token token" \
  --header "Content-Type: text/plain; charset=utf-8" \
  --header "Accept: application/json" \
  --data-binary "
  airSensors temperature=<sensorwer> <sekunden nach 1. Jan 1970>
  "

Zusammen würde das mit diesem Skript bereits einmal funktionieren:

bash
#!/bin/sh

MSG=`mosquitto_sub -h localhost -t "sensor/temp" -C 1`
T=`date +%s`
echo "$MSG $T"

curl --request POST \
"http://10.10.10.1:8086/api/v2/write?org=embedded&bucket=embedded&precision=s" \
  --header "Authorization: Token token" \
  --header "Content-Type: text/plain; charset=utf-8" \
  --header "Accept: application/json" \
  --data-binary "
  airSensors temperature=${MSG} ${T}
  "

Was noch fehlt, ist das ganze beliebig lang zu wiederholen. Ändern Sie das Script so, dass dieses "for ever" ausgeführt wird.

Raspberry Pi / ESP32 MQTT Publish

Implementieren Sie nun eine Firmware auf dem ESP32, welche die Sensoren ausliest und periodisch Werte an den MQTT Broker sendet.

Alternativ können Sie ein Programm fürs Raspberry Pi erstellen, welches die Sensoren via Kernel Treiber ausliest und an den MQTT Broker weitergibt. Ein einfaches BASH Script würde sehr wahrscheinlich bereits genügen.

Avahi Config

avahi funktioniert nicht via Wireguard

Leider funktioniert mdns nicht via Wireguard, da die Broadcast Domain getrennt wird. Das Setup macht dann Sinn, wenn Devices im gleichen WLAN sind z.B.

Fügen Sie Buildroot avahi hinzu. Der Daemon erlaubt es mDNS (Multicast DNS) zu verwenden. Zur Zeit muss die IP-Adresse des Raspberry Pi in der Firmware des ESP hardgecoded werden. Mit mDNS, kann das Raspberry Pi einen Hostnamen publizieren, was es dem ESP erlaubt einen Namen anstelle einer IP zu verwenden.

Sie können das Target mit der folgenden avahi config unter <hostname>.local erreichen. Schauen Sie sich zu diesem Thema die Library für den ESP32 an: https://www.arduino.cc/reference/en/libraries/mdns_generic/.

Hier der Inhalt von /etc/avahi/avahi-daemon.conf:

bash
[server]
host-name=<hostname hier eingeben>                                                        
domain-name=local                                                   
#browse-domains=0pointer.de, zeroconf.org                        
use-ipv4=yes               
use-ipv6=yes
#allow-interfaces=eth0                                            
#deny-interfaces=eth1                                         
#check-response-ttl=no                                               
#use-iff-running=no
#enable-dbus=yes
#disallow-other-stacks=no                                            
#allow-point-to-point=no
#cache-entries-max=4096
#clients-max=4096
#objects-per-client-max=1024
#entries-per-entry-group-max=32
ratelimit-interval-usec=1000000          
ratelimit-burst=1000
            
[wide-area]           
enable-wide-area=yes 
                      
[publish]          
#disable-publishing=no
#disable-user-service-publishing=no
#add-service-cookie=no  
#publish-addresses=yes 
publish-hinfo=no 
publish-workstation=no      
#publish-domain=yes            
#publish-dns-servers=192.168.50.1, 192.168.50.2
#publish-resolv-conf-dns-servers=yes
#publish-aaaa-on-ipv4=yes
#publish-a-on-ipv6=no
                    
[reflector]
#enable-reflector=no
#reflect-ipv=no       
#reflect-filters=_airplay._tcp.local,_raop._tcp.local
                      
[rlimits]             
#rlimit-as=     
#rlimit-core=0        
#rlimit-data=8388608
#rlimit-fsize=0                                
#rlimit-nofile=768                  
#rlimit-stack=8388608    
#rlimit-nproc=3

Starten Sie nach dem ändern avahi neu. Nun sollten Sie das device mit dem .local Namen finden können.