it-swarm.com.de

Video-Streaming von der Android-Kamera zum Server

Ich habe viele Informationen darüber erhalten, wie man Video vom Server auf ein Android-Gerät streamen kann, aber nicht viel darüber, ala Qik. Könnte mich jemand hier in die richtige Richtung weisen oder mir einen Rat geben, wie ich das angehen kann?

264
JCL

Ich habe ein Open-Source-Projekt gehostet, um Android-Handys mit IP-Kamera zu ermöglichen:

http://code.google.com/p/ipcamera-for-Android

Die Rohvideodaten werden von LocalSocket abgerufen und die MDAT-MOOV von MP4 wurde vor dem Streaming geprüft. Das Live-Video ist im FLV-Format gepackt und kann über einen Flash-Video-Player mit eingebautem Webserver abgespielt werden :)

121
Zhou Chang

Ich habe einige Zeit gebraucht, aber ich schaffe es endlich, eine App zu erstellen, die genau das macht. Schauen Sie sich die Google-Codeseite an, wenn Sie interessiert sind: http://code.google.com/p/spydroid-ipcamera/ Ich habe eine Menge Kommentare in meinen Code eingefügt (hauptsächlich CameraStreamer). Java), so sollte es ziemlich selbsterklärend sein .. Der schwierige Teil bestand eigentlich darin, den RFC 3984 zu verstehen und einen geeigneten Algorithmus für den Paketierungsprozess zu implementieren. (Dieser Algorithmus wandelt den vom MediaRecorder erzeugten mpeg4/h.264-Stream tatsächlich in einen Nice-RTP-Stream um, gemäß dem RFC).

Tschüss

69
Simon

Ich untersuche dies auch und obwohl ich keine gute Lösung für Sie habe, habe ich es geschafft, den Videocode von SIPDroid herauszufinden:

http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.Java

24
ObsidianX

Ich habe ein Open-Source-SDK mit dem Namen Kickflip erstellt, um Streaming-Video von Android zu einem schmerzlosen Erlebnis zu machen. 

Das SDK demonstriert die Verwendung der MediaCodec - API von Android 4.3, um die Pakete des Geräte-Hardware-Encoders direkt an FFmpeg für RTMP (mit librtmp) oder HLS Streaming von H.264 zu leiten/AAC. Außerdem werden Echtzeit-OpenGL-Effekte (Titel, Chroma-Key, Fades) und Hintergrundaufnahmen gezeigt.

Danke SO und vor allem fadden .

18
dbro

Hier ist ein vollständiger Artikel über das Streaming von Android-Kameravideos auf eine Webseite.

Android-Streaming von Live-Videokameras auf Webseiten

  1. Verwendet libstreaming in der Android-App
  2. Auf der Serverseite wird Wowza Media Engine verwendet, um den Videostrom zu decodieren
  3. Schließlich wird jWplayer verwendet, um das Video auf einer Webseite abzuspielen.
10
Minion

Ich kann das Live-Kameravideo vom Handy an meinen Server senden. Über diesen Link siehe den Link

Siehe den obigen Link. In diesem Link gibt es eine Beispielanwendung. Sie müssen lediglich Ihre Service-URL in RecordActivity.class einstellen.

Beispiel als: ffmpeg_link = "rtmp: // IhreServeripadresse: 1935/live/venkat";

Über diesen Link können wir Videos vom Typ H263 und H264 senden.

5
Venkat

Dies ist kaum eine vollständige Antwort, aber webRTC ist vielleicht das, wonach Sie suchen. Hier sind einige Beispiele für webRTC in Aktion: http://www.webrtc.org/reference-apps

Wenn Sie Android-spezifischen Code wünschen, existiert er! http://www.webrtc.org/native-code/Android

3
theicfire

Überprüfen Sie Yasea Bibliothek

Yasea ist ein Android-Streaming-Client. Es codiert YUV- und PCM-Daten von Kamera und Mikrofon auf H.264/AAC, kapselt in FLV ein und überträgt über RTMP.

Merkmal:

  1. Android Mini API 16.
  2. H.264/AAC-Hardcodierung.
  3. H.264-Softcodierung.
  4. RTMP-Streaming mit Statusrückrufhandler.
  5. Dynamische Orientierung von Porträt und Landschaft.
  6. Hot-Schalter für Front- und Rückkameras.
  7. Aufnahme in MP4 während des Streamings.
1
Hamed Gh

Mux (mein Unternehmen) verfügt über eine Open-Source-Android-App , die RTMP an einen Server überträgt, einschließlich der Einrichtung der Kamera und der Benutzerinteraktionen. Es ist für das Streaming an die Live-Streaming-API von Mux konzipiert, kann jedoch problemlos an jeden RTMP-Eingangspunkt übertragen werden.

0
heff