SparkStreaming, RabbitMQ e MQTT em python usando pika

Apenas para tornar as coisas mais complicadas, eu gostaria de consumir mensagens da fila rabbitMQ. Agora eu sei que existe um plug-in para o MQTT no coelho (https://www.rabbitmq.com/mqtt.html)

No entanto, não consigo fazer um exemplo funcionar onde o Spark consome uma mensagem que foi produzida a partir do pika.

Por exemplo, estou usando o programa wordcount.py simples aqui (https://spark.apache.org/docs/1.2.0/streaming-programming-guide.html) para ver se consigo ver uma mensagemprodutor Da seguinte maneira:

import sys
import pika
import json
import future
import pprofile

def sendJson(json):

  connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
  channel = connection.channel()

  channel.queue_declare(queue='analytics', durable=True)
  channel.queue_bind(exchange='analytics_exchange',
                       queue='analytics')

  channel.basic_publish(exchange='analytics_exchange', routing_key='analytics',body=json)
  connection.close()

if __name__ == "__main__":
  with open(sys.argv[1],'r') as json_file:
    sendJson(json_file.read())

A corrente de faíscaconsumidor é o seguinte:

import sys
import operator

from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.streaming.mqtt import MQTTUtils

sc = SparkContext(appName="SS")
sc.setLogLevel("ERROR")
ssc = StreamingContext(sc, 1)
ssc.checkpoint("checkpoint")
#ssc.setLogLevel("ERROR")


#RabbitMQ

"""EXCHANGE = 'analytics_exchange'
EXCHANGE_TYPE = 'direct'
QUEUE = 'analytics'
ROUTING_KEY = 'analytics'
RESPONSE_ROUTING_KEY = 'analytics-response'
"""


brokerUrl = "localhost:5672" # "tcp://iot.eclipse.org:1883"
topic = "analytics"

mqttStream = MQTTUtils.createStream(ssc, brokerUrl, topic)
#dummy functions - nothing interesting...
words = mqttStream.flatMap(lambda line: line.split(" "))
pairs = words.map(lambda word: (word, 1))
wordCounts = pairs.reduceByKey(lambda x, y: x + y)

wordCounts.pprint()
ssc.start()
ssc.awaitTermination()

No entanto, diferentemente do exemplo simples de contagem de palavras, não consigo fazer isso funcionar e recebo o seguinte erro:

16/06/16 17:41:35 ERROR Executor: Exception in task 0.0 in stage 7.0 (TID 8)
java.lang.NullPointerException
    at org.eclipse.paho.client.mqttv3.MqttConnectOptions.validateURI(MqttConnectOptions.java:457)
    at org.eclipse.paho.client.mqttv3.MqttAsyncClient.<init>(MqttAsyncClient.java:273)

Então, minhas perguntas são: quais devem ser as configurações em termos deMQTTUtils.createStream(ssc, brokerUrl, topic) para escutar a fila e se há mais exemplos mais completos e como eles são mapeados nos do rabbitMQ.

Estou executando meu código de consumidor com:./bin/spark-submit ../../bb/code/skunkworks/sparkMQTTRabbit.py

Eu atualizei o código do produtor da seguinte forma com os parâmetros TCP, conforme sugerido por um comentário:

url_location = 'tcp://localhost'
url = os.environ.get('', url_location)
params = pika.URLParameters(url)
connection = pika.BlockingConnection(params)

e a faísca fluindo como:

brokerUrl = "tcp://127.0.0.1:5672"
topic = "#" #all messages

mqttStream = MQTTUtils.createStream(ssc, brokerUrl, topic)
records = mqttStream.flatMap(lambda line: json.loads(line))
count = records.map(lambda rec: len(rec))
total = count.reduce(lambda a, b: a + b)
total.pprint()

questionAnswers(1)

yourAnswerToTheQuestion