¿Cómo arreglar la tasa de falsos positivos de un SVM lineal?

Soy un novato en SVM y este es mi caso de uso: tengo una gran cantidad de datos no balanceados para ser clasificados en binario utilizando un SVM lineal. Necesito corregir la tasa de falsos positivos en ciertos valores y medir los falsos negativos correspondientes para cada valor. Estoy usando algo como el siguiente código que usa la implementación de scikit-learn svm:

# define training data
X = [[0, 0], [1, 1]]
y = [0, 1]

# define and train the SVM
clf = svm.LinearSVC(C=0.01, class_weight='auto') #auto for unbalanced distributions
clf.fit(X, y)

# compute false positives and false negatives
predictions = [clf.predict(ex) for ex in X]    
false_positives = [(a, b) for (a, b) in zip(predictions,y) if a != b and b == 0]
false_negatives = [(a, b) for (a, b) in zip(predictions,y) if a != b and b == 1] 

¿Hay una manera de jugar con un parámetro (o unos pocos parámetros) del clasificador de tal manera que una de las métricas de medición sea efectivamente arreglada?

Respuestas a la pregunta(2)

Su respuesta a la pregunta