English | 简体中文 | 繁體中文 | Русский язык | Français | Español | Português | Deutsch | 日本語 | 한국어 | Italiano | بالعربية
Процесс подгонки данных одной прямой называется регрессией. Идея логистической регрессии классификации заключается в том, что на основе существующих данных устанавливается регрессионная формула для границы классификации.
Формула выражается как:
Первая часть: метод градиентного подъема
В каждом итерации все данные участвуют в вычислениях.
for количество итераций:
Тренировка
Код таков:
import numpy as np import matplotlib.pyplot as plt def loadData(): labelVec = [] dataMat = [] with open('testSet.txt') as f: for line in f.readlines(): dataMat.append([1.0,line.strip().split()[0],line.strip().split()[1]]) labelVec.append(line.strip().split()[2]) return dataMat,labelVec def Sigmoid(inX): return 1/(1+np.exp(-inX)) def trainLR(dataMat,labelVec): dataMatrix = np.mat(dataMat).astype(np.float64) lableMatrix = np.mat(labelVec).T.astype(np.float64) m,n = dataMatrix.shape w = np.ones((n, 1)) alpha = 0.001 for i in range(500): predict = Sigmoid(dataMatrix*w) error = predict-lableMatrix w = w - alpha*dataMatrix.T*error return w def plotBestFit(wei,data,label): if type(wei).__name__ == 'ndarray': weights = wei else: weights = wei.getA() fig = plt.figure(0) ax = fig.add_subplot(111) xxx = np.arange(-3, 3, 0.1) yyy = - weights[0] / weights[2] - weights[1] / weights[2] * xxx ax.plot(xxx, yyy) cord1 = [] cord0 = [] for i in range(len(label)): if label[i] == 1: cord1.append(data[i][1:3]) else: cord0.append(data[i][1:3]) cord1 = np.array(cord1) cord0 = np.array(cord0) ax.scatter(cord1[:, 0], cord1[:, 1], c='red') ax.scatter(cord0[:, 0], cord0[:, 1], c='green') plt.show() if __name__ == "__main__": data, label = loadData() data = np.array(data).astype(np.float64) label = [int(item) for item in label] weight = trainLR(data,label) plotBestFit(weight,data,label)
Вторая часть: метод случайного градиентного подъема
1. Параметры обучения корректируются с каждым шагом итерации, что может смягчить高频波动 параметров.
2. Случайно выберите образцы для обновления параметров регрессии, это может уменьшить периодические колебания.
for количество итераций:
for количество образцов:
Обновите скорость обучения
Выберите образец случайно
Тренировка
Удалите этот образец из набора данных
Код таков:
import numpy as np import matplotlib.pyplot as plt def loadData(): labelVec = [] dataMat = [] with open('testSet.txt') as f: for line in f.readlines(): dataMat.append([1.0,line.strip().split()[0],line.strip().split()[1]]) labelVec.append(line.strip().split()[2]) return dataMat,labelVec def Sigmoid(inX): return 1/(1+np.exp(-inX)) def plotBestFit(wei,data,label): if type(wei).__name__ == 'ndarray': weights = wei else: weights = wei.getA() fig = plt.figure(0) ax = fig.add_subplot(111) xxx = np.arange(-3, 3, 0.1) yyy = - weights[0] / weights[2] - weights[1] / weights[2] * xxx ax.plot(xxx, yyy) cord1 = [] cord0 = [] for i in range(len(label)): if label[i] == 1: cord1.append(data[i][1:3]) else: cord0.append(data[i][1:3]) cord1 = np.array(cord1) cord0 = np.array(cord0) ax.scatter(cord1[:, 0], cord1[:, 1], c='red') ax.scatter(cord0[:, 0], cord0[:, 1], c='green') plt.show() def stocGradAscent(dataMat, labelVec, trainLoop): m, n = np.shape(dataMat) w = np.ones((n, 1)) for j in range(trainLoop): dataIndex = range(m) for i in range(m): alpha = 4 / (i + j + 1) + 0.01 randIndex = int(np.random.uniform(0, len(dataIndex))) predict = Sigmoid(np.dot(dataMat[dataIndex[randIndex]], w)) error = predict - labelVec[dataIndex[randIndex]] w = w - alpha * error * dataMat[dataIndex[randIndex]].reshape(n, 1) np.delete(dataIndex, randIndex, 0) return w if __name__ == "__main__": data, label = loadData() data = np.array(data).astype(np.float64) label = [int(item) for item in label] weight = stocGradAscent(data,label,300) plotBestFit(weight,data,label)
Третья часть: советы по программированию
1. Извлечение строки
Удаление из строки '\n', ‘\r', ‘\t', ' ‘, разделение по пробелу.
string.strip().split()
2. Определение типа
if type(secondTree[value]).__name__ == 'dict':
3. Множество
Произведение двух матриц типа вектор numpy, результатом также является матрица
c = a*b c Out[66]: matrix([[ 6.830482]])
Произведение двух векторов типа вектор, результатом является двумерный массив
b Out[80]: array([[ 1.], [ 1.], [ 1.]]) a Out[81]: array([1, 2, 3]) a*b Out[82]: array([[ 1., 2., 3.], [ 1., 2., 3.], [ 1., 2., 3.]]) b*a Out[83]: array([[ 1., 2., 3.], [ 1., 2., 3.], [ 1., 2., 3.]])
Это конец статьи, надеюсь, она поможет вам в изучении, также希望大家多多支持呐喊教程。
Заявление: содержимое этой статьи взято из Интернета, авторские права принадлежат соответствующему автору, контент предоставлен пользователями Интернета в добровольном порядке, сайт не имеет права собственности, не был отредактирован вручную и не несет ответственности за соответствующие юридические последствия. Если вы обнаружите контент,涉嫌侵犯版权, пожалуйста, отправьте письмо по адресу: notice#oldtoolbag.com (во время отправки письма замените # на @) для сообщения о нарушении,并提供 соответствующие доказательства. При подтверждении факта нарушения сайт незамедлительно удалят涉嫌侵权的内容.