Для подгонки y = A + B log x просто подгоните y к (log x ).
>>> x = numpy.array([1, 7, 20, 50, 79])
>>> y = numpy.array([10, 19, 30, 35, 51])
>>> numpy.polyfit(numpy.log(x), y, 1)
array([ 8.46295607, 6.61867463])
# y ≈ 8.46 log(x) + 6.62
Для подгонки y = Ae Bx возьмем логарифм с обеих сторон и получим log y = log A + Bx . Так что подходите (войдите y ) против x .
Обратите внимание, что подгонка (log y ), как если бы она была линейной, будет подчеркивать небольшие значения y , вызывая большое отклонение для больших y . Это потому, что polyfit
(линейная регрессия) работает путем минимизации ∑ i (Δ Y ) 2 = ∑ i ( Y i - Ŷ i ) 2 . Когда Y i = log y i , остатки Δ Y i = Δ (log y i ) ≈ Δ y i / | у меня | Так что даже еслиpolyfit
принимает очень плохое решение для больших y , «делить на | y |» фактор будет компенсировать это, вызывая при этом polyfit
небольшие значения.
Это можно было бы облегчить, задав каждой записи «вес», пропорциональный y . polyfit
поддерживает взвешенные наименьшие квадраты с помощью w
ключевого аргумента.
>>> x = numpy.array([10, 19, 30, 35, 51])
>>> y = numpy.array([1, 7, 20, 50, 79])
>>> numpy.polyfit(x, numpy.log(y), 1)
array([ 0.10502711, -0.40116352])
# y ≈ exp(-0.401) * exp(0.105 * x) = 0.670 * exp(0.105 * x)
# (^ biased towards small values)
>>> numpy.polyfit(x, numpy.log(y), 1, w=numpy.sqrt(y))
array([ 0.06009446, 1.41648096])
# y ≈ exp(1.42) * exp(0.0601 * x) = 4.12 * exp(0.0601 * x)
# (^ not so biased)
Обратите внимание, что Excel, LibreOffice и большинство научных калькуляторов обычно используют невзвешенную (смещенную) формулу для экспоненциальной линии регрессии / тренда. Если вы хотите, чтобы ваши результаты были совместимы с этими платформами, не включайте веса, даже если они обеспечивают лучшие результаты.
Теперь, если вы можете использовать Scipy, вы можете использовать, scipy.optimize.curve_fit
чтобы соответствовать любой модели без преобразований.
Для y = A + B log x результат такой же, как у метода преобразования:
>>> x = numpy.array([1, 7, 20, 50, 79])
>>> y = numpy.array([10, 19, 30, 35, 51])
>>> scipy.optimize.curve_fit(lambda t,a,b: a+b*numpy.log(t), x, y)
(array([ 6.61867467, 8.46295606]),
array([[ 28.15948002, -7.89609542],
[ -7.89609542, 2.9857172 ]]))
# y ≈ 6.62 + 8.46 log(x)
Однако для y = Ae Bx мы можем получить лучшее соответствие, так как он вычисляет Δ (log y ) напрямую. Но нам нужно предоставить предположение об инициализации, чтобы curve_fit
достичь желаемого локального минимума.
>>> x = numpy.array([10, 19, 30, 35, 51])
>>> y = numpy.array([1, 7, 20, 50, 79])
>>> scipy.optimize.curve_fit(lambda t,a,b: a*numpy.exp(b*t), x, y)
(array([ 5.60728326e-21, 9.99993501e-01]),
array([[ 4.14809412e-27, -1.45078961e-08],
[ -1.45078961e-08, 5.07411462e+10]]))
# oops, definitely wrong.
>>> scipy.optimize.curve_fit(lambda t,a,b: a*numpy.exp(b*t), x, y, p0=(4, 0.1))
(array([ 4.88003249, 0.05531256]),
array([[ 1.01261314e+01, -4.31940132e-02],
[ -4.31940132e-02, 1.91188656e-04]]))
# y ≈ 4.88 exp(0.0553 x). much better.
y
мало, будут искусственно переоценены. Лучше определить функцию (линейную, а не логарифмическую трансформацию) и использовать установщик кривой или минимизатор.Вы также можете поместить набор из данных к любой функции , которую вы , как с помощью
curve_fit
сscipy.optimize
. Например, если вы хотите установить экспоненциальную функцию (из документации ):И тогда, если вы хотите построить, вы можете сделать:
(Примечание:
*
перед ,popt
когда сюжет будет расширяться вне терминов вa
,b
иc
чтоfunc
. Ожидает)источник
a
,b
иc
?У меня были некоторые проблемы с этим, поэтому позвольте мне быть очень откровенным, чтобы такие нубы, как я, могли понять.
Допустим, у нас есть файл данных или что-то подобное
результат: a = 0,849195983017, b = -1,18101681765, c = 2,24061176543, d = 0,816643894816
источник
y = [np.exp(i) for i in x]
очень медленно; одна из причин, по которой была создана numpy, заключалась в том, чтобы вы могли писатьy=np.exp(x)
. Кроме того, с этой заменой вы можете избавиться от своего раздела жестокой силы. В ipython есть%timeit
магия, от которойIn [27]: %timeit ylist=[exp(i) for i in x] 10000 loops, best of 3: 172 us per loop In [28]: %timeit yarr=exp(x) 100000 loops, best of 3: 2.85 us per loop
x = np.array(x, dtype=float)
должен позволить вам избавиться от медленного понимания списка.Ну, я думаю, вы всегда можете использовать:
Немного изменив ответ IanVS :
Это приводит к следующему графику:
источник
Вот опция линеаризации простых данных, в которой используются инструменты из Scikit Learn .
Дано
Код
Подход экспоненциальных данных
Fit данные журнала
подробности
Общие шаги
x
,y
или оба)np.exp()
) и подгонки к исходным даннымПредполагая , что наш данные следует экспоненциальная тенденция, общее уравнение + может быть:
Мы можем линеаризовать последнее уравнение (например, y = intercept + slope * x), взяв лог :
Учитывая линеаризованное уравнение ++ и параметры регрессии, мы могли бы рассчитать:
A
через перехват (ln(A)
)B
через склон (B
)Краткое изложение методов линеаризации
+ Примечание: линеаризация экспоненциальных функций работает лучше всего, когда шум мал и C = 0. Используйте с осторожностью.
++ Примечание: хотя изменение данных x помогает линеаризовать экспоненциальные данные, изменение данных y помогает линеаризовать данные журнала .
источник
Мы демонстрируем особенности
lmfit
при решении обеих задач.Дано
Код
Подход 1 -
lmfit
МодельПодход экспоненциальных данных
Подход 2 - Пользовательская модель
Fit данные журнала
подробности
Вы можете определить предполагаемые параметры из объекта регрессора. Пример:
Примечание:
ExponentialModel()
ниже следует функция затухания , которая принимает два параметра, один из которых является отрицательным.Смотрите также
ExponentialGaussianModel()
, который принимает больше параметров .Установить библиотеку через
> pip install lmfit
.источник
Вольфрам имеет замкнутую форму решения для подгонки экспоненты . Они также имеют аналогичные решения для подбора логарифмического и степенного закона .
Я нашел, что это работает лучше, чем Scipy's Curve_fit. Вот пример:
источник