markdown stringlengths 0 37k | code stringlengths 1 33.3k | path stringlengths 8 215 | repo_name stringlengths 6 77 | license stringclasses 15
values |
|---|---|---|---|---|
Note that we have not yet written any data to the time variable. It automatically grew as we appended data along the time dimension to the variable temp, but the data is missing. | print(time)
times_arr = time[:]
print(type(times_arr),times_arr) # dashes indicate masked values (where data has not yet been written) | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Let's add write some data into the time variable.
Given a set of datetime instances, use date2num to convert to numeric time values and then write that data to the variable. | from datetime import datetime
from netCDF4 import date2num,num2date
# 1st 4 days of October.
dates = [datetime(2014,10,1,0),datetime(2014,10,2,0),datetime(2014,10,3,0),datetime(2014,10,4,0)]
print(dates)
times = date2num(dates, time.units)
print(times, time.units) # numeric values
time[:] = times
# read time data back,... | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Closing a netCDF file
It's important to close a netCDF file you opened for writing:
flushes buffers to make sure all data gets written
releases memory resources used by open netCDF files | # first print the Dataset object to see what we've got
print(ncfile)
# close the Dataset.
ncfile.close(); print('Dataset is closed!') | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Advanced features
So far we've only exercised features associated with the old netCDF version 3 data model. netCDF version 4 adds a lot of new functionality that comes with the more flexible HDF5 storage layer.
Let's create a new file with format='NETCDF4' so we can try out some of these features. | ncfile = netCDF4.Dataset('data/new2.nc','w',format='NETCDF4')
print(ncfile) | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Creating Groups
netCDF version 4 added support for organizing data in hierarchical groups.
analagous to directories in a filesystem.
Groups serve as containers for variables, dimensions and attributes, as well as other groups.
A netCDF4.Dataset creates a special group, called the 'root group', which is similar to t... | grp1 = ncfile.createGroup('model_run1')
grp2 = ncfile.createGroup('model_run2')
for grp in ncfile.groups.items():
print(grp) | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Create some dimensions in the root group. | lat_dim = ncfile.createDimension('lat', 73) # latitude axis
lon_dim = ncfile.createDimension('lon', 144) # longitude axis
time_dim = ncfile.createDimension('time', None) # unlimited axis (can be appended to). | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Now create a variable in grp1 and grp2. The library will search recursively upwards in the group tree to find the dimensions (which in this case are defined one level up).
These variables are create with zlib compression, another nifty feature of netCDF 4.
The data are automatically compressed when data is written t... | temp1 = grp1.createVariable('temp',np.float64,('time','lat','lon'),zlib=True)
temp2 = grp2.createVariable('temp',np.float64,('time','lat','lon'),zlib=True)
for grp in ncfile.groups.items(): # shows that each group now contains 1 variable
print(grp) | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Creating a variable with a compound data type
Compound data types map directly to numpy structured (a.k.a 'record' arrays).
Structured arrays are akin to C structs, or derived types in Fortran.
They allow for the construction of table-like structures composed of combinations of other data types, including other comp... | # create complex128 numpy structured data type
complex128 = np.dtype([('real',np.float64),('imag',np.float64)])
# using this numpy dtype, create a netCDF compound data type object
# the string name can be used as a key to access the datatype from the cmptypes dictionary.
complex128_t = ncfile.createCompoundType(complex... | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Creating a variable with a variable-length (vlen) data type
netCDF 4 has support for variable-length or "ragged" arrays. These are arrays of variable length sequences having the same type.
To create a variable-length data type, use the createVLType method.
The numpy datatype of the variable-length sequences and the n... | vlen_t = ncfile.createVLType(np.int64, 'phony_vlen') | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
A new variable can then be created using this datatype. | vlvar = grp2.createVariable('phony_vlen_var', vlen_t, ('time','lat','lon')) | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Since there is no native vlen datatype in numpy, vlen arrays are represented in python as object arrays (arrays of dtype object).
These are arrays whose elements are Python object pointers, and can contain any type of python object.
For this application, they must contain 1-D numpy arrays all of the same type but of... | vlen_data = np.empty((nlats,nlons),object)
for i in range(nlons):
for j in range(nlats):
size = np.random.randint(1,10,size=1) # random length of sequence
vlen_data[j,i] = np.random.randint(0,10,size=size)# generate random sequence
vlvar[0] = vlen_data # append along unlimited dimension (time)
print... | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Close the Dataset and examine the contents with ncdump. | ncfile.close()
!ncdump -h data/new2.nc | examples/writing_netCDF.ipynb | Unidata/netcdf4-python | mit |
Example plot for LFPy: Single-synapse contribution to the LFP
Copyright (C) 2017 Computational Neuroscience Group, NMBU.
This program is free software: you can redistribute it and/or modify
it under the terms of the GNU General Public License as published by
the Free Software Foundation, either version 3 of the License... | import LFPy
import numpy as np
import matplotlib.pyplot as plt | examples/LFPy-example-05.ipynb | espenhgn/LFPy | gpl-3.0 |
Main script, set parameters and create cell, synapse and electrode objects: | # Define cell parameters
cell_parameters = { # various cell parameters,
'morphology' : 'morphologies/L5_Mainen96_LFPy.hoc', # Mainen&Sejnowski, 1996
'cm' : 1.0, # membrane capacitance
'Ra' : 150., # axial resistance
'v_init' : -65., # initial crossmembrane potential
'passi... | examples/LFPy-example-05.ipynb | espenhgn/LFPy | gpl-3.0 |
Plot simulation output: | from example_suppl import plot_ex1
fig = plot_ex1(cell, electrode, X, Y, Z)
# Optionally save figure (uncomment the line below)
# fig.savefig('LFPy-example-5.pdf', dpi=300) | examples/LFPy-example-05.ipynb | espenhgn/LFPy | gpl-3.0 |
theano teaser
Как сделать то же самое | import theano
import theano.tensor as T
#будущий параметр функции
N = T.scalar("a dimension",dtype='int32')
#рецепт получения суммы квадратов
result = (T.arange(N)**2).sum()
#компиляция функции "сумма квадратов" чисел от 0 до N
sum_function = theano.function(inputs = [N],outputs=result)
%%time
sum_function(10**8... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Как оно работает?
Нужно написать "рецепт" получения выходов по входам
То же самое на заумном: нужно описать символический граф вычислений
2 вида зверей - "входы" и "преобразования"
Оба могут быть числами, массивами, матрицами, тензорами и т.п.
Вход - это то аргумент функции. То место, на которое подставится арг... | #входы
example_input_integer = T.scalar("вход - одно число(пример)",dtype='float32')
example_input_tensor = T.tensor4("вход - четырёхмерный тензор(пример)")
#не бойся, тензор нам не пригодится
input_vector = T.vector("вход - вектор целых чисел", dtype='int32')
#преобразования
#поэлементное умножение
double_the_v... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Компиляция
До этого момента, мы использовали "символические" переменные
писали рецепт вычислений, но ничего не вычисляли
чтобы рецепт можно было использовать, его нужно скомпилировать | inputs = [<от чего завсит функция>]
outputs = [<что вычисляет функция (можно сразу несколько - списком, либо 1 преобразование)>]
# можно скомпилировать написанные нами преобразования как функцию
my_function = theano.function(
inputs,outputs,
allow_input_downcast=True #автоматически прводить типы (необязательно... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
хинт для отладки
Если ваша функция большая, компиляция может отнять какое-то время.
Чтобы не ждать, можно посчитать выражение без компиляции
Вы экономите время 1 раз на компиляции, но сам код выполняется медленнее | #словарик значений для входов
my_function_inputs = {
my_vector:[1,2,3],
my_vector2:[4,5,6]
}
#вычислить без компиляции
#если мы ничего не перепутали,
#должно получиться точно то же, что и раньше
print my_transformation.eval(my_function_inputs)
#можно вычислять преобразования на ходу
print ("сумма 2 векторов... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Для отладки желательно уменьшить масштаб задачи. Если вы планировали послать на вход вектор из 10^9 примеров, пошлите 10~100.
Если #ОЧЕНЬ нужно послать большой вектор, быстрее скомпилировать функцию обычным способом
Теперь сам: MSE (2 pts) | # Задание 1 - напиши и скомпилируй theano-функцию, которая считает среднеквадратичную ошибку двух векторов-входов
# Вернуть нужно одно число - собственно, ошибку. Обновлять ничего не нужно
<твой код - входы и преобразования>
compute_mse =<твой код - компиляция функции>
#тесты
from sklearn.metrics import mean_squared... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Shared variables
Входы и преобразования - части рецепта.
Они существуют только во время вызова функции.
Shared переменные - всегда остаются в памяти
им можно поменять значение
(но не внутри символического графа. Об этом позже)
их можно включить в граф вычислений
хинт - в таких переменных удобно хранить параме... | #cоздадим расшаренную перменную
shared_vector_1 = theano.shared(np.ones(10,dtype='float64'))
#получить (численное) значение переменной
print ("initial value",shared_vector_1.get_value())
#задать новое значение
shared_vector_1.set_value( np.arange(5) )
#проверим значение
print ("new value", shared_vector_1.get_value... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Теперь сам | #напиши рецепт (преобразование), которое считает произведение(поэллементное) shared_vector на input_scalar
#скомпилируй это в функцию от input_scalar
input_scalar = T.scalar('coefficient',dtype='float32')
scalar_times_shared = <рецепт тут>
shared_times_n = <твой код, который компилирует функцию>
print ("shared:",... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
T.grad, самое вкусное
theano умеет само считать производные. Все, которые существуют.
Производные считаются в символическом, а не численном виде
Ограничения
* За раз можно считать производную скалярной функции по одной или нескольким скалярным или векторным аргументам
* Функция должна на всех этапах своего вычисления... | my_scalar = T.scalar(name='input',dtype='float64')
scalar_squared = T.sum(my_scalar**2)
#производная v_squared по my_vector
derivative = T.grad(scalar_squared,my_scalar)
fun = theano.function([my_scalar],scalar_squared)
grad = theano.function([my_scalar],derivative)
import matplotlib.pyplot as plt
%matplotlib inli... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
теперь сам |
my_vector = T.vector('float64')
#посчитай производные этой функции по my_scalar и my_vector
#warning! Не пытайся понять физический смысл этой функции
weird_psychotic_function = ((my_vector+my_scalar)**(1+T.var(my_vector)) +1./T.arcsinh(my_scalar)).mean()/(my_scalar**2 +1) + 0.01*T.sin(2*my_scalar**1.5)*(T.sum(my_vect... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Последний штрих - Updates
updates - это способ изменять значения shared переменных каждый раз В КОНЦЕ вызова функции
фактически, это словарь {shared_переменная: рецепт нового значения}, который добавляется в функцию при компиляции
Например, | #умножим shared вектор на число и сохраним новое значение обратно в этот shared вектор
inputs = [input_scalar]
outputs = [scalar_times_shared] #вернём вектор, умноженный на число
my_updates = {
shared_vector_1:scalar_times_shared #и этот же результат запишем в shared_vector_1
}
compute_and_save = theano.function... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Логистическая регрессия
Что нам потребуется:
* Веса лучше хранить в shared-переменной
* Данные можно передавать как input
* Нужно 2 функции:
* train_function(X,y) - возвращает ошибку и изменяет веса на 1 шаг по граиденту (через updates)
* predict_fun(X) - возвращает предсказанные ответы ("y") по данным | from sklearn.datasets import load_digits
mnist = load_digits(2)
X,y = mnist.data, mnist.target
print ("y [форма - %s]:"%(str(y.shape)),y[:10])
print ("X [форма - %s]:"%(str(X.shape)))
print (X[:3])
# переменные и входы
shared_weights = <твой код>
input_X = <твой код>
input_y = <твой код>
predicted_y = <предсказан... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
lasagne
lasagne - это библиотека для написания нейронок произвольной формы на theano
библиотека низкоуровневая, границы между theano и lasagne практически нет
В качестве демо-задачи выберем то же распознавание чисел, но на большем масштабе задачи
* картинки 28x28
* 10 цифр | from mnist import load_dataset
X_train,y_train,X_val,y_val,X_test,y_test = load_dataset()
print (X_train.shape,y_train.shape)
plt.imshow(X_train[0,0])
import lasagne
input_X = T.tensor4("X")
#размерность входа (None означает "может изменяться")
input_shape = [None,1,28,28]
target_y = T.vector("target Y integer",d... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Так задаётся архитектура нейронки | #входной слой (вспомогательный)
input_layer = lasagne.layers.InputLayer(shape = input_shape,input_var=input_X)
#полносвязный слой, который принимает на вход input layer и имеет 100 нейронов.
# нелинейная функция - сигмоида как в логистической регрессии
# слоям тоже можно давать имена, но это необязательно
dense_1 = la... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
дальше вы могли бы просто
задать функцию ошибки вручную
посчитать градиент ошибки по all_weights
написать updates
но это долго, а простой шаг по градиенту - не самый лучший смособ оптимизировать веса
Вместо этого, опять используем lasagne | #функция ошибки - средняя кроссэнтропия
loss = lasagne.objectives.categorical_crossentropy(y_predicted,target_y).mean()
accuracy = lasagne.objectives.categorical_accuracy(y_predicted,target_y).mean()
#сразу посчитать словарь обновлённых значений с шагом по градиенту, как раньше
updates_sgd = lasagne.updates.rmsprop(... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Вот и всё, пошли её учить
данных теперь много, поэтому лучше учиться стохастическим градиентным спуском
для этого напишем функцию, которая бьёт выпорку на мини-батчи (в обычном питоне, не в theano) | # вспомогательная функция, которая возвращает список мини-батчей для обучения нейронки
#на вход
# X - тензор из картинок размером (много, 1, 28, 28), например - X_train
# y - вектор из чиселок - ответов для каждой картинки из X; например - Y_train
#batch_size - одно число - желаемый размер группы
#что нужно сделать
#... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Процесс обучения | import time
num_epochs = 100 #количество проходов по данным
batch_size = 50 #размер мини-батча
for epoch in range(num_epochs):
# In each epoch, we do a full pass over the training data:
train_err = 0
train_acc = 0
train_batches = 0
start_time = time.time()
for batch in iterate_minibatches(X_t... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Нейронка твоей мечты
Задача - сделать нейронку, которая получит точность 99% на валидации (validation accuracy)
+1 балл за каждые 0.1% сверх 99%
Вариант "is fine too" - 97.5%.
Чем выше, тем лучше.
В конце есть мини-отчётик, который имеет смысл прочитать вначале и заполнять по ходу работы.
Что можно улучшить:
разм... | from mnist import load_dataset
X_train,y_train,X_val,y_val,X_test,y_test = load_dataset()
print (X_train.shape,y_train.shape)
import lasagne
input_X = T.tensor4("X")
#размерность входа (None означает "может изменяться")
input_shape = [None,1,28,28]
target_y = T.vector("target Y integer",dtype='int32')
#входной сл... | Seminar4/Seminar4-ru.ipynb | ddtm/dl-course | mit |
Formatting for PyUnfold use
Table of contents
Define analysis free parameters
Data preprocessing
Fitting random forest
Fraction correctly identified
Spectrum
Unfolding
Feature importance | from __future__ import division, print_function
import os
from collections import defaultdict
import numpy as np
from scipy.sparse import block_diag
import pandas as pd
import matplotlib.pyplot as plt
import seaborn.apionly as sns
import json
from scipy.interpolate import UnivariateSpline
from sklearn.metrics import a... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Define analysis free parameters
[ back to top ]
Whether or not to train on 'light' and 'heavy' composition classes, or the individual compositions | # config = 'IC79.2010'
config = 'IC86.2012'
num_groups = 4
comp_list = comp.get_comp_list(num_groups=num_groups)
comp_list | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Get composition classifier pipeline
Define energy binning for this analysis | energybins = comp.analysis.get_energybins(config=config) | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Data preprocessing
[ back to top ]
1. Load simulation/data dataframe and apply specified quality cuts
2. Extract desired features from dataframe
3. Get separate testing and training datasets
4. Feature transformation | log_energy_min = energybins.log_energy_min
log_energy_max = energybins.log_energy_max
df_sim_train, df_sim_test = comp.load_sim(config=config, log_energy_min=log_energy_min, log_energy_max=log_energy_max)
df_sim_train.reco_log_energy.min(), df_sim_train.reco_log_energy.max()
log_reco_energy_sim_test = df_sim_test['r... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Load fitted effective area | eff_path = os.path.join(comp.paths.comp_data_dir, config, 'efficiencies',
'efficiency_fit_num_groups_{}.hdf'.format(num_groups))
df_eff = pd.read_hdf(eff_path)
df_eff.head()
fig, ax = plt.subplots()
for composition in comp_list:
ax.errorbar(energybins.log_energy_midpoints, df_eff['eff_med... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Format for PyUnfold response matrix use | # efficiencies, efficiencies_err = [], []
# for idx, row in df_efficiency.iterrows():
# for composition in comp_list:
# efficiencies.append(row['eff_median_{}'.format(composition)])
# efficiencies_err.append(row['eff_err_low_{}'.format(composition)])
# efficiencies = np.asarray(efficiencies)
# effic... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Spectrum
[ back to top ]
Response matrix | test_predictions = pipeline.predict(df_sim_test[feature_list])
true_comp = df_sim_test['comp_group_{}'.format(num_groups)].values
pred_comp = np.array(comp.composition_encoding.decode_composition_groups(test_predictions,
num_groups=num_groups))
t... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Normalize response matrix column-wise (i.e. $P(E|C)$) | res_col_sum = res.sum(axis=0)
res_col_sum_err = np.array([np.sqrt(np.nansum(res_err[:, i]**2)) for i in range(res_err.shape[1])])
normalizations, normalizations_err = comp.analysis.ratio_error(res_col_sum, res_col_sum_err,
efficiencies, efficiencies_err,
... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Priors array | from icecube.weighting.weighting import from_simprod, PDGCode, ParticleType
from icecube.weighting.fluxes import GaisserH3a, GaisserH4a, Hoerandel5, Hoerandel_IT, CompiledFlux
df_sim = comp.load_sim(config=config, test_size=0, log_energy_min=6.0, log_energy_max=8.3)
df_sim.head()
p = PDGCode().values
pdg_codes = np.a... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Formatting for PyUnfold use | formatted_df = pd.DataFrame()
counts_formatted = []
priors_formatted = defaultdict(list)
for index, row in unfolding_df.iterrows():
for composition in comp_list:
counts_formatted.append(row['counts_{}'.format(composition)])
for priors_name in priors_list:
priors_formatted[priors_name].a... | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Save formatted DataFrame to disk | formatted_df_outfile = os.path.join(comp.paths.comp_data_dir, config, 'unfolding',
'unfolding-df_{}-groups.hdf'.format(num_groups))
comp.check_output_dir(formatted_df_outfile)
formatted_df.to_hdf(formatted_df_outfile, 'dataframe', format='table') | unfolding/pyunfold-formatting.ipynb | jrbourbeau/cr-composition | mit |
Считывание данных
Создайте объект класса artm.BatchVectorizer, который будет ссылаться на директорию с пакетами данных (батчами). Чтобы библиотека могла преобразовать текстовый файл в батчи, создайте пустую директорию и укажите ее название в параметре target_folder. Размер батча для небольших коллекций (как наша) не ва... | # Ваш код
batch_vectorizer = artm.BatchVectorizer(data_path='lectures.txt', data_format='vowpal_wabbit',
target_folder='lectures_batches', batch_size=250) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Инициализация модели
Создайте объект класса artm.Model с 30 темами, именами тем, указанными ниже и единичными весами обеих модальностей. Количество тем выбрано не очень большим, чтобы вам было удобнее работать с темами. На этой коллекции можно строить и большее число тем, тогда они будут более узко специализированы. | T = 30 # количество тем
topic_names=["sbj"+str(i) for i in range(T-1)]+["bcg"]
# Ваш код
model = artm.ARTM(num_topics=T, topic_names=topic_names, num_processors=2, class_ids={'text':1, 'author':1},
reuse_theta=True, cache_theta=True) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Мы будем строить 29 предметных тем и одну фоновую.
Соберите словарь с помощью метода gather_dictionary и инициализируйте модель, указав random_seed=1. Обязательно укажите свое название словаря, оно понадобится при добавлении регуляризаторов. | # Ваш код
np.random.seed(1)
dictionary = artm.Dictionary('dict')
dictionary.gather(batch_vectorizer.data_path)
model.initialize(dictionary=dictionary) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Добавление score
Создайте два измерителя качества artm.TopTokensScore - по одному для каждой модальности; количество токенов 15. Названия для score придумайте самостоятельно. | # Ваш код
model.scores.add(artm.TopTokensScore(name='top_tokens_score_mod1', class_id='text', num_tokens=15))
model.scores.add(artm.TopTokensScore(name='top_tokens_score_mod2', class_id='author', num_tokens=15)) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Построение модели
Мы будем строить модель в два этапа: сначала добавим сглаживающий регуляризатор фоновой темы и настроим параметры модели, затем - добавим разреживающий регуляризатор предметрых тем и выполним еще несколько итераций. Так мы сможем получить наиболее чистые от фоновых слов предметные темы. Сглаживающий и... | # Ваш код
model.regularizers.add(artm.SmoothSparsePhiRegularizer(tau=1e5, class_ids='text', dictionary='dict', topic_names='bcg')) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Выполните 30 итераций по коллекции (num_collection_passes), количество внутренних итераций установите равным 1. Используйте метод fit_offline модели. | # Ваш код
model.num_document_passes = 1
model.fit_offline(batch_vectorizer=batch_vectorizer, num_collection_passes=30) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Добавьте разреживающий регуляризатор с коэффициентом tau=-1e5, указав название своего словаря, модальность текста в class_ids и все темы "sbjX" в topic_names. | # Ваш код
topic_names_cleared = list(topic_names).remove('bcg')
model.regularizers.add(artm.SmoothSparsePhiRegularizer(tau=-1e5, class_ids='text', dictionary='dict',
topic_names=topic_names_cleared)) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Выполните еще 15 проходов по коллекции. | # Ваш код
model.fit_offline(batch_vectorizer=batch_vectorizer, num_collection_passes=15) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Интерпретация тем
Используя созданные score, выведите топы слов и топы авторов в темах. Удобнее всего выводить топ слов каждой темы с новой строки, указывая название темы в начале строки, и аналогично с авторами. | # Ваш код
tokens = model.score_tracker['top_tokens_score_mod1'].last_tokens
for topic_name in model.topic_names:
print topic_name + ': ',
for word in tokens[topic_name]:
print word,
print
# Ваш код
authors = model.score_tracker['top_tokens_score_mod2'].last_tokens
for topic_name in model.topic_... | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
В последней теме "bcg" должны находиться общеупотребительные слова.
Важный шаг в работе с тематической моделью, когда речь идет о визуализации или создании тематического навигатора, это именование тем. Понять, о чем каждая тема, можно по списку ее топовых слов. Например, тему
частица взаимодействие физика кварк симметр... | sbj_topic_labels = [] # запишите названия тем в список
for topic_name in model.topic_names[:29]:
sbj_topic_labels.append(tokens[topic_name][0])
topic_labels = sbj_topic_labels + [u"Фоновая тема"] | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Анализ тем
Далее мы будем работать с распределениями тем в документах (матрица $\Theta$) и авторов в темах (одна из двух матриц $\Phi$, соответствующая модальности авторов).
Создайте переменные, содержащие две этих матрицы, с помощью методов get_phi и get_theta модели. Назовите переменные theta и phi_a. Выведите формы... | model.theta_columns_naming = "title" # включает именование столбцов Theta их названиями-ссылками, а не внутренними id
# Ваш код
theta = model.get_theta()
print('Theta shape: %s' % str(theta.shape))
phi_a = model.get_phi(class_ids='author')
print('Phi_a shape: %s' % str(phi_a.shape)) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Визуализируем фрагмент матрицы $\Theta$ - первые 100 документов (это наиболее простой способ визуально оценить, как темы распределяются в документах). С помощью метода seaborn.heatmap выведите фрагмент theta как изображение. Рекомендация: создайте фигуру pyplot размера (20, 10). | # Ваш код
theta.iloc[:,:100]
plt.figure(figsize=(20,10))
plt.title('Theta matrix for the first 100 documents')
sns.heatmap(theta.iloc[:,:100], cmap='YlGnBu', xticklabels=False)
plt.show(); | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Вы должны увидеть, что фоновая тема имеет большую вероятность в почти каждом документе, и это логично. Кроме того, есть еще одна тема, которая чаще других встречается в документах. Судя по всему, это тема содержит много слов по науку в целом, а каждый документ (видео) в нашей коллекции связан с наукой. Можно (необязате... | # Ваш код
prob_theme_data = [np.sum(theta.iloc[i]) for i in range(theta.shape[0])]
prob_theme_data_normed = prob_theme_data / np.sum(prob_theme_data)
prob_theme = pd.DataFrame(data=prob_theme_data_normed, index=topic_labels, columns=['prob'])
prob_theme
prob_theme_max = prob_theme
prob_theme_min = prob_theme
print('M... | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Найдите 5 самых распространенных и 3 наименее освещенных темы в коллекции (наибольшие и наименьшие $p(t)$ соответственно), не считая фоновую и общенаучную. Укажите названия, которые вы дали этим темам.
Визуализируйте матрицу $\Phi$ модальности авторов в виде изображения. Рекомендация: установите yticklabels=False в hea... | # Ваш код
plt.figure(figsize=(20,10))
plt.title('Theta matrix for the first 100 documents')
sns.heatmap(phi_a.iloc[:100], cmap='YlGnBu', yticklabels=False)
plt.show(); | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Каждой теме соответствует не очень большое число авторов - матрица достаточно разреженная. Кроме того, некоторые темы имеют доминирующего автора $a$, имеющего большую вероятность $p(a|t)$ - этот автор записал больше всего лекций по теме.
Будем считать, что автор $a$ значим в теме, если $p(a|t) > 0.01$. Для каждого авт... | phi_a
for i in range(phi_a.shape[0]):
num_valuble_topics = 0
for val in phi_a.iloc[i]:
if val > 0.01:
num_valuble_topics += 1
if num_valuble_topics >= 3:
print(i),
print(phi_a.index[i])
print(phi_a.iloc[184]) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Большинство авторов значимы в 1 теме, что логично.
Построение тематической карты авторов
По сути, в матрице $\Phi$, соответствующей модальности авторов, записаны тематические кластеры авторов. Для любого автора мы можем составить его тематический круг - авторов, разбирающихся в той же теме, что и данный. Интересующиеся... | from sklearn.manifold import MDS
from sklearn.metrics import pairwise_distances
prob_theme_author = np.empty(phi_a.shape)
for i in range(prob_theme_author.shape[0]):
for j in range(prob_theme_author.shape[1]):
prob_theme_author[i,j] = phi_a.iloc[i,j] * prob_theme.iloc[j,:] / np.sum(phi_a.iloc[i,:] * prob_t... | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Визуализируйте найденные двумерные представления с помощью функции scatter. | # Ваш код
plt.figure(figsize=(10,5))
plt.scatter(pos[:,0], pos[:,1])
plt.show(); | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Должно получиться, что некоторые грппы авторов формируют сгустки, которые можно считать тематическими группами авторов.
Раскрасим точки следующим образом: для каждого автора выберем наиболее вероятную для него тему ($\max_t p(t|a)$), и каждой теме сопоставим цвет. Кроме того, добавим на карту имена и фамилии авторов, э... | import matplotlib.cm as cm
colors = cm.rainbow(np.linspace(0, 1, T)) # цвета для тем
# Ваш код
max_theme_prob_for_colors = [np.argmax(author) for author in prob_theme_author]
plt.figure(figsize=(15,10))
plt.axis('off')
plt.scatter(pos[:,0], pos[:,1], s=100, c=colors[max_theme_prob_for_colors])
for i, author in enumerat... | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Создание простого тематического навигатора по Постнауке
Наш тематический навигатор будет для каждой темы показывать ее список слов, а также список релевантных теме документов.
Нам понадобятся распределения $p(d|t)$. По формуле Байеса $p(d|t) = \frac{p(t|d)p(d)}{\sum_{d'}p(t|d')p(d')}$, но поскольку мы считаем документ... | # Ваш код
prob_doc_theme = theta.values / np.array([np.sum(theme) for theme in theta.values])[:, np.newaxis]
prob_doc_theme_sorted_indices = prob_doc_theme.argsort(axis=1)[:,::-1]
prob_doc_theme_sorted_indices | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Создавать навигатор мы будем прямо в jupiter notebook: это возможно благодаря тому факту, что при печати ссылки она автоматически превращается в гиперссылку. | print "http://yandex.ru" # получится кликабельная ссылка | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Кроме того, подключив модуль ipython.core.display, можно использовать html-разметку в выводе. Например: | from IPython.core.display import display, HTML
display(HTML(u"<h1>Заголовок</h1>")) # также <h2>, <h3>
display(HTML(u"<ul><li>Пункт 1</li><li>Пункт 2</li></ul>"))
display(HTML(u'<font color="green">Зеленый!</font>'))
display(HTML(u'<a href="http://yandex.ru">Еще один вариант вывода ссылки</a>')) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
В цикле для каждой темы выведите ее заголовок, в следующей строке - топ-10 слов темы, затем в виде списка ссылки на 10 наиболее релевантных (по $p(d|t)$) теме документов. Используйте html-разметку. Творчество приветствуется :) | # Ваш код
for i, theme in enumerate(topic_labels):
display(HTML("<h3>%s</h3>" % theme))
for j in range(10):
print(tokens[model.topic_names[i]][j]),
print('')
for k in range(10):
print(theta.columns[prob_doc_theme_sorted_indices[i,k]]) | 3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb | maxis42/ML-DA-Coursera-Yandex-MIPT | mit |
Order of Operations
Python uses the standard order of operations as taught in Algebra and Geometry classes. That, mathematical expressions are evaluated in the following order (memorized by many as PEMDAS or BODMAS {Brackets, Orders or pOwers, Division, Multiplication, Addition, Subtraction}) .
(Note that operations w... | print (round(3.14159265, 2)) | Section 1 - Core Python/Chapter 02 - Basics/2.3. Maths Operators.ipynb | mayank-johri/LearnSeleniumUsingPython | gpl-3.0 |
Let's show the symbols data, to see how good the recommender has to be. | print('Sharpe ratio: {}\nCum. Ret.: {}\nAVG_DRET: {}\nSTD_DRET: {}\nFinal value: {}'.format(*value_eval(pd.DataFrame(data_in_df['Close'].iloc[STARTING_DAYS_AHEAD:]))))
# Simulate (with new envs, each time)
n_epochs = 7
for i in range(n_epochs):
tic = time()
env.reset(STARTING_DAYS_AHEAD)
results_list = si... | notebooks/prod/n08_simple_q_learner_1000_states_4_actions_full_training.ipynb | mtasende/Machine-Learning-Nanodegree-Capstone | mit |
What are the metrics for "holding the position"? | print('Sharpe ratio: {}\nCum. Ret.: {}\nAVG_DRET: {}\nSTD_DRET: {}\nFinal value: {}'.format(*value_eval(pd.DataFrame(data_test_df['Close'].iloc[TEST_DAYS_AHEAD:]))))
import pickle
with open('../../data/simple_q_learner_1000_states_4_actions_full_training.pkl', 'wb') as best_agent:
pickle.dump(agents[0], best_agent... | notebooks/prod/n08_simple_q_learner_1000_states_4_actions_full_training.ipynb | mtasende/Machine-Learning-Nanodegree-Capstone | mit |
The N-Queens-Problem as a CSP
The function create_csp(n) takes a natural number n as argument and returns
a constraint satisfaction problem that encodes the
n-queens puzzle.
A constraint satisfaction problem $\mathcal{P}$ is a triple of the form
$$ \mathcal{P} = \langle \mathtt{Vars}, \mathtt{Values}, \mathtt{Constrai... | def create_csp(n):
S = range(1, n+1)
Variables = { f'V{i}' for i in S }
Values = set(S)
DifferentCols = { f'V{i} != V{j}' for i in S
for j in S
if i < j
}
Differ... | Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb | karlstroetmann/Artificial-Intelligence | gpl-2.0 |
The function main() creates a CSP representing the 4-queens puzzle and prints the CSP.
It is included for testing purposes. | def main():
Vars, Values, Constraints = create_csp(4)
print('Variables: ', Vars)
print('Values: ', Values)
print('Constraints:')
for c in Constraints:
print(' ', c)
main() | Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb | karlstroetmann/Artificial-Intelligence | gpl-2.0 |
Displaying the Solution | import chess | Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb | karlstroetmann/Artificial-Intelligence | gpl-2.0 |
The function show_solution(Solution) takes a dictionary that contains a variable assignment that represents a solution to the 8-queens puzzle. It displays this Solution on a chess board. | def show_solution(Solution):
board = chess.Board(None) # create empty chess board
queen = chess.Piece(chess.QUEEN, True)
for row in range(1, 8+1):
col = Solution['V'+str(row)]
field_number = (row - 1) * 8 + col - 1
board.set_piece_at(field_number, queen)
display(board) | Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb | karlstroetmann/Artificial-Intelligence | gpl-2.0 |
dc.data.get_trajectory can be used to get an optimal trajectory for some initial conditions | conditions = {'x0': 200, 'z0': 1000, 'vx0':-30, 'vz0': 0, 'theta0': 0, 'm0': 10000}
col_names = ['t', 'm', 'x', 'vx', 'z' , 'vz',' theta', 'u1', 'u2']
traj = dc.data.get_trajectory('../SpaceAMPL/lander/hs/main_rw_mass.mod', conditions, col_names=col_names) | examples/1 - Generate optimal trajectories - Direct Method.ipynb | darioizzo/optimal_landing | lgpl-3.0 |
The trajectory can be visualized (xy) with dc.vis.vis_trajectory | dc.vis.vis_trajectory(traj) | examples/1 - Generate optimal trajectories - Direct Method.ipynb | darioizzo/optimal_landing | lgpl-3.0 |
Or all the variables and control with dc.vis.vis_control | dc.vis.vis_control(traj,2) | examples/1 - Generate optimal trajectories - Direct Method.ipynb | darioizzo/optimal_landing | lgpl-3.0 |
Several random trajectories can be generated (in parallell) using a direct method with dc.data.generate_data | params = {'x0': (-1000,1000), 'z0': (500,2000), 'vx0': (-100,100), 'vz0': (-30,10), 'theta0': (-np.pi/20,np.pi/20), 'm0': (8000,12000)}
dc.data.generate_data('../SpaceAMPL/lander/hs/main_thrusters.mod', params, 100,10) | examples/1 - Generate optimal trajectories - Direct Method.ipynb | darioizzo/optimal_landing | lgpl-3.0 |
All trajectories can then be loaded with dc.data.load_trajectories | col_names = ['t', 'm', 'x', 'vx', 'z', 'vz', 'theta', 'vtheta', 'u1', 'uR', 'uL']
trajs = dc.data.load_trajectories('data/main_thrusters/', col_names = col_names)
trajs[0].head(5) | examples/1 - Generate optimal trajectories - Direct Method.ipynb | darioizzo/optimal_landing | lgpl-3.0 |
変数名とデータの内容メモ
CENSUS: 市区町村コード(9桁)
P: 成約価格
S: 専有面積
L: 土地面積
R: 部屋数
RW: 前面道路幅員
CY: 建築年
A: 建築後年数(成約時)
TS: 最寄駅までの距離
TT: 東京駅までの時間
ACC: ターミナル駅までの時間
WOOD: 木造ダミー
SOUTH: 南向きダミー
RSD: 住居系地域ダミー
CMD: 商業系地域ダミー
IDD: 工業系地域ダミー
FAR: 建ぺい率
FLR: 容積率
TDQ: 成約時点(四半期)
X: 緯度
Y:... | print(data['CITY_NAME'].value_counts()) | 不動産/research02.ipynb | NlGG/Projects | mit |
成約時点別×市区町村別の件数を集計 | print(data.pivot_table(index=['TDQ'], columns=['CITY_NAME'])) | 不動産/research02.ipynb | NlGG/Projects | mit |
成約時点別×地域ブロック別の件数を集計 | print(data.pivot_table(index=['TDQ'], columns=['BLOCK'])) | 不動産/research02.ipynb | NlGG/Projects | mit |
Histogram
価格(真数) | data['P'].hist() | 不動産/research02.ipynb | NlGG/Projects | mit |
価格(自然対数) | (np.log(data['P'])).hist() | 不動産/research02.ipynb | NlGG/Projects | mit |
建築後年数 | data['A'].hist()
plt.figure(figsize=(20,8))
plt.subplot(4, 2, 1)
data['P'].hist()
plt.title(u"成約価格")
plt.subplot(4, 2, 2)
data['S'].hist()
plt.title("専有面積")
plt.subplot(4, 2, 3)
data['L'].hist()
plt.title("土地面積")
plt.subplot(4, 2, 4)
data['R'].hist()
plt.title("部屋数")
plt.subplot(4, 2, 5)
da... | 不動産/research02.ipynb | NlGG/Projects | mit |
Plot
件数の推移 | plt.figure(figsize=(20,8))
data['TDQ'].value_counts().plot(kind='bar')
plt.figure(figsize=(20,8))
data['CITY_NAME'].value_counts().plot(kind='bar') #市区町村別の件数 | 不動産/research02.ipynb | NlGG/Projects | mit |
Main Analysis
OLS part | vars = ['P', 'S', 'L', 'R', 'RW', 'A', 'TS', 'TT', 'WOOD', 'SOUTH', 'CMD', 'IDD', 'FAR', 'X', 'Y']
eq = fml_build(vars)
y, X = dmatrices(eq, data=data, return_type='dataframe')
CITY_NAME = pd.get_dummies(data['CITY_NAME'])
TDQ = pd.get_dummies(data['TDQ'])
X = pd.concat((X, CITY_NAME, TDQ), axis=1)
datas = pd.conca... | 不動産/research02.ipynb | NlGG/Projects | mit |
青がOLSの誤差、緑がOLSと深層学習を組み合わせた誤差。 | model.compare()
print(np.mean(model.error1))
print(np.mean(model.error2))
print(np.mean(np.abs(model.error1)))
print(np.mean(np.abs(model.error2)))
print(max(np.abs(model.error1)))
print(max(np.abs(model.error2)))
print(np.var(model.error1))
print(np.var(model.error2))
fig = plt.figure()
ax = fig.add_subplot(111)
... | 不動産/research02.ipynb | NlGG/Projects | mit |
As before, we can confirm that distances were accurately recovered and we can check on how well metallicities were recovered compared to the measured value. | fig, ax = plt.subplots(1, 2, figsize=(10, 5))
# distance recovery diagnostic
distance_limits = (0.0, 20.0)
ax[0].set_xlabel('Observed Distance (pc)', fontsize=22.)
ax[0].set_ylabel('Inferred Distance (pc)', fontsize=22.)
ax[0].set_xlim(distance_limits)
ax[0].set_ylim(distance_limits)
ax[0].plot(distance_limits, distan... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
Distance are well recovered, as anticipated. Metallicities are scattered about the zero-point with perhaps a tendency for predicting systematically higher metallicities between $-0.40$ and $-0.20$ dex. Typical scatter appears to be around $\pm0.2$ dex, consistent with the assumed metallicities uncertainty. Points in re... | # relative errors
dTheta = (data[:,18] - data[:,8])/data[:,18]
dTeff = (data[:,24] - 10**data[:,6])/data[:,24]
dFbol = (data[:,22] - 10**(data[:,7]+ 8.0))/data[:,22]
# uncertainty normalized errors
dTheta_sigma = (data[:,18] - data[:,8])/data[:,19]
dTeff_sigma = (data[:,24] - 10**data[:,6])/data[:,25]
dFbol_sigma ... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
Recovery of observed fundamental properties. | from matplotlib.patches import Ellipse
fig, ax = plt.subplots(1, 1, figsize=(8, 8))
# set axis labels
ax.set_xlabel('$\\Delta F_{\\rm bol} / \\sigma$', fontsize=22.)
ax.set_ylabel('$\\Delta \\Theta / \\sigma$', fontsize=22.)
ax.set_xlim(-3.0, 3.0)
ax.set_ylim(-4.0, 4.0)
# plot 68% and 99% confidence intervals
ells = ... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
There is considerably better recovery of stellar fundamental properties once variations in helium abundance and the convective mixing length parameter are permitted. All points, with the exception of one, lie within the 99% confidence interval. We can explore whether systematic errors still remain in the sample, althou... | fig, ax = plt.subplots(2, 2, figsize=(10, 8), sharex=False, sharey=True)
ax[1, 0].set_xlabel('Bolometric Flux (erg s$^{-1}$ cm$^{-2}$)', fontsize=20.)
ax[1, 1].set_xlabel('Angular Diameter (mas)', fontsize=20.)
ax[1, 0].set_ylabel('$\\Delta \\Theta / \\sigma$', fontsize=20.)
ax[0, 0].set_ylabel('$\\Delta F_{\\rm bol} ... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
There is a rise of the average error as one moves toward lower bolometric fluxes and smaller angular diameters. These points are effectively all M dwarfs. This illustrates, quite well, that problems for the lowest mass stars are most resiliant to variations in stellar model input parameters, thus preserving the trends ... | fig, ax = plt.subplots(2, 2, figsize=(10, 8), sharex=False, sharey=True)
ax[1, 0].set_xlabel('Mass (M$_{\\odot}$)', fontsize=20.)
ax[1, 1].set_xlabel('Effective Temperature (K)', fontsize=20.)
ax[1, 0].set_ylabel('$\\Delta \\Theta / \\sigma$', fontsize=20.)
ax[0, 0].set_ylabel('$\\Delta F_{\\rm bol} / \\sigma$', fonts... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
These figures nicely illustrate the aforementioned phenomenon that models grow increasingly resiliant to variations in input parameters as stellar mass (and effective temperature) decreases. Note that it should be possible to quantify the significance of any potential rising trend toward lower masses or temperatures wi... | fig, ax = plt.subplots(2, 2, figsize=(12, 12), sharey=True)
ax[0, 0].set_xlabel('Mass (M$_{\\odot}$)', fontsize=20.)
ax[0, 1].set_xlabel('Effective Temperature (K)', fontsize=20.)
ax[1, 0].set_xlabel('Heavy Element Mass Fraction, $Z_i$', fontsize=20.)
ax[1, 1].set_xlabel('Mixing Length Parameter', fontsize=20.)
ax[1, ... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
Should probably provide some analysis.
Now we can look at the mixing length parameter, | fig, ax = plt.subplots(2, 2, figsize=(12, 12), sharey=True)
ax[0, 0].set_xlabel('Mass (M$_{\\odot}$)', fontsize=20.)
ax[0, 1].set_xlabel('Effective Temperature (K)', fontsize=20.)
ax[1, 0].set_xlabel('Metallicity, [M/H] (dex)', fontsize=20.)
ax[1, 1].set_xlabel('$\\log (g)$', fontsize=20.)
ax[1, 0].set_ylabel('Mixing ... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
NOTE: values for the Sun plotted above are drawn from our solar-calibrated model.
We can also compare how the inferred mixing length compares to those that are the result of extrapolating the Bonaca et al. (2012, ApJL, 755, L12) relation. The latter is valid for stars with $3.8 \le \log(g) \le 4.5$, $5000 \le T_{\rm ef... | B12_coeffs = [-12.77, 0.54, 3.18, 0.52] # from Table 1: Trilinear analysis
B12_alphas = B12_coeffs[0] + B12_coeffs[1]*Log_g + B12_coeffs[2]*data[:,6] + B12_coeffs[3]*data[:,1] | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
Now plot the Bonaca et al values against those we derived, | fig, ax = plt.subplots(1, 1, figsize=(8, 8))
ax.set_xlabel('Bonaca et al. $\\alpha_{\\rm MLT}$', fontsize=20.)
ax.set_ylabel('This work, $\\alpha_{\\rm MLT}$', fontsize=20.)
ax.tick_params(which='major', axis='both', length=10., labelsize=16.)
# one-to-one relation
ax.plot([1.0, 1.59], [1.0, 1.59], '--', lw=2, color=... | Projects/mlt_calib/float_Y_float_alpha.ipynb | gfeiden/Notebook | mit |
2、使用Python的help(...)查看库的元数据信息获得帮助。 | #help(UGC)
#help(OGDC)
#help(datasource) | geospatial/giscript/giscript_quickstart.ipynb | supergis/git_notebook | gpl-3.0 |
3、设置测试数据目录。 | import os
basepath = os.path.join(os.getcwd(),"../data")
print("Data path: ", basepath)
file1 = basepath + u"/Shape/countries.shp"
print("Data file: ", file1)
file2 = basepath + u"/Raster/astronaut(CMYK)_32.tif"
print("Data file: ", file2)
file3 = basepath + u"/Grid/grid_Int32.grd"
print("Data file: ", file3)
data... | geospatial/giscript/giscript_quickstart.ipynb | supergis/git_notebook | gpl-3.0 |
4、导入数据的测试函数。 | def Import_Test():
print("Export to UDB: ",datapath_out)
ds = datasource.CreateDatasource(UGC.UDB,datapath_out)
datasource.ImportVector(file1,ds)
datasource.ImportRaster(file2,ds)
datasource.ImportGrid(file3,ds)
ds.Close()
del ds
print("Finished.") | geospatial/giscript/giscript_quickstart.ipynb | supergis/git_notebook | gpl-3.0 |
5、运行这个测试。 | try:
Import_Test()
except Exception as ex:
print(ex)
| geospatial/giscript/giscript_quickstart.ipynb | supergis/git_notebook | gpl-3.0 |
(三)查看生成的数据源文件UDB。
下面使用了<font color="green">IPython的Magic操作符 !</font>,可以直接运行操作系统的Shell命令行。 | !ls -l -h ../data/GIScript_Test.* | geospatial/giscript/giscript_quickstart.ipynb | supergis/git_notebook | gpl-3.0 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.