markdown
stringlengths
0
37k
code
stringlengths
1
33.3k
path
stringlengths
8
215
repo_name
stringlengths
6
77
license
stringclasses
15 values
Note that we have not yet written any data to the time variable. It automatically grew as we appended data along the time dimension to the variable temp, but the data is missing.
print(time) times_arr = time[:] print(type(times_arr),times_arr) # dashes indicate masked values (where data has not yet been written)
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Let's add write some data into the time variable. Given a set of datetime instances, use date2num to convert to numeric time values and then write that data to the variable.
from datetime import datetime from netCDF4 import date2num,num2date # 1st 4 days of October. dates = [datetime(2014,10,1,0),datetime(2014,10,2,0),datetime(2014,10,3,0),datetime(2014,10,4,0)] print(dates) times = date2num(dates, time.units) print(times, time.units) # numeric values time[:] = times # read time data back,...
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Closing a netCDF file It's important to close a netCDF file you opened for writing: flushes buffers to make sure all data gets written releases memory resources used by open netCDF files
# first print the Dataset object to see what we've got print(ncfile) # close the Dataset. ncfile.close(); print('Dataset is closed!')
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Advanced features So far we've only exercised features associated with the old netCDF version 3 data model. netCDF version 4 adds a lot of new functionality that comes with the more flexible HDF5 storage layer. Let's create a new file with format='NETCDF4' so we can try out some of these features.
ncfile = netCDF4.Dataset('data/new2.nc','w',format='NETCDF4') print(ncfile)
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Creating Groups netCDF version 4 added support for organizing data in hierarchical groups. analagous to directories in a filesystem. Groups serve as containers for variables, dimensions and attributes, as well as other groups. A netCDF4.Dataset creates a special group, called the 'root group', which is similar to t...
grp1 = ncfile.createGroup('model_run1') grp2 = ncfile.createGroup('model_run2') for grp in ncfile.groups.items(): print(grp)
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Create some dimensions in the root group.
lat_dim = ncfile.createDimension('lat', 73) # latitude axis lon_dim = ncfile.createDimension('lon', 144) # longitude axis time_dim = ncfile.createDimension('time', None) # unlimited axis (can be appended to).
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Now create a variable in grp1 and grp2. The library will search recursively upwards in the group tree to find the dimensions (which in this case are defined one level up). These variables are create with zlib compression, another nifty feature of netCDF 4. The data are automatically compressed when data is written t...
temp1 = grp1.createVariable('temp',np.float64,('time','lat','lon'),zlib=True) temp2 = grp2.createVariable('temp',np.float64,('time','lat','lon'),zlib=True) for grp in ncfile.groups.items(): # shows that each group now contains 1 variable print(grp)
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Creating a variable with a compound data type Compound data types map directly to numpy structured (a.k.a 'record' arrays). Structured arrays are akin to C structs, or derived types in Fortran. They allow for the construction of table-like structures composed of combinations of other data types, including other comp...
# create complex128 numpy structured data type complex128 = np.dtype([('real',np.float64),('imag',np.float64)]) # using this numpy dtype, create a netCDF compound data type object # the string name can be used as a key to access the datatype from the cmptypes dictionary. complex128_t = ncfile.createCompoundType(complex...
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Creating a variable with a variable-length (vlen) data type netCDF 4 has support for variable-length or "ragged" arrays. These are arrays of variable length sequences having the same type. To create a variable-length data type, use the createVLType method. The numpy datatype of the variable-length sequences and the n...
vlen_t = ncfile.createVLType(np.int64, 'phony_vlen')
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
A new variable can then be created using this datatype.
vlvar = grp2.createVariable('phony_vlen_var', vlen_t, ('time','lat','lon'))
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Since there is no native vlen datatype in numpy, vlen arrays are represented in python as object arrays (arrays of dtype object). These are arrays whose elements are Python object pointers, and can contain any type of python object. For this application, they must contain 1-D numpy arrays all of the same type but of...
vlen_data = np.empty((nlats,nlons),object) for i in range(nlons): for j in range(nlats): size = np.random.randint(1,10,size=1) # random length of sequence vlen_data[j,i] = np.random.randint(0,10,size=size)# generate random sequence vlvar[0] = vlen_data # append along unlimited dimension (time) print...
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Close the Dataset and examine the contents with ncdump.
ncfile.close() !ncdump -h data/new2.nc
examples/writing_netCDF.ipynb
Unidata/netcdf4-python
mit
Example plot for LFPy: Single-synapse contribution to the LFP Copyright (C) 2017 Computational Neuroscience Group, NMBU. This program is free software: you can redistribute it and/or modify it under the terms of the GNU General Public License as published by the Free Software Foundation, either version 3 of the License...
import LFPy import numpy as np import matplotlib.pyplot as plt
examples/LFPy-example-05.ipynb
espenhgn/LFPy
gpl-3.0
Main script, set parameters and create cell, synapse and electrode objects:
# Define cell parameters cell_parameters = { # various cell parameters, 'morphology' : 'morphologies/L5_Mainen96_LFPy.hoc', # Mainen&Sejnowski, 1996 'cm' : 1.0, # membrane capacitance 'Ra' : 150., # axial resistance 'v_init' : -65., # initial crossmembrane potential 'passi...
examples/LFPy-example-05.ipynb
espenhgn/LFPy
gpl-3.0
Plot simulation output:
from example_suppl import plot_ex1 fig = plot_ex1(cell, electrode, X, Y, Z) # Optionally save figure (uncomment the line below) # fig.savefig('LFPy-example-5.pdf', dpi=300)
examples/LFPy-example-05.ipynb
espenhgn/LFPy
gpl-3.0
theano teaser Как сделать то же самое
import theano import theano.tensor as T #будущий параметр функции N = T.scalar("a dimension",dtype='int32') #рецепт получения суммы квадратов result = (T.arange(N)**2).sum() #компиляция функции "сумма квадратов" чисел от 0 до N sum_function = theano.function(inputs = [N],outputs=result) %%time sum_function(10**8...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Как оно работает? Нужно написать "рецепт" получения выходов по входам То же самое на заумном: нужно описать символический граф вычислений 2 вида зверей - "входы" и "преобразования" Оба могут быть числами, массивами, матрицами, тензорами и т.п. Вход - это то аргумент функции. То место, на которое подставится арг...
#входы example_input_integer = T.scalar("вход - одно число(пример)",dtype='float32') example_input_tensor = T.tensor4("вход - четырёхмерный тензор(пример)") #не бойся, тензор нам не пригодится input_vector = T.vector("вход - вектор целых чисел", dtype='int32') #преобразования #поэлементное умножение double_the_v...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Компиляция До этого момента, мы использовали "символические" переменные писали рецепт вычислений, но ничего не вычисляли чтобы рецепт можно было использовать, его нужно скомпилировать
inputs = [<от чего завсит функция>] outputs = [<что вычисляет функция (можно сразу несколько - списком, либо 1 преобразование)>] # можно скомпилировать написанные нами преобразования как функцию my_function = theano.function( inputs,outputs, allow_input_downcast=True #автоматически прводить типы (необязательно...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
хинт для отладки Если ваша функция большая, компиляция может отнять какое-то время. Чтобы не ждать, можно посчитать выражение без компиляции Вы экономите время 1 раз на компиляции, но сам код выполняется медленнее
#словарик значений для входов my_function_inputs = { my_vector:[1,2,3], my_vector2:[4,5,6] } #вычислить без компиляции #если мы ничего не перепутали, #должно получиться точно то же, что и раньше print my_transformation.eval(my_function_inputs) #можно вычислять преобразования на ходу print ("сумма 2 векторов...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Для отладки желательно уменьшить масштаб задачи. Если вы планировали послать на вход вектор из 10^9 примеров, пошлите 10~100. Если #ОЧЕНЬ нужно послать большой вектор, быстрее скомпилировать функцию обычным способом Теперь сам: MSE (2 pts)
# Задание 1 - напиши и скомпилируй theano-функцию, которая считает среднеквадратичную ошибку двух векторов-входов # Вернуть нужно одно число - собственно, ошибку. Обновлять ничего не нужно <твой код - входы и преобразования> compute_mse =<твой код - компиляция функции> #тесты from sklearn.metrics import mean_squared...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Shared variables Входы и преобразования - части рецепта. Они существуют только во время вызова функции. Shared переменные - всегда остаются в памяти им можно поменять значение (но не внутри символического графа. Об этом позже) их можно включить в граф вычислений хинт - в таких переменных удобно хранить параме...
#cоздадим расшаренную перменную shared_vector_1 = theano.shared(np.ones(10,dtype='float64')) #получить (численное) значение переменной print ("initial value",shared_vector_1.get_value()) #задать новое значение shared_vector_1.set_value( np.arange(5) ) #проверим значение print ("new value", shared_vector_1.get_value...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Теперь сам
#напиши рецепт (преобразование), которое считает произведение(поэллементное) shared_vector на input_scalar #скомпилируй это в функцию от input_scalar input_scalar = T.scalar('coefficient',dtype='float32') scalar_times_shared = <рецепт тут> shared_times_n = <твой код, который компилирует функцию> print ("shared:",...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
T.grad, самое вкусное theano умеет само считать производные. Все, которые существуют. Производные считаются в символическом, а не численном виде Ограничения * За раз можно считать производную скалярной функции по одной или нескольким скалярным или векторным аргументам * Функция должна на всех этапах своего вычисления...
my_scalar = T.scalar(name='input',dtype='float64') scalar_squared = T.sum(my_scalar**2) #производная v_squared по my_vector derivative = T.grad(scalar_squared,my_scalar) fun = theano.function([my_scalar],scalar_squared) grad = theano.function([my_scalar],derivative) import matplotlib.pyplot as plt %matplotlib inli...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
теперь сам
my_vector = T.vector('float64') #посчитай производные этой функции по my_scalar и my_vector #warning! Не пытайся понять физический смысл этой функции weird_psychotic_function = ((my_vector+my_scalar)**(1+T.var(my_vector)) +1./T.arcsinh(my_scalar)).mean()/(my_scalar**2 +1) + 0.01*T.sin(2*my_scalar**1.5)*(T.sum(my_vect...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Последний штрих - Updates updates - это способ изменять значения shared переменных каждый раз В КОНЦЕ вызова функции фактически, это словарь {shared_переменная: рецепт нового значения}, который добавляется в функцию при компиляции Например,
#умножим shared вектор на число и сохраним новое значение обратно в этот shared вектор inputs = [input_scalar] outputs = [scalar_times_shared] #вернём вектор, умноженный на число my_updates = { shared_vector_1:scalar_times_shared #и этот же результат запишем в shared_vector_1 } compute_and_save = theano.function...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Логистическая регрессия Что нам потребуется: * Веса лучше хранить в shared-переменной * Данные можно передавать как input * Нужно 2 функции: * train_function(X,y) - возвращает ошибку и изменяет веса на 1 шаг по граиденту (через updates) * predict_fun(X) - возвращает предсказанные ответы ("y") по данным
from sklearn.datasets import load_digits mnist = load_digits(2) X,y = mnist.data, mnist.target print ("y [форма - %s]:"%(str(y.shape)),y[:10]) print ("X [форма - %s]:"%(str(X.shape))) print (X[:3]) # переменные и входы shared_weights = <твой код> input_X = <твой код> input_y = <твой код> predicted_y = <предсказан...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
lasagne lasagne - это библиотека для написания нейронок произвольной формы на theano библиотека низкоуровневая, границы между theano и lasagne практически нет В качестве демо-задачи выберем то же распознавание чисел, но на большем масштабе задачи * картинки 28x28 * 10 цифр
from mnist import load_dataset X_train,y_train,X_val,y_val,X_test,y_test = load_dataset() print (X_train.shape,y_train.shape) plt.imshow(X_train[0,0]) import lasagne input_X = T.tensor4("X") #размерность входа (None означает "может изменяться") input_shape = [None,1,28,28] target_y = T.vector("target Y integer",d...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Так задаётся архитектура нейронки
#входной слой (вспомогательный) input_layer = lasagne.layers.InputLayer(shape = input_shape,input_var=input_X) #полносвязный слой, который принимает на вход input layer и имеет 100 нейронов. # нелинейная функция - сигмоида как в логистической регрессии # слоям тоже можно давать имена, но это необязательно dense_1 = la...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
дальше вы могли бы просто задать функцию ошибки вручную посчитать градиент ошибки по all_weights написать updates но это долго, а простой шаг по градиенту - не самый лучший смособ оптимизировать веса Вместо этого, опять используем lasagne
#функция ошибки - средняя кроссэнтропия loss = lasagne.objectives.categorical_crossentropy(y_predicted,target_y).mean() accuracy = lasagne.objectives.categorical_accuracy(y_predicted,target_y).mean() #сразу посчитать словарь обновлённых значений с шагом по градиенту, как раньше updates_sgd = lasagne.updates.rmsprop(...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Вот и всё, пошли её учить данных теперь много, поэтому лучше учиться стохастическим градиентным спуском для этого напишем функцию, которая бьёт выпорку на мини-батчи (в обычном питоне, не в theano)
# вспомогательная функция, которая возвращает список мини-батчей для обучения нейронки #на вход # X - тензор из картинок размером (много, 1, 28, 28), например - X_train # y - вектор из чиселок - ответов для каждой картинки из X; например - Y_train #batch_size - одно число - желаемый размер группы #что нужно сделать #...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Процесс обучения
import time num_epochs = 100 #количество проходов по данным batch_size = 50 #размер мини-батча for epoch in range(num_epochs): # In each epoch, we do a full pass over the training data: train_err = 0 train_acc = 0 train_batches = 0 start_time = time.time() for batch in iterate_minibatches(X_t...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Нейронка твоей мечты Задача - сделать нейронку, которая получит точность 99% на валидации (validation accuracy) +1 балл за каждые 0.1% сверх 99% Вариант "is fine too" - 97.5%. Чем выше, тем лучше. В конце есть мини-отчётик, который имеет смысл прочитать вначале и заполнять по ходу работы. Что можно улучшить: разм...
from mnist import load_dataset X_train,y_train,X_val,y_val,X_test,y_test = load_dataset() print (X_train.shape,y_train.shape) import lasagne input_X = T.tensor4("X") #размерность входа (None означает "может изменяться") input_shape = [None,1,28,28] target_y = T.vector("target Y integer",dtype='int32') #входной сл...
Seminar4/Seminar4-ru.ipynb
ddtm/dl-course
mit
Formatting for PyUnfold use Table of contents Define analysis free parameters Data preprocessing Fitting random forest Fraction correctly identified Spectrum Unfolding Feature importance
from __future__ import division, print_function import os from collections import defaultdict import numpy as np from scipy.sparse import block_diag import pandas as pd import matplotlib.pyplot as plt import seaborn.apionly as sns import json from scipy.interpolate import UnivariateSpline from sklearn.metrics import a...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Define analysis free parameters [ back to top ] Whether or not to train on 'light' and 'heavy' composition classes, or the individual compositions
# config = 'IC79.2010' config = 'IC86.2012' num_groups = 4 comp_list = comp.get_comp_list(num_groups=num_groups) comp_list
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Get composition classifier pipeline Define energy binning for this analysis
energybins = comp.analysis.get_energybins(config=config)
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Data preprocessing [ back to top ] 1. Load simulation/data dataframe and apply specified quality cuts 2. Extract desired features from dataframe 3. Get separate testing and training datasets 4. Feature transformation
log_energy_min = energybins.log_energy_min log_energy_max = energybins.log_energy_max df_sim_train, df_sim_test = comp.load_sim(config=config, log_energy_min=log_energy_min, log_energy_max=log_energy_max) df_sim_train.reco_log_energy.min(), df_sim_train.reco_log_energy.max() log_reco_energy_sim_test = df_sim_test['r...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Load fitted effective area
eff_path = os.path.join(comp.paths.comp_data_dir, config, 'efficiencies', 'efficiency_fit_num_groups_{}.hdf'.format(num_groups)) df_eff = pd.read_hdf(eff_path) df_eff.head() fig, ax = plt.subplots() for composition in comp_list: ax.errorbar(energybins.log_energy_midpoints, df_eff['eff_med...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Format for PyUnfold response matrix use
# efficiencies, efficiencies_err = [], [] # for idx, row in df_efficiency.iterrows(): # for composition in comp_list: # efficiencies.append(row['eff_median_{}'.format(composition)]) # efficiencies_err.append(row['eff_err_low_{}'.format(composition)]) # efficiencies = np.asarray(efficiencies) # effic...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Spectrum [ back to top ] Response matrix
test_predictions = pipeline.predict(df_sim_test[feature_list]) true_comp = df_sim_test['comp_group_{}'.format(num_groups)].values pred_comp = np.array(comp.composition_encoding.decode_composition_groups(test_predictions, num_groups=num_groups)) t...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Normalize response matrix column-wise (i.e. $P(E|C)$)
res_col_sum = res.sum(axis=0) res_col_sum_err = np.array([np.sqrt(np.nansum(res_err[:, i]**2)) for i in range(res_err.shape[1])]) normalizations, normalizations_err = comp.analysis.ratio_error(res_col_sum, res_col_sum_err, efficiencies, efficiencies_err, ...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Priors array
from icecube.weighting.weighting import from_simprod, PDGCode, ParticleType from icecube.weighting.fluxes import GaisserH3a, GaisserH4a, Hoerandel5, Hoerandel_IT, CompiledFlux df_sim = comp.load_sim(config=config, test_size=0, log_energy_min=6.0, log_energy_max=8.3) df_sim.head() p = PDGCode().values pdg_codes = np.a...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Formatting for PyUnfold use
formatted_df = pd.DataFrame() counts_formatted = [] priors_formatted = defaultdict(list) for index, row in unfolding_df.iterrows(): for composition in comp_list: counts_formatted.append(row['counts_{}'.format(composition)]) for priors_name in priors_list: priors_formatted[priors_name].a...
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Save formatted DataFrame to disk
formatted_df_outfile = os.path.join(comp.paths.comp_data_dir, config, 'unfolding', 'unfolding-df_{}-groups.hdf'.format(num_groups)) comp.check_output_dir(formatted_df_outfile) formatted_df.to_hdf(formatted_df_outfile, 'dataframe', format='table')
unfolding/pyunfold-formatting.ipynb
jrbourbeau/cr-composition
mit
Считывание данных Создайте объект класса artm.BatchVectorizer, который будет ссылаться на директорию с пакетами данных (батчами). Чтобы библиотека могла преобразовать текстовый файл в батчи, создайте пустую директорию и укажите ее название в параметре target_folder. Размер батча для небольших коллекций (как наша) не ва...
# Ваш код batch_vectorizer = artm.BatchVectorizer(data_path='lectures.txt', data_format='vowpal_wabbit', target_folder='lectures_batches', batch_size=250)
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Инициализация модели Создайте объект класса artm.Model с 30 темами, именами тем, указанными ниже и единичными весами обеих модальностей. Количество тем выбрано не очень большим, чтобы вам было удобнее работать с темами. На этой коллекции можно строить и большее число тем, тогда они будут более узко специализированы.
T = 30 # количество тем topic_names=["sbj"+str(i) for i in range(T-1)]+["bcg"] # Ваш код model = artm.ARTM(num_topics=T, topic_names=topic_names, num_processors=2, class_ids={'text':1, 'author':1}, reuse_theta=True, cache_theta=True)
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Мы будем строить 29 предметных тем и одну фоновую. Соберите словарь с помощью метода gather_dictionary и инициализируйте модель, указав random_seed=1. Обязательно укажите свое название словаря, оно понадобится при добавлении регуляризаторов.
# Ваш код np.random.seed(1) dictionary = artm.Dictionary('dict') dictionary.gather(batch_vectorizer.data_path) model.initialize(dictionary=dictionary)
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Добавление score Создайте два измерителя качества artm.TopTokensScore - по одному для каждой модальности; количество токенов 15. Названия для score придумайте самостоятельно.
# Ваш код model.scores.add(artm.TopTokensScore(name='top_tokens_score_mod1', class_id='text', num_tokens=15)) model.scores.add(artm.TopTokensScore(name='top_tokens_score_mod2', class_id='author', num_tokens=15))
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Построение модели Мы будем строить модель в два этапа: сначала добавим сглаживающий регуляризатор фоновой темы и настроим параметры модели, затем - добавим разреживающий регуляризатор предметрых тем и выполним еще несколько итераций. Так мы сможем получить наиболее чистые от фоновых слов предметные темы. Сглаживающий и...
# Ваш код model.regularizers.add(artm.SmoothSparsePhiRegularizer(tau=1e5, class_ids='text', dictionary='dict', topic_names='bcg'))
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Выполните 30 итераций по коллекции (num_collection_passes), количество внутренних итераций установите равным 1. Используйте метод fit_offline модели.
# Ваш код model.num_document_passes = 1 model.fit_offline(batch_vectorizer=batch_vectorizer, num_collection_passes=30)
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Добавьте разреживающий регуляризатор с коэффициентом tau=-1e5, указав название своего словаря, модальность текста в class_ids и все темы "sbjX" в topic_names.
# Ваш код topic_names_cleared = list(topic_names).remove('bcg') model.regularizers.add(artm.SmoothSparsePhiRegularizer(tau=-1e5, class_ids='text', dictionary='dict', topic_names=topic_names_cleared))
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Выполните еще 15 проходов по коллекции.
# Ваш код model.fit_offline(batch_vectorizer=batch_vectorizer, num_collection_passes=15)
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Интерпретация тем Используя созданные score, выведите топы слов и топы авторов в темах. Удобнее всего выводить топ слов каждой темы с новой строки, указывая название темы в начале строки, и аналогично с авторами.
# Ваш код tokens = model.score_tracker['top_tokens_score_mod1'].last_tokens for topic_name in model.topic_names: print topic_name + ': ', for word in tokens[topic_name]: print word, print # Ваш код authors = model.score_tracker['top_tokens_score_mod2'].last_tokens for topic_name in model.topic_...
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
В последней теме "bcg" должны находиться общеупотребительные слова. Важный шаг в работе с тематической моделью, когда речь идет о визуализации или создании тематического навигатора, это именование тем. Понять, о чем каждая тема, можно по списку ее топовых слов. Например, тему частица взаимодействие физика кварк симметр...
sbj_topic_labels = [] # запишите названия тем в список for topic_name in model.topic_names[:29]: sbj_topic_labels.append(tokens[topic_name][0]) topic_labels = sbj_topic_labels + [u"Фоновая тема"]
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Анализ тем Далее мы будем работать с распределениями тем в документах (матрица $\Theta$) и авторов в темах (одна из двух матриц $\Phi$, соответствующая модальности авторов). Создайте переменные, содержащие две этих матрицы, с помощью методов get_phi и get_theta модели. Назовите переменные theta и phi_a. Выведите формы...
model.theta_columns_naming = "title" # включает именование столбцов Theta их названиями-ссылками, а не внутренними id # Ваш код theta = model.get_theta() print('Theta shape: %s' % str(theta.shape)) phi_a = model.get_phi(class_ids='author') print('Phi_a shape: %s' % str(phi_a.shape))
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Визуализируем фрагмент матрицы $\Theta$ - первые 100 документов (это наиболее простой способ визуально оценить, как темы распределяются в документах). С помощью метода seaborn.heatmap выведите фрагмент theta как изображение. Рекомендация: создайте фигуру pyplot размера (20, 10).
# Ваш код theta.iloc[:,:100] plt.figure(figsize=(20,10)) plt.title('Theta matrix for the first 100 documents') sns.heatmap(theta.iloc[:,:100], cmap='YlGnBu', xticklabels=False) plt.show();
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Вы должны увидеть, что фоновая тема имеет большую вероятность в почти каждом документе, и это логично. Кроме того, есть еще одна тема, которая чаще других встречается в документах. Судя по всему, это тема содержит много слов по науку в целом, а каждый документ (видео) в нашей коллекции связан с наукой. Можно (необязате...
# Ваш код prob_theme_data = [np.sum(theta.iloc[i]) for i in range(theta.shape[0])] prob_theme_data_normed = prob_theme_data / np.sum(prob_theme_data) prob_theme = pd.DataFrame(data=prob_theme_data_normed, index=topic_labels, columns=['prob']) prob_theme prob_theme_max = prob_theme prob_theme_min = prob_theme print('M...
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Найдите 5 самых распространенных и 3 наименее освещенных темы в коллекции (наибольшие и наименьшие $p(t)$ соответственно), не считая фоновую и общенаучную. Укажите названия, которые вы дали этим темам. Визуализируйте матрицу $\Phi$ модальности авторов в виде изображения. Рекомендация: установите yticklabels=False в hea...
# Ваш код plt.figure(figsize=(20,10)) plt.title('Theta matrix for the first 100 documents') sns.heatmap(phi_a.iloc[:100], cmap='YlGnBu', yticklabels=False) plt.show();
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Каждой теме соответствует не очень большое число авторов - матрица достаточно разреженная. Кроме того, некоторые темы имеют доминирующего автора $a$, имеющего большую вероятность $p(a|t)$ - этот автор записал больше всего лекций по теме. Будем считать, что автор $a$ значим в теме, если $p(a|t) > 0.01$. Для каждого авт...
phi_a for i in range(phi_a.shape[0]): num_valuble_topics = 0 for val in phi_a.iloc[i]: if val > 0.01: num_valuble_topics += 1 if num_valuble_topics >= 3: print(i), print(phi_a.index[i]) print(phi_a.iloc[184])
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Большинство авторов значимы в 1 теме, что логично. Построение тематической карты авторов По сути, в матрице $\Phi$, соответствующей модальности авторов, записаны тематические кластеры авторов. Для любого автора мы можем составить его тематический круг - авторов, разбирающихся в той же теме, что и данный. Интересующиеся...
from sklearn.manifold import MDS from sklearn.metrics import pairwise_distances prob_theme_author = np.empty(phi_a.shape) for i in range(prob_theme_author.shape[0]): for j in range(prob_theme_author.shape[1]): prob_theme_author[i,j] = phi_a.iloc[i,j] * prob_theme.iloc[j,:] / np.sum(phi_a.iloc[i,:] * prob_t...
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Визуализируйте найденные двумерные представления с помощью функции scatter.
# Ваш код plt.figure(figsize=(10,5)) plt.scatter(pos[:,0], pos[:,1]) plt.show();
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Должно получиться, что некоторые грппы авторов формируют сгустки, которые можно считать тематическими группами авторов. Раскрасим точки следующим образом: для каждого автора выберем наиболее вероятную для него тему ($\max_t p(t|a)$), и каждой теме сопоставим цвет. Кроме того, добавим на карту имена и фамилии авторов, э...
import matplotlib.cm as cm colors = cm.rainbow(np.linspace(0, 1, T)) # цвета для тем # Ваш код max_theme_prob_for_colors = [np.argmax(author) for author in prob_theme_author] plt.figure(figsize=(15,10)) plt.axis('off') plt.scatter(pos[:,0], pos[:,1], s=100, c=colors[max_theme_prob_for_colors]) for i, author in enumerat...
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Создание простого тематического навигатора по Постнауке Наш тематический навигатор будет для каждой темы показывать ее список слов, а также список релевантных теме документов. Нам понадобятся распределения $p(d|t)$. По формуле Байеса $p(d|t) = \frac{p(t|d)p(d)}{\sum_{d'}p(t|d')p(d')}$, но поскольку мы считаем документ...
# Ваш код prob_doc_theme = theta.values / np.array([np.sum(theme) for theme in theta.values])[:, np.newaxis] prob_doc_theme_sorted_indices = prob_doc_theme.argsort(axis=1)[:,::-1] prob_doc_theme_sorted_indices
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Создавать навигатор мы будем прямо в jupiter notebook: это возможно благодаря тому факту, что при печати ссылки она автоматически превращается в гиперссылку.
print "http://yandex.ru" # получится кликабельная ссылка
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Кроме того, подключив модуль ipython.core.display, можно использовать html-разметку в выводе. Например:
from IPython.core.display import display, HTML display(HTML(u"<h1>Заголовок</h1>")) # также <h2>, <h3> display(HTML(u"<ul><li>Пункт 1</li><li>Пункт 2</li></ul>")) display(HTML(u'<font color="green">Зеленый!</font>')) display(HTML(u'<a href="http://yandex.ru">Еще один вариант вывода ссылки</a>'))
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
В цикле для каждой темы выведите ее заголовок, в следующей строке - топ-10 слов темы, затем в виде списка ссылки на 10 наиболее релевантных (по $p(d|t)$) теме документов. Используйте html-разметку. Творчество приветствуется :)
# Ваш код for i, theme in enumerate(topic_labels): display(HTML("<h3>%s</h3>" % theme)) for j in range(10): print(tokens[model.topic_names[i]][j]), print('') for k in range(10): print(theta.columns[prob_doc_theme_sorted_indices[i,k]])
3 Unsupervised learning/Homework/5 text themes postnauka BigARTM/PostnaukaPeerReview.ipynb
maxis42/ML-DA-Coursera-Yandex-MIPT
mit
Order of Operations Python uses the standard order of operations as taught in Algebra and Geometry classes. That, mathematical expressions are evaluated in the following order (memorized by many as PEMDAS or BODMAS {Brackets, Orders or pOwers, Division, Multiplication, Addition, Subtraction}) . (Note that operations w...
print (round(3.14159265, 2))
Section 1 - Core Python/Chapter 02 - Basics/2.3. Maths Operators.ipynb
mayank-johri/LearnSeleniumUsingPython
gpl-3.0
Let's show the symbols data, to see how good the recommender has to be.
print('Sharpe ratio: {}\nCum. Ret.: {}\nAVG_DRET: {}\nSTD_DRET: {}\nFinal value: {}'.format(*value_eval(pd.DataFrame(data_in_df['Close'].iloc[STARTING_DAYS_AHEAD:])))) # Simulate (with new envs, each time) n_epochs = 7 for i in range(n_epochs): tic = time() env.reset(STARTING_DAYS_AHEAD) results_list = si...
notebooks/prod/n08_simple_q_learner_1000_states_4_actions_full_training.ipynb
mtasende/Machine-Learning-Nanodegree-Capstone
mit
What are the metrics for "holding the position"?
print('Sharpe ratio: {}\nCum. Ret.: {}\nAVG_DRET: {}\nSTD_DRET: {}\nFinal value: {}'.format(*value_eval(pd.DataFrame(data_test_df['Close'].iloc[TEST_DAYS_AHEAD:])))) import pickle with open('../../data/simple_q_learner_1000_states_4_actions_full_training.pkl', 'wb') as best_agent: pickle.dump(agents[0], best_agent...
notebooks/prod/n08_simple_q_learner_1000_states_4_actions_full_training.ipynb
mtasende/Machine-Learning-Nanodegree-Capstone
mit
The N-Queens-Problem as a CSP The function create_csp(n) takes a natural number n as argument and returns a constraint satisfaction problem that encodes the n-queens puzzle. A constraint satisfaction problem $\mathcal{P}$ is a triple of the form $$ \mathcal{P} = \langle \mathtt{Vars}, \mathtt{Values}, \mathtt{Constrai...
def create_csp(n): S = range(1, n+1) Variables = { f'V{i}' for i in S } Values = set(S) DifferentCols = { f'V{i} != V{j}' for i in S for j in S if i < j } Differ...
Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb
karlstroetmann/Artificial-Intelligence
gpl-2.0
The function main() creates a CSP representing the 4-queens puzzle and prints the CSP. It is included for testing purposes.
def main(): Vars, Values, Constraints = create_csp(4) print('Variables: ', Vars) print('Values: ', Values) print('Constraints:') for c in Constraints: print(' ', c) main()
Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb
karlstroetmann/Artificial-Intelligence
gpl-2.0
Displaying the Solution
import chess
Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb
karlstroetmann/Artificial-Intelligence
gpl-2.0
The function show_solution(Solution) takes a dictionary that contains a variable assignment that represents a solution to the 8-queens puzzle. It displays this Solution on a chess board.
def show_solution(Solution): board = chess.Board(None) # create empty chess board queen = chess.Piece(chess.QUEEN, True) for row in range(1, 8+1): col = Solution['V'+str(row)] field_number = (row - 1) * 8 + col - 1 board.set_piece_at(field_number, queen) display(board)
Python/2 Constraint Solver/N-Queens-Problem-CSP.ipynb
karlstroetmann/Artificial-Intelligence
gpl-2.0
dc.data.get_trajectory can be used to get an optimal trajectory for some initial conditions
conditions = {'x0': 200, 'z0': 1000, 'vx0':-30, 'vz0': 0, 'theta0': 0, 'm0': 10000} col_names = ['t', 'm', 'x', 'vx', 'z' , 'vz',' theta', 'u1', 'u2'] traj = dc.data.get_trajectory('../SpaceAMPL/lander/hs/main_rw_mass.mod', conditions, col_names=col_names)
examples/1 - Generate optimal trajectories - Direct Method.ipynb
darioizzo/optimal_landing
lgpl-3.0
The trajectory can be visualized (xy) with dc.vis.vis_trajectory
dc.vis.vis_trajectory(traj)
examples/1 - Generate optimal trajectories - Direct Method.ipynb
darioizzo/optimal_landing
lgpl-3.0
Or all the variables and control with dc.vis.vis_control
dc.vis.vis_control(traj,2)
examples/1 - Generate optimal trajectories - Direct Method.ipynb
darioizzo/optimal_landing
lgpl-3.0
Several random trajectories can be generated (in parallell) using a direct method with dc.data.generate_data
params = {'x0': (-1000,1000), 'z0': (500,2000), 'vx0': (-100,100), 'vz0': (-30,10), 'theta0': (-np.pi/20,np.pi/20), 'm0': (8000,12000)} dc.data.generate_data('../SpaceAMPL/lander/hs/main_thrusters.mod', params, 100,10)
examples/1 - Generate optimal trajectories - Direct Method.ipynb
darioizzo/optimal_landing
lgpl-3.0
All trajectories can then be loaded with dc.data.load_trajectories
col_names = ['t', 'm', 'x', 'vx', 'z', 'vz', 'theta', 'vtheta', 'u1', 'uR', 'uL'] trajs = dc.data.load_trajectories('data/main_thrusters/', col_names = col_names) trajs[0].head(5)
examples/1 - Generate optimal trajectories - Direct Method.ipynb
darioizzo/optimal_landing
lgpl-3.0
変数名とデータの内容メモ CENSUS: 市区町村コード(9桁) P: 成約価格 S: 専有面積 L: 土地面積 R: 部屋数 RW: 前面道路幅員 CY: 建築年 A: 建築後年数(成約時) TS: 最寄駅までの距離 TT: 東京駅までの時間 ACC: ターミナル駅までの時間 WOOD: 木造ダミー SOUTH: 南向きダミー RSD: 住居系地域ダミー CMD: 商業系地域ダミー IDD: 工業系地域ダミー FAR: 建ぺい率 FLR: 容積率 TDQ: 成約時点(四半期) X: 緯度 Y:...
print(data['CITY_NAME'].value_counts())
不動産/research02.ipynb
NlGG/Projects
mit
成約時点別×市区町村別の件数を集計
print(data.pivot_table(index=['TDQ'], columns=['CITY_NAME']))
不動産/research02.ipynb
NlGG/Projects
mit
成約時点別×地域ブロック別の件数を集計
print(data.pivot_table(index=['TDQ'], columns=['BLOCK']))
不動産/research02.ipynb
NlGG/Projects
mit
Histogram 価格(真数)
data['P'].hist()
不動産/research02.ipynb
NlGG/Projects
mit
価格(自然対数)
(np.log(data['P'])).hist()
不動産/research02.ipynb
NlGG/Projects
mit
建築後年数
data['A'].hist() plt.figure(figsize=(20,8)) plt.subplot(4, 2, 1) data['P'].hist() plt.title(u"成約価格") plt.subplot(4, 2, 2) data['S'].hist() plt.title("専有面積") plt.subplot(4, 2, 3) data['L'].hist() plt.title("土地面積") plt.subplot(4, 2, 4) data['R'].hist() plt.title("部屋数") plt.subplot(4, 2, 5) da...
不動産/research02.ipynb
NlGG/Projects
mit
Plot 件数の推移
plt.figure(figsize=(20,8)) data['TDQ'].value_counts().plot(kind='bar') plt.figure(figsize=(20,8)) data['CITY_NAME'].value_counts().plot(kind='bar') #市区町村別の件数
不動産/research02.ipynb
NlGG/Projects
mit
Main Analysis OLS part
vars = ['P', 'S', 'L', 'R', 'RW', 'A', 'TS', 'TT', 'WOOD', 'SOUTH', 'CMD', 'IDD', 'FAR', 'X', 'Y'] eq = fml_build(vars) y, X = dmatrices(eq, data=data, return_type='dataframe') CITY_NAME = pd.get_dummies(data['CITY_NAME']) TDQ = pd.get_dummies(data['TDQ']) X = pd.concat((X, CITY_NAME, TDQ), axis=1) datas = pd.conca...
不動産/research02.ipynb
NlGG/Projects
mit
青がOLSの誤差、緑がOLSと深層学習を組み合わせた誤差。
model.compare() print(np.mean(model.error1)) print(np.mean(model.error2)) print(np.mean(np.abs(model.error1))) print(np.mean(np.abs(model.error2))) print(max(np.abs(model.error1))) print(max(np.abs(model.error2))) print(np.var(model.error1)) print(np.var(model.error2)) fig = plt.figure() ax = fig.add_subplot(111) ...
不動産/research02.ipynb
NlGG/Projects
mit
As before, we can confirm that distances were accurately recovered and we can check on how well metallicities were recovered compared to the measured value.
fig, ax = plt.subplots(1, 2, figsize=(10, 5)) # distance recovery diagnostic distance_limits = (0.0, 20.0) ax[0].set_xlabel('Observed Distance (pc)', fontsize=22.) ax[0].set_ylabel('Inferred Distance (pc)', fontsize=22.) ax[0].set_xlim(distance_limits) ax[0].set_ylim(distance_limits) ax[0].plot(distance_limits, distan...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
Distance are well recovered, as anticipated. Metallicities are scattered about the zero-point with perhaps a tendency for predicting systematically higher metallicities between $-0.40$ and $-0.20$ dex. Typical scatter appears to be around $\pm0.2$ dex, consistent with the assumed metallicities uncertainty. Points in re...
# relative errors dTheta = (data[:,18] - data[:,8])/data[:,18] dTeff = (data[:,24] - 10**data[:,6])/data[:,24] dFbol = (data[:,22] - 10**(data[:,7]+ 8.0))/data[:,22] # uncertainty normalized errors dTheta_sigma = (data[:,18] - data[:,8])/data[:,19] dTeff_sigma = (data[:,24] - 10**data[:,6])/data[:,25] dFbol_sigma ...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
Recovery of observed fundamental properties.
from matplotlib.patches import Ellipse fig, ax = plt.subplots(1, 1, figsize=(8, 8)) # set axis labels ax.set_xlabel('$\\Delta F_{\\rm bol} / \\sigma$', fontsize=22.) ax.set_ylabel('$\\Delta \\Theta / \\sigma$', fontsize=22.) ax.set_xlim(-3.0, 3.0) ax.set_ylim(-4.0, 4.0) # plot 68% and 99% confidence intervals ells = ...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
There is considerably better recovery of stellar fundamental properties once variations in helium abundance and the convective mixing length parameter are permitted. All points, with the exception of one, lie within the 99% confidence interval. We can explore whether systematic errors still remain in the sample, althou...
fig, ax = plt.subplots(2, 2, figsize=(10, 8), sharex=False, sharey=True) ax[1, 0].set_xlabel('Bolometric Flux (erg s$^{-1}$ cm$^{-2}$)', fontsize=20.) ax[1, 1].set_xlabel('Angular Diameter (mas)', fontsize=20.) ax[1, 0].set_ylabel('$\\Delta \\Theta / \\sigma$', fontsize=20.) ax[0, 0].set_ylabel('$\\Delta F_{\\rm bol} ...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
There is a rise of the average error as one moves toward lower bolometric fluxes and smaller angular diameters. These points are effectively all M dwarfs. This illustrates, quite well, that problems for the lowest mass stars are most resiliant to variations in stellar model input parameters, thus preserving the trends ...
fig, ax = plt.subplots(2, 2, figsize=(10, 8), sharex=False, sharey=True) ax[1, 0].set_xlabel('Mass (M$_{\\odot}$)', fontsize=20.) ax[1, 1].set_xlabel('Effective Temperature (K)', fontsize=20.) ax[1, 0].set_ylabel('$\\Delta \\Theta / \\sigma$', fontsize=20.) ax[0, 0].set_ylabel('$\\Delta F_{\\rm bol} / \\sigma$', fonts...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
These figures nicely illustrate the aforementioned phenomenon that models grow increasingly resiliant to variations in input parameters as stellar mass (and effective temperature) decreases. Note that it should be possible to quantify the significance of any potential rising trend toward lower masses or temperatures wi...
fig, ax = plt.subplots(2, 2, figsize=(12, 12), sharey=True) ax[0, 0].set_xlabel('Mass (M$_{\\odot}$)', fontsize=20.) ax[0, 1].set_xlabel('Effective Temperature (K)', fontsize=20.) ax[1, 0].set_xlabel('Heavy Element Mass Fraction, $Z_i$', fontsize=20.) ax[1, 1].set_xlabel('Mixing Length Parameter', fontsize=20.) ax[1, ...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
Should probably provide some analysis. Now we can look at the mixing length parameter,
fig, ax = plt.subplots(2, 2, figsize=(12, 12), sharey=True) ax[0, 0].set_xlabel('Mass (M$_{\\odot}$)', fontsize=20.) ax[0, 1].set_xlabel('Effective Temperature (K)', fontsize=20.) ax[1, 0].set_xlabel('Metallicity, [M/H] (dex)', fontsize=20.) ax[1, 1].set_xlabel('$\\log (g)$', fontsize=20.) ax[1, 0].set_ylabel('Mixing ...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
NOTE: values for the Sun plotted above are drawn from our solar-calibrated model. We can also compare how the inferred mixing length compares to those that are the result of extrapolating the Bonaca et al. (2012, ApJL, 755, L12) relation. The latter is valid for stars with $3.8 \le \log(g) \le 4.5$, $5000 \le T_{\rm ef...
B12_coeffs = [-12.77, 0.54, 3.18, 0.52] # from Table 1: Trilinear analysis B12_alphas = B12_coeffs[0] + B12_coeffs[1]*Log_g + B12_coeffs[2]*data[:,6] + B12_coeffs[3]*data[:,1]
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
Now plot the Bonaca et al values against those we derived,
fig, ax = plt.subplots(1, 1, figsize=(8, 8)) ax.set_xlabel('Bonaca et al. $\\alpha_{\\rm MLT}$', fontsize=20.) ax.set_ylabel('This work, $\\alpha_{\\rm MLT}$', fontsize=20.) ax.tick_params(which='major', axis='both', length=10., labelsize=16.) # one-to-one relation ax.plot([1.0, 1.59], [1.0, 1.59], '--', lw=2, color=...
Projects/mlt_calib/float_Y_float_alpha.ipynb
gfeiden/Notebook
mit
2、使用Python的help(...)查看库的元数据信息获得帮助。
#help(UGC) #help(OGDC) #help(datasource)
geospatial/giscript/giscript_quickstart.ipynb
supergis/git_notebook
gpl-3.0
3、设置测试数据目录。
import os basepath = os.path.join(os.getcwd(),"../data") print("Data path: ", basepath) file1 = basepath + u"/Shape/countries.shp" print("Data file: ", file1) file2 = basepath + u"/Raster/astronaut(CMYK)_32.tif" print("Data file: ", file2) file3 = basepath + u"/Grid/grid_Int32.grd" print("Data file: ", file3) data...
geospatial/giscript/giscript_quickstart.ipynb
supergis/git_notebook
gpl-3.0
4、导入数据的测试函数。
def Import_Test(): print("Export to UDB: ",datapath_out) ds = datasource.CreateDatasource(UGC.UDB,datapath_out) datasource.ImportVector(file1,ds) datasource.ImportRaster(file2,ds) datasource.ImportGrid(file3,ds) ds.Close() del ds print("Finished.")
geospatial/giscript/giscript_quickstart.ipynb
supergis/git_notebook
gpl-3.0
5、运行这个测试。
try: Import_Test() except Exception as ex: print(ex)
geospatial/giscript/giscript_quickstart.ipynb
supergis/git_notebook
gpl-3.0
(三)查看生成的数据源文件UDB。 下面使用了<font color="green">IPython的Magic操作符 !</font>,可以直接运行操作系统的Shell命令行。
!ls -l -h ../data/GIScript_Test.*
geospatial/giscript/giscript_quickstart.ipynb
supergis/git_notebook
gpl-3.0