index
int64 4
23.2k
| вопрос
stringlengths 56
27.9k
| ответ
stringlengths 25
27.3k
|
---|---|---|
21,294 | Как сократить код в nparray при подвыборке с условием?
Сначала я выбираю первый столбец из <code>
nparray</code>, затем из другого <code>
nparray</code> по такому же индексу проверяю нули, и тогда беру в работу этот столбец.
Как одной строкой сделать выборку?
<code>
z = X4[:,0]
z0= z[y4==0]
</code>
|
Попробуйте вот так:
<code>
z0 = X4[y4==0, 0]
# ^------------ выбираем первый (с индексом 0) столбец
# ^^^^^
# |__________ выбираем строки по "булевой маске" - вектор булевых значений,
# длина которого должна совпадать с числом строк в `X4`
</code>
PS сначала идет фильтрация по строкам (<code>
axis=0</code>), затем по столбцам (<code>
axis=1</code>)
|
21,295 | os.rename() VS os.replace() (Python)
Разбираюсь с модулем os. Пытаюсь понять, чем отличаются функции os.rename() и os.replace(). Пытался переименовать файл с их помощью, получаю одинаковый результат. Когда пытаюсь переименовать и папку и файл одновременно, что там, что там получаю ошибку. Так чем же они отличаются? Приведите пожалуйста пример, когда rename() и replace() работают по-разному.
|
rename(file1,file2) - только переименовывает файл file1 в file2
replace(file1,file2) - если файл(file2) уже существуют, то он его перезаписывает file2 из file1
если использовать rename во втором случае, то выйдет ошибка
|
21,297 | NumPy элементы массива
У меня есть массив NumPY
c = np.array([])
Как мне сделать , чтобы в этот массив добавлялись элементы , которые вводит пользователь .
Тип так выглядит ввод в обычный массив
a = []
for i in range(0,10):
a.append(int(input())
А как он будет в NumPY?
|
Например:
Создаете пустой массив длины N
В цикле вызываете N-раз <code>
input()</code>
По индексу указываете значение в массив
Код:
<code>
import numpy as np
N = 10
items = np.array([None] * N)
print(items)
# [None None None None None None None None None None]
for i in range(N):
items[i] = int(input())
print(items)
# [1 2 3 4 5 1 2 3 6 7]
</code>
|
21,298 | Обновление переменной каждую секунду
Есть код:
<code>
import time
import datetime
now = datetime.datetime.now()
h = now.hour
m = now.minute
s = now.second
print(h, ':', m, ':', s)
time.sleep(1)
print(h, ':', m, ':', s)
time.sleep(5)
print(h, ':', m, ':', s)
</code>
Нужно, чтобы каждый раз при команде <code>
print</code> выдавалось разное значение (для этого и добавил секунды). Однако, выдаётся лишь то значение, при котором программа была запущена (логично!). \
Циклы, типа <code>
while 1 == 1</code>, переменные далее <code>
print</code> не выводит собственно <code>
print</code>.
Думаю, что можно задавать переменные непосредственно перед командой <code>
print</code>, но уверен, что есть вариант меньше по размеру кода и эффективнее.
|
<code>
from datetime import datetime
from threading import Timer
def TaskManager():
print(datetime.now().strftime("%H:%M:%S"))
t = Timer( 1, TaskManager )
t.start()
TaskManager()
</code>
<code>
22:13:12
22:13:13
22:13:14
22:13:15
22:13:16
22:13:17
...
</code>
|
21,300 | Динамическое увеличение количества объектов ttk.Entry
Делаю простенький интерфейс для работы с sql. При выборе нужной таблицы, пользователю отображается интерфейс добавления новых записей, поэтому надо динамически изменять количество объектов label и entry.
Я создал список объектов StringVar и IntVar. В дальнейшем присваиваю каждому Entry свой указатель на объект из списка.Проблема в том, что переменные не запоминают значения.
<code>
for i, row in enumerate(rows):
new_data.append(StringVar() if not row[1] == 'NUMBER' else IntVar())
for j, name in enumerate(row):
ttk.Label(f3, text=name, width=15).grid(row=i + 1, column=j)
ttk.Entry(f3, textvariable=new_data[i], width=15).grid(row=i + 1, column=j + 1)
</code>
Как это реализовать правильно?
|
Отказался от переменных, т.к. у Entry тоже есть метод get.
<code>
data = []
for i, row in enumerate(rows):
for j, name in enumerate(row):
ttk.Label(f3, text=name, width=15).grid(row=i + 1, column=j)
data.append(ttk.Entry(f3, width=15))
data[-1].grid(row=i + 1, column=j + 1)
</code>
|
21,301 | Запись полученного значения в ячейку существующей таблицы Excel
Каким образом можно записать полученное значение в определенную ячейку существующей таблицы с сохранением форматирования? Заранее благодарен за ответ.
<code>
from openpyxl import load_workbook
wb = load_workbook(filename = 'таблица 1-8.xlsx')
sheet_ranges = wb['Таблица 5']
ws1 = wb.active
sheet = wb['Таблица 5']
def udav():
summ = 0
x = 2
while sheet.cell(row=x, column=3).value is not None:
Nk = sheet.cell(row=x, column=3).value
Nl = sheet.cell(row=x, column=4).value
Gvv = sheet.cell(row=x, column=5).value
nksr = sheet.cell(row=x, column=6).value
value = Nk*Nl*Gvv*nksr
x = x + 1
summ += value
else:
return summ
xudav = udav()
print(xudav)
</code>
|
Как-то так:
<code>
from openpyxl import load_workbook
fn1 = r"C:\temp\test1.xlsx"
fn2 = r"C:\temp\test2.xlsx"
wb1 = load_workbook(fn1)
wb2 = load_workbook(fn2)
ws1 = wb1["Sheet1"]
ws2 = wb2["Sheet1"]
cell_coord = "E10"
ws2[cell_coord].value = calc_value(ws1)
wb2.save(fn2)
wb1.close()
wb2.close()
</code>
|
21,302 | PyTorch - Expected input batch_size (1) to match target batch_size (4)
<code>
import torch
import torchvision
import torchvision.transforms as transforms
transform = transforms.Compose([transforms.ToTensor()])
trainset = torchvision.datasets.MNIST(root='.data/', train=True, download=True, transform=transform)
train_data = torch.utils.data.DataLoader(trainset, shuffle=True, batch_size=4,num_workers=2)
testset = torchvision.datasets.MNIST(root='.data/', train=False,download=True, transform=transform )
test_data = torch.utils.data.DataLoader(testset, shuffle=True, batch_size=4)
class SimpleConv(torch.nn.Module):
def __init__(self):
super(SimpleConv, self).__init__()
self.conv1 = torch.nn.Conv2d(in_channels=1, out_channels=6, kernel_size=5)
self.pool = torch.nn.MaxPool2d(kernel_size=2, stride=2)
#return 28/2 = 14*14
self.layer1 = torch.nn.Sequential(
# 1 - count of input map
# 32 - count of output map
torch.nn.Conv2d(1,32, kernel_size=5, stride=1),
torch.nn.ReLU(),
torch.nn.MaxPool2d(kernel_size=2, stride=2)
)
#return 14/2 = 7*7
self.layer2 = torch.nn.Sequential(
torch.nn.Conv2d(32,64,kernel_size=5,stride=1,padding=2),
torch.nn.ReLU(),
torch.nn.MaxPool2d(kernel_size=2,stride=2)
)
self.drop_out = torch.nn.Dropout()
self.fc1 = torch.nn.Linear(7 * 7 * 64, 1000)
self.fc2 = torch.nn.Linear(1000, 10)
def forward(self, x):
out = self.layer1(x)
out = self.layer2(out)
print(out.shape)
out = x.view(-1, 7 * 7 * 64)
print(out.shape)
out = self.drop_out(out)
out = self.fc1(out)
out = self.fc2(out)
return out
model = SimpleConv()
loss_fun = torch.nn.CrossEntropyLoss()
optim = torch.optim.Adam(model.parameters(),lr= 0.001)
num_epochs = 5
num_classes = 10
for epoch in range(num_epochs):
for i, batch in enumerate(train_data):
X_batch, y_batch = batch
print(X_batch.shape)
print(y_batch.shape)
optim.zero_grad()
output = model(X_batch)
loss = loss_fun(output, y_batch)
</code>
Получаю такую ошибку. В чем проблема?
ValueError Traceback (most recent call last)
in
16
17
---> 18 loss = loss_fun(output, y_batch)
19
20
ValueError: Expected input batch_size (1) to match target batch_size (4).
|
Хороший способ проверить корректность преобразований слоев, это поизменять параметры, которые на результат(работы программы, а не обучения) повлиять не должны. Одним из таких параметров является размер батча. Если строку
<code>
train_data = torch.utils.data.DataLoader(trainset, shuffle=True,batch_size=4,num_workers=2)
</code>
поменять на
<code>
train_data = torch.utils.data.DataLoader(trainset,shuffle=True,batch_size=7,num_workers=2)
</code>
То получим ошибку:
<code>
File PY_PATH, line 43, in forward
out = x.view(-1, 7 * 7 * 64)
RuntimeError: shape '[-1, 3136]' is invalid for input of size 5488
</code>
Смотрим на код
<code>
out = self.layer1(x)
out = self.layer2(out)
out = x.view(-1, 7 * 7 * 64)
</code>
Очевидно, что здесь имелось ввиду
<code>
out = out.view(-1, 7 * 7 * 64)
</code>
Однако ошибка не уходит, потому что перед этой строкой out имеет shape [7, 64, 6, 6] (7-размер батча)
Это означает что нужно заменить две строки
<code>
out = out.view(-1, 7 * 7 * 64)
</code>
на
<code>
out = out.view(-1, 6 * 6 * 64)
</code>
а также, так как это повлияет на работу следующих слоев
<code>
self.fc1 = torch.nn.Linear(7 * 7 * 64, 1000)
</code>
на
<code>
self.fc1 = torch.nn.Linear(6 * 6 * 64, 1000)
</code>
|
21,303 | Зачем нужен __new__ и каково его практическое применение?
Зачем нужен <code>
__new__</code> в Python разработке и когда его использовать?
Здесь есть хороший комментарий в 2-х словах, что такое магический метод <code>
__new__</code>: статический метод, вызывается когда создается экземпляр класса. В общем, сначала он, потом <code>
__init__</code>, думаю верно понял.
Стыдно признаться, но ни разу не видел на практике применения этого магического метода, даже на простом игрушечном примере это выглядит излишним.
<code>
class Foo(object):
def __new__(cls, *args, **kwargs):
print "Creating Instance"
instance = super(Foo, cls).__new__(cls, *args, **kwargs)
return instance
def __init__(self, a, b):
self.a = a
self.b = b
def bar(self):
pass
</code>
Может ли кто-то привести простой пример, где есть обоснованное использование <code>
__new__</code> и объяснить зачем он нужен и когда его нужно использовать?
|
Из официальной документации:
<code>
__new__()</code>
is intended mainly to allow subclasses of immutable types (like int,
str, or tuple) to customize instance creation. It is also commonly
overridden in custom metaclasses in order to customize class creation.
Здесь приведены примеры реального применения метода <code>
__new__()</code>:
Singleton
<code>
class Singleton(object):
_instance = None # Keep instance reference
def __new__(cls, *args, **kwargs):
if not cls._instance:
cls._instance = object.__new__(cls, *args, **kwargs)
return cls._instance
</code>
проверка:
<code>
In [26]: s1 = Singleton()
In [27]: s2 = Singleton()
In [28]: s1 is s2
Out[28]: True
</code>
Пример использования в модуле pathlib (из стандартной библиотеки в Python 3.x):
<code>
class PurePath(object):
...
def __new__(cls, *args):
"""Construct a PurePath from one or several strings and or existing
PurePath objects. The strings and path objects are combined so as
to yield a canonicalized path, which is incorporated into the
new PurePath object.
"""
if cls is PurePath:
cls = PureWindowsPath if os.name == 'nt' else PurePosixPath
return cls._from_parts(args)
</code>
NOTE: если вам интересны примеры реального и правильного использования методов / функций в Python, то лучше подсмотреть как их используют авторы стандартной библиотеки Python:
зайдите в директорию <code>
<Python_installation>/Lib</code> и поищите в каких файлах присутствует интересующий вас метод: <code>
def __new__</code>:
<code>
C:\Users\Max\Anaconda3\Lib>grep -l "def __new__(" *.py
_py_abc.py
_pydecimal.py
_pyio.py
_threading_local.py
abc.py
codecs.py
datetime.py
enum.py
fractions.py
functools.py
pathlib.py
pstats.py
sre_constants.py
ssl.py
turtle.py
typing.py
weakref.py
</code>
открываете найденные файлы в редакторе, находите интересующие вас строки и изучаете примеры использования от создателей Python...
|
21,304 | Как правильно использовать hashlib.shake_256()?
Пытаюсь закодировать текст из файла с помощью алгоритма shake 256, но возникает ошибка. Как можно исправить?
Ошибка:
<code>
File "C:\Users\я\Downloads\dhfueue.py", line 5, in <module>
sha = hashlib.shake_256(my_string).hexdigest()
TypeError: hexdigest() takes exactly one argument (0 given)
</code>
Код:
<code>
import hashlib
str="C:\\Users\\я\\Desktop\\1.txt"
my_file = open(str,'rb')
my_string = my_file.read()
sha = hashlib.shake_256(my_string).hexdigest()
print(sha)
</code>
|
Вам нужно указать размер байтового объекта, функция hexdigest(255) принимает этот размер, который находится в диапазоне от 0 до 255
<code>
sha = hashlib.shake_256(my_string).hexdigest(255)
</code>
|
21,305 | Расширение значений на основе DatetimeIndex
В результате группировки по столбцу <code>
df['Date']</code> получается <code>
DataFrame</code>, сгруппированный по дню. Но если какого-то дня нет в столбце <code>
df['Date']</code>, то и строки с такими данными нет. Вопрос - как создать <code>
DataFrame</code> со столбцом всех дней, и заполнить этот <code>
DataFrame</code> на основе сгруппированных значений таким образом, чтобы в отсутствующие дни в изначальном столбце стояли <code>
NaN</code> значения, а остальные были заполнены.
Пример:
<code>
+------------+------+
| Date | Col2 |
+------------+------+
| 01.01.2019 | 1 |
| 03.01.2019 | 2 |
+------------+------+
</code>
А нужна такая таблица:
<code>
+------------+------+
| Date | Col2 |
+------------+------+
| 01.01.2019 | 1 |
| 02.01.2019 | NaN |
| 03.01.2019 | 2 |
| 04.01.2019 | NaN |
| ....... | |
+------------+------+
</code>
|
Я бы в данном случае воспользовался методом DataFrame.reindex(index).
Пример:
Исходный DF:
<code>
dt_start = "2019-01-01"
N = 31
dt_end = "2019-01-31"
df = (pd.DataFrame(
np.random.randint(10, size=(31, 3)),
columns=list("abc"),
index=pd.date_range(dt_start, periods=N))
.sample(frac=0.5)
.sort_index())
</code>
<code>
In [12]: df
Out[12]:
a b c
2019-01-02 8 5 4
2019-01-03 4 5 3
2019-01-06 6 4 4
2019-01-08 9 8 0
2019-01-12 5 8 5
2019-01-13 7 7 6
2019-01-14 3 8 8
... .. .. ..
2019-01-19 4 1 8
2019-01-20 6 1 7
2019-01-21 7 0 4
2019-01-22 3 2 9
2019-01-24 5 2 3
2019-01-26 6 2 7
2019-01-30 5 8 6
[16 rows x 3 columns]
</code>
создаем индекс без пропусков:
<code>
idx = pd.date_range(dt_start, dt_end)
</code>
переиндексируем DF используя созданный индекс:
<code>
df = df.reindex(idx)
</code>
результат:
<code>
In [14]: df
Out[14]:
a b c
2019-01-01 NaN NaN NaN
2019-01-02 8.0 5.0 4.0
2019-01-03 4.0 5.0 3.0
2019-01-04 NaN NaN NaN
2019-01-05 NaN NaN NaN
2019-01-06 6.0 4.0 4.0
2019-01-07 NaN NaN NaN
... ... ... ...
2019-01-25 NaN NaN NaN
2019-01-26 6.0 2.0 7.0
2019-01-27 NaN NaN NaN
2019-01-28 NaN NaN NaN
2019-01-29 NaN NaN NaN
2019-01-30 5.0 8.0 6.0
2019-01-31 NaN NaN NaN
[31 rows x 3 columns]
</code>
этот метод можно объединить с группировкой:
<code>
idx = pd.date_range(dt_start, dt_end)
res = df.groupby("Date").agg(...).reindex(idx)
</code>
|
21,306 | Почему не правильно работает "or" в Python? [дубликат]
На этот вопрос уже даны ответы здесь:
Неправильно работает сравнение переменной с несколькими значениями через or
(3 ответа)
Закрыт 4 года назад.
<code>
Имя_системы = ["К1", "К2", "В1, К2, К3", "К3", "Т3", ""]
Сантехнические_приборы = 8792
Рабочий_набор = []
for n in range(len(Имя_системы)):
if "В" or "Т" or "К" in Имя_системы[n]: Рабочий_набор.insert(n, Сантехнические_приборы)
else: Рабочий_набор.insert(n, 0)
print(Рабочий_набор)
</code>
Результат: [8792, 8792, 8792, 8792, 8792, 8792]
Хотя в конце списка должно быть значение 0
|
У вас неверно составлено условие.
Вы проверяете если "B" истина или если "T" истина или если "К" в Имя_системы[n]. Любая не пустая строка - истина, соответственно условие всегда истинно. Самое простое что можно сделать переписать условие следующим образом:
<code>
if "В" in Имя_системы[n] or "Т" in Имя_системы[n] or "К" in Имя_системы[n]:
Рабочий_набор.insert(n, Сантехнические_приборы)
else:
Рабочий_набор.insert(n, 0)
</code>
|
21,308 | Кодирование файлов
Возникает ошибка при кодировании текста из файлов, я так понял что просто закодировать строку с помощью sha256 нельзя. Возникает ошибка при запуске.
Код:
<code>
import hashlib
import tkinter as tk
def show_text():
my_file = open(road.get(),'r')
my_string = my_file.read()
sha = hashlib.sha256(my_string).hexdigest()
my_file1.close()
my_file1 = open(road.get1(),'r')
my_string1 = my_file1.read()
sha1 = hashlib.sha256(my_string1).hexdigest()
my_file1.close()
if sha == sha1:
label_text2.set("Файлы одинаковые")
else:
label_text2.set("Файлы разные")
result="" + label_text2.get() + "\n" + sha + " - 1 файл \n"+sha1+" - 2 файл"
handle = open(road2.get(), "w")
handle.write(result)
handle.close()
root = tk.Tk()
road = tk.StringVar()
road1 = tk.StringVar()
road2 = tk.StringVar()
label_text = tk.StringVar()
label_text1 = tk.StringVar()
label_text2 = tk.StringVar()
label_text3 = tk.StringVar()
label_text4 = tk.StringVar()
label_text5 = tk.StringVar()
label_text5.set("Введите путь ко второму файлу")
label3 = tk.Label(root, textvariable="Введите путь к первому файлу")
entry = tk.Entry(root, width=40, textvariable=road)
entry.pack()
label4 = tk.Label(root, textvariable=label_text5)
entry = tk.Entry(root, width=40, textvariable=road1)
entry.pack()
label5 = tk.Label(root, textvariable="Введите путь к файлу в который сохранить результат")
entry = tk.Entry(root, width=40, textvariable=road2)
entry.pack()
button = tk.Button(root, text="Click Me", command=show_text)
button.pack()
label = tk.Label(root, textvariable=label_text)
label1 = tk.Label(root, textvariable=label_text1)
label2 = tk.Label(root, textvariable=label_text2)
label.pack()
label1.pack()
label2.pack()
label3.pack()
label4.pack()
label5.pack()
root.mainloop()
</code>
Текст ошибки:
<code>
Exception in Tkinter callback
Traceback (most recent call last):
File "C:\Users\8440p\AppData\Local\Programs\Python\Python36\lib\tkinter\__init__.py", line 1699, i
n __call__
return self.func(*args)
File "D:\Python\pyth1.py", line 6, in show_text
sha = hashlib.sha256(my_string).hexdigest()
TypeError: Unicode-objects must be encoded before hashing
</code>
|
Функция <code>
sha256</code> работает с байтами, а не со строками. Чтобы прочитать файл в виде байт, его нужно открывать в бинарном режиме (<code>
'rb'</code> вместо <code>
'r'</code>):
<code>
my_file = open(road.get(),'rb')
my_string = my_file.read()
</code>
|
21,311 | Python __slots__ - почему нельзя использовать всегда?
Вопрос был задан после прочтения - Usage of slots?
<code>
class WithSlots(object):
__slots__ = 'static_attr'
</code>
Прочитав про слоты в пайтоне, о том, что они экономят память, я понял только одну вещь, что когда много экземпляров класса создается, то это выгодно(использование слотов).
И в связи с этим у меня возник такой вопрос, раз у слотов есть преимущество в виде экономии памяти, то почему нельзя его использовать всегда?
Какие проблемы создает слотс, давая взамен экономию памяти?
|
Они ограничивают набор атрибутов класса - из-за чего нельзя свободно добавлять любые атрибуты и исполнять всякие безумные наследования, как многие любят. Выскочит <code>
AttributeError</code>. Когда код переписываешь или как упомянули создаётся большое количество, то можно добавить слоты и ускорить работу скрипта, но чаще всего программист идёт "непроторённой" дорогой - там не до слотов.
<code>
import time
class Timer:
def __enter__(self):
self.start = time.clock()
return self
def __exit__(self, *args):
self.end = time.clock()
self.interval = self.end - self.start
class A:
pass
class B(object):
__slots__ = ('a', 'b',)
def my(class_):
my_obj = class_
my_obj.a = 10
my_obj.b = "qwerty"
print my_obj.a, my_obj.b
with Timer() as t1:
for _ in range(1000):
my(A())
with Timer() as t2:
for _ in range(1000):
my(B())
print('Time1: {} sec.'.format(t1.interval))
print('Time2: {} sec.'.format(t2.interval))
# Time1: 0.0264316595496 sec.
# Time2: 0.0241797159653 sec.
</code>
|
21,312 | Как получить завтрашнюю дату python
Как получить завтрашнюю дату в формате dd.mm ?
<code>
from datetime import datetime, timedelta
tomorrow_date = datetime.now() + timedelta(days=1).strftime("%d.%m")
</code>
Пробовал так, но ловлю ошибку:
<code>
AttributeError: 'datetime.timedelta' object has no attribute 'strftime'
</code>
Как исправить?
|
<code>
import datetime
today = datetime.date.today()
tomorrow = today + datetime.timedelta(days=1)
print(tomorrow.strftime('%d.%m'))
</code>
|
21,313 | Почему SQLite блокируется при изменении данных?
Подключил к приложению flask sqlalchemy и SQLite. Проблема в том, что при выполенении изменения данных вида:
<code>
data = User.query.filter_by(username='name').first()
data.email = '[email protected]'
data = User.query.filter_by(email='[email protected]').first()
</code>
Возникает исключение, которое говорит о том, что чтение невозможно, так как база данных блокируется. даже если сразу после изменения строк в таблице сделать <code>
db.session.commit()</code> возникает то же самое исключение. Помогает <code>
db.session.rollback()</code>, но повторая попытка не помогает. Остальные запросы на чтение проходят нормально. Работает БД на сервере. Что я делаю не так? Вот сама таблица:
<code>
from app import db
class User(db.Model):
id = db.Column(db.Integer, primary_key=True)
email = db.Column(db.String(50))
username= db.Column(db.String(20))
def __repr__(self):
return '<User %s>' % (self.username)
</code>
|
Нужно было делать <code>
db.commit()</code> и делать его на сервере в самом коде, а не через интерпретатор по ssh
|
21,314 | Pyqt5 Как открыть .exe файл?
Я хочу открыть <code>
.exe</code> файл через програму на PyQt5. Нажимаю жду не запускается что делать ?
Код:
<code>
from PyQt5 import QtWidgets
import sys
from design import Ui_MainWindow
class mywindow(QtWidgets.QMainWindow):
def __init__(self):
super(mywindow, self).__init__()
self.ui = Ui_MainWindow()
self.ui.setupUi(self)
self.ui.Roblox.clicked.connect(self.btnClicked)
def btnClicked(self):
f = open('Roblox.exe')
app = QtWidgets.QApplication([])
application = mywindow()
application.show()
sys.exit(app.exec())
</code>
|
Используйте метод os.startfile:
<code>
...
def btnClicked(self):
os.startfile('calc.exe')
...
</code>
|
21,316 | Механизм работы метода islice() вместе с count() (itertools)
Помогите пожалуйста разобраться, как работает itertools.islice() вместе с itertools.count().
Есть простой код:
<code>
import itertools
for elem in itertools.islice(itertools.count(50, 2), 10):
print(elem, end=' ')
</code>
Что происходит?
1) При каждом вызове next() итератора islice() будет вызван next() итератора
count(), пока islice() не вернет 10 элементов, затем StopIteration.
ИЛИ ЖЕ
2) Сначала islice() сразу попросит первые 10 элементов у count(), сгенерирует с них iterable и будет при вызове next() возвращать последовательно значения, пока элементы не закончатся
Интересно, как это работает внутри. Нигде не нашел, хотел посмотреть исходных код, но там в реализации pass. Диасемблировал цикл - там видно, что при каждой итерации вызывается islice() и затем count(), но все равно непонятно.
|
Сначала "вычисляются" значения аргументов, потом они передаются в функцию. Т.е. сначала <code>
itertools.count</code> возвращает объект-итератор, готовый выдавать значения начиная с 50 с шагом 2, потом этот объект передается <code>
itertools.islice</code>, который сразу возвращает итератор, готовый выдавать значения из переданного ему итератора, в данном случае первые 10.
Потом <code>
for</code> последовательно запрашивает значения из итератора возвращенного функцией <code>
islice</code>, а этот итератор запрашивает значения из итератора, возвращенного функцией <code>
count</code>.
По сути это ваш первый вариант.
Примеры реализации этих функций есть в документации: count, islice.
|
21,318 | как вытащить цифру из скобок python
есть код ии:
<code>
import tensorflow as tf
import numpy as np
# +temp, -temp, Has Water, Magnsphere, Sun Power, G
X = np.array([
[56.7, 89.2, 1, 1, 1, 1], #Earth
[1.68, 80, 1, 1, 1.2, 1.88], #Kepler-452b
[35, 153, 1, 0, 1, 0.378], #Mars
[35700, 21, 0, 0, 1, 2.535], #Jupiter
[0.85, 150, 1, 0.5, 0.0412, 1.1], #kepler-186f
])
y = np.array([
[1], #Earth
[0.9], #Kepler-452b
[0.05], #Mars
[0], #Jupiter
[0.08] #kepler-186f
])
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(64, activation="relu"))
model.add(tf.keras.layers.Dense(64, activation="relu"))
model.add(tf.keras.layers.Dense(32, activation="relu"))
model.add(tf.keras.layers.Dense(16, activation="relu"))
model.add(tf.keras.layers.Dense(1))
model.compile(
loss="mse",
optimizer="adam",
metrics=["mse", "mae"]
)
model.fit(
X,
y,
epochs=1000,
batch_size=1000,
verbose=0
)
test = np.array([
[35, 153, 1, 0, 1, 0.378]
])
model.evaluate(X, y, verbose=0)
prediction = model.predict(test)
print(np.floor(prediction*100))
input("Press ENTER to exit...")
</code>
в ответе после запуска он выдаёт число в квадратных скобочках вот так:
<code>
[[5.]]
</code>
как от них избавиться
|
я всё понял и разобрался:
<code>
prediction[0][0]
</code>
|
21,319 | Странное поведение метода str.rstrip() в Python 3.7
Решая задачку из Яндекс.Лицея столкнулся с одной любопытной проблемой. Дело в том, что при попытке обрезать строку "[email protected]" с помощью встроенного метода rstrip() получается не совсем корректный (с моей точки зрения) результат. При выполнении следующего отрывка:
<code>
print('[email protected]'.rstrip('@untitled.py'))
</code>
на выходе получается строка
<code>
nikita_nik
</code>
в то время, как на выходе ожидалась строка "nikita_nikitin".
Так же замечу, что следующие команды работают более корректно:
<code>
print('[email protected]'.rstrip('@untitled.py'))
print('[email protected]'.rstrip('[email protected]'))
</code>
На выходе получаем:
<code>
nikita_nikitin9
nikita_nik
</code>
Проверял только в Python 3.7, в качестве IDE - PyCharm.
В связи с этим вопрос:
Чем все-таки вызвано такое поведение интерпретатора и как объясняется данная проблема?
|
В документации по методу <code>
str.rstrip([chars])</code> сказано:
Return a copy of the string with trailing characters removed. The
chars argument is a string specifying the set of characters to be
removed. If omitted or <code>
None</code>, the chars argument defaults to removing
whitespace. The chars argument is not a suffix; rather, all
combinations of its values are stripped:
Вольный перевод (частично):
Возвращает копию строки с удаленными конечными символами. Аргумент
<code>
chars</code> — это строка, указывающая набор удаляемых символов.
Простыми словами, будут удаляться все символы, до первого неподходящего.
В Вашем примере первый символ с конца, который не входит в коллекцию <code>
@untitled.py</code> — это <code>
k</code>. Всё остальное будет удалено.
|
21,320 | Как ускорить нахождение строки с помощью regex?
У меня есть первый файл(размером около 1-3 кб) несколько строк в котором выглядят так:
<code>
Name1
Name2
Name3
Name4
</code>
И есть второй файл(размером 1.2 Гб) в котором строка выглядит так:
<code>
<root><img>url</img><title>Name1</title>(здесь еще несколько тегов)</root>
</code>
Второй файл содержит все имена первого файла(и также имена таких же файлов как 1), только с доп. информацией.
Мне необходимо что бы код проходился по каждой строке файла 1, брал оттуда имя и по нему искал тег с тем же именем в файле 2. После того, как тот найдет тег, содержащий нужное имя нужно скопировать родительский тег root и все что в нем находится.
Вот код который я написал:
<code>
import re
my_list = [12, 13, 14, 17, 18, 19, 21, 22, 23, 24] #идентификатор файла после имени
with open('main_data_file.xml', 'r', encoding='utf-8') as f:
txt = ''.join(f.readlines())
for i in my_list:
cat_name = "catalog_" + str(i) + ".xml"
data_name = "main_data_catalog" + str(i) + ".xml"
with open(cat_name, 'r', encoding='utf-8') as g, open(data_name, 'a', encoding='utf-8') as x:
for element in g.readlines():
line_regexp = r'.*<title>{}</title>.*'.format(element.strip())
matches = re.search(line_regexp, txt, re.MULTILINE)
try:
x.write(matches.group(0) + "\n")
except AttributeError:
pass
</code>
Он рабочий, только он ооочень медленно работает и мне нужно ускорить этот код
Вопрос: Как можно ускорить данных код, хотя бы до строчки в 2-3 секунды(вместо строчки в 10-15 секунд)
|
Искал и нашел достаточно производительный метод через <code>
set()</code>
<code>
data_set = set()
with open('main_data_file.xml', 'r') as f:
data_set.update(f.readlines())
data_name = "main_data_catalog" + str(i) + ".xml"
with open("names.txt", 'r', encoding='utf-8') as g, open(catalog.xml, 'a') as x:
for line in g.readlines():
line_regexp = '<title>%s</title>' % line.strip()
# print('Searching line:' + line_regexp)
for element in data_set:
if line_regexp in element:
x.write(element)
# print('Element found ' + line.strip() + "\n")
</code>
Работает на достаточно высоких скоростях и меня устраивает, если есть советы по оптимизации, то пишите в комментарии
|
21,323 | Количество значений больше чем предыдущие за N период
Как создать новую колонку в датафрейме с количеством значений больших чем предыдущие за определенный период?
Пример. N=4
<code>
Вход Выход
5 0
6 0
7 0
5 2
6 2
4 1
3 1
4 1
5 1
7 3
8 3
</code>
|
Исходный DF:
<code>
In [33]: df
Out[33]:
col res
0 5 0
1 6 0
2 7 0
3 5 2
4 6 2
5 4 1
6 3 1
7 4 1
8 5 1
9 7 3
10 8 3
</code>
Решение - используем pandas.Series.rolling(...):
<code>
In [34]: N = 4
In [35]: df["new"] = (df["col"]
.rolling(N)
.apply(lambda x: x.diff().gt(0).sum(), raw=False)
.fillna(0))
</code>
Результат:
<code>
In [36]: df
Out[36]:
col res new
0 5 0 0.0
1 6 0 0.0
2 7 0 0.0
3 5 2 2.0
4 6 2 2.0
5 4 1 1.0
6 3 1 1.0
7 4 1 1.0
8 5 1 2.0
9 7 3 3.0
10 8 3 3.0
</code>
Проверка:
<code>
In [37]: df["res"] == df["new"]
Out[37]:
0 True
1 True
2 True
3 True
4 True
5 True
6 True
7 True
8 False # <--- по-моему, вы ошиблись в расчетах для этой строки
9 True
10 True
dtype: bool
</code>
|
21,324 | Django. Применяться стили только после перезагрузки браузера
в настройках:
<code>
STATIC_URL = '/static/'
STATICFILES_DIRS = [
os.path.join(BASE_DIR, 'static')
]
</code>
в шаблоне
<code>
`{% load static %}`
<link rel="stylesheet" href="{% static 'css/styles.css' %}">
</code>
при изменении кода в CSS файле и сохранении, на сайте происходят изменения только тогда, когда перезагрузишь браузер, а иногда и просто не применяются, с чем это может быть связано ?
|
Перезагружайте браузер с очисткой кэша. Например, командой ctrl+f5.
|
21,325 | Сравнение значаний с троке по условию со всеми значениями в этом столбце
У меня есть DataFrame:
<code>
Item Year Week Qnty Start_season
1 160947 2018 01 0 0
2 160947 2018 08 0 0
3 160947 2018 09 9 1
4 160947 2018 10 12 1
5 160947 2018 11 99 1
</code>
Где Item - товар, Year - год продаж, Week - неделя продаж, Qnty - сумма продаж за эту неделю, Start_season- период начала сезона
Мне нужно найти период окончания сезона и сделать отдельное поле в котором запишется флаг 1 - конец сезона в эту неделю был, 0 - конца сезона в эту неделю не было.
За окончание сезона принимается период, где значения Qnty (суммарные значение за неделю) отличаются от значений Qnty при Start_season = 1 (начало сезона) на +/- 10%.
Пробовала вот так:
<code>
df['Finish_season'] = np.where((df['Start_season'] == 1) & (ufloat((df['Qnty'].shift(-1) - df['Qnty'])/df['Qnty']*100 , 10)),1,0)
</code>
Но это не работает.
В качестве результата хотелось бы получить следующий DataFarme:
<code>
Item Year Week Qnty Start_season Finish_season
1 160947 2018 01 0 0 0
2 160947 2018 08 0 0 0
3 160947 2018 09 9 1 0
4 160947 2018 10 12 1 1
5 160947 2018 11 99 1 1
</code>
При получении столбца Finish_season мы сравниваем во сколько раз Qnty= 12 больше Qnty = 9 & Start_season=1, если значение в процентах +/- 10 выставляем Finish_season = 1.
|
<code>
mask = df.eval("Start_season == 1")
df["Finish_season"] = 0
df.loc[mask, "Finish_season"] = \
np.where(np.abs(df.loc[mask].groupby("Item")["Qnty"].pct_change() - 1) > 0.1, 1, 0)
</code>
результат:
<code>
In [151]: df
Out[151]:
Item Year Week Qnty Start_season Finish_season
1 160947 2018 1 0 0 0
2 160947 2018 8 0 0 0
3 160947 2018 9 9 1 0
4 160947 2018 10 12 1 1
5 160947 2018 11 99 1 1
</code>
UPDATE:
если значение, с которым сравниваем у нас постоянное? В нашем примере
мы каждое число в последующей строчке делим только на 9
<code>
tresh = 9
df.loc[mask, "Finish_season"] = \
np.where(np.abs(df.loc[mask].groupby("Item")["Qnty"].apply(lambda x: x/tresh) - 1) > 0.1, 1, 0)
</code>
|
21,326 | Проверка на дубликат sqlite
Смотрел здесь: Как сделать проверку на уникальность записи перед добавлениям в таблицу?, и здесь: Как создать проверку на существование записи? - не помогло.
Есть таблица:
<code>
cur.execute('CREATE TABLE IF NOT EXISTS table(Id INTEGER PRIMARY KEY,'
'Name TEXT UNIQUE,'
'Value INTEGER) ')
</code>
Скрипт периодически парсит данные обновляя БД.
Если <code>
name</code> повторяется, то надо просто перейти к следующей итерации.
<code>
cur.execute('INSERT INTO table (Name, Value) VALUES(?, ?)', (Name, Value))
</code>
Получаю ошибку:
sqlite3.IntegrityError: UNIQUE constraint failed: table.Name
Была идея просто обрабатывать ошибку, но есть ли способ это сделать с помощью SQL?
|
Можно воспользоваться <code>
ON CONFLICT IGNORE</code>.
Пример:
<code>
sqlite> CREATE TABLE IF NOT EXISTS tab(
...> Id INTEGER PRIMARY KEY AUTOINCREMENT,
...> Name TEXT UNIQUE ON CONFLICT IGNORE,
...> Value INTEGER);
sqlite>
sqlite> INSERT INTO tab(Name, Value) VALUES("111", 111);
sqlite> INSERT INTO tab(Name, Value) VALUES("111", 111);
sqlite> INSERT INTO tab(Name, Value) VALUES("111", 222);
sqlite> INSERT INTO tab(Name, Value) VALUES("222", 222);
sqlite> INSERT INTO tab(Name, Value) VALUES("222", 333);
sqlite>
sqlite> select * from tab;
Id Name Value
---------- ---------- ----------
1 111 111
4 222 222
</code>
|
21,327 | TypeError: 'int' object is not subscriptable, Pandas DateIndex
Написал функцию для добавления столбцов в DataFrame на основе того, что в индексе <code>
df</code> будет дата, причем уникальная. Получаю такую ошибку:
TypeError: 'int' object is not subscriptable
в строке <code>
M = date.month[0]</code>. Понятия не имею почему.
<code>
def AddWeekends_DateIndex(df):
Weekday_Name = {1: 'Monday', 2: 'Tuesday', 3: 'Wednesday', 4: 'Thursday', 5: 'Friday', 6: 'Saturday', 7: 'Sunday'}
Month = []
Weekday = []
days_in_month = [31, 59, 90, 120, 151, 181] #количество дней от января
for date in df.index:
M = date.month[0]
Month.append(M)
if M == 1:
A = date.day[0] % 7 + 1
else:
A = (days_in_month[M - 2] + date.day[0]) % 7 + 1
Weekday.append(Weekday_Name[A])
df['Weekday'] = Weekday
df['Month'] = Month
Weekend = []
for date in df.index:
if (df.loc[date, 'Weekday'] == 'Saturday' or df.loc[date, 'Weekday'] == 'Sunday'):
Weekend.append(1)
else:
Weekend.append(0)
df['Weekend'] = Weekend
January = [1, 2, 3, 4, 5, 6, 7, 8]
March = [8]
May = [1, 2, 3, 9, 10]
June = [12]
for date in df[df['Month'] == 1].index:
if date.day[0] in January:
df.loc[date, 'Weekend'] = 1
for date in df[df['Month'] == 3].index:
if date.day[0] in March:
df.loc[date, 'Weekend'] = 1
for i in df[df['Month'] == 5].index:
if date.day[0] in May:
df.loc[date, 'Weekend'] = 1
for i in df[df['Month'] == 6].index:
if date.day[0] in June:
df.loc[date, 'Weekend'] = 1
b = {1: 'January', 2: 'February', 3: 'March', 4: 'April', 5: 'May', 6: 'June'}
df['Month'] = df['Month'].map(b)
return df
</code>
Пример входных данных:
<code>
+-------------------------+
| Date Value |
+-------------------------+
| 2019-01-01 908.2640 |
| 2019-01-02 1814.3060 |
| 2019-01-03 2354.2990 |
| 2019-01-04 2238.6185 |
| 2019-01-05 2440.3580 |
| 2019-01-06 2966.7020 |
| 2019-01-07 3037.1810 |
| 2019-01-08 3018.9515 |
| 2019-01-09 3258.6010 |
| 2019-01-10 2700.2050 |
+-------------------------+
</code>
Пример выходных данных:
<code>
+------------+-----------+---------+-----------+---------+
| Date | Value | Month | Weekday | Weekend |
+------------+-----------+---------+-----------+---------+
| 2019-01-01 | 908.2640 | January | Tuesday | 1 |
| 2019-01-02 | 1814.3060 | January | Wednesday | 1 |
| 2019-01-03 | 2354.2990 | January | Thursday | 1 |
| 2019-01-04 | 2238.6185 | January | Friday | 1 |
| 2019-01-05 | 2440.3580 | January | Saturday | 1 |
| 2019-01-06 | 2966.7020 | January | Sunday | 1 |
| 2019-01-07 | 3037.1810 | January | Monday | 1 |
| 2019-01-08 | 3018.9515 | January | Tuesday | 1 |
| 2019-01-09 | 3258.6010 | January | Wednesday | 0 |
| 2019-01-10 | 2700.2050 | January | Thursday | 0 |
+------------+-----------+---------+-----------+---------+
</code>
|
Я бы решал вашу задачу в стиле Pandas:
<code>
import holidays # pip install holidays
def get_holidays(col, holidays_country_class=holidays.RU,
extra_holidays=None, dtype=np.int8):
if isinstance(col, pd.core.indexes.datetimes.DatetimeIndex):
col = col.to_series()
min_yr = col.min().year
max_yr = col.max().year
years = list(range(min_yr, max_yr+1))
hol = pd.to_datetime(
[tup[0]
for tup in sorted(holidays_country_class(years=years).items())])
if extra_holidays is not None:
extra_holidays = pd.to_datetime(extra_holidays)
hol = hol.union(extra_holidays).unique()
return col.dt.floor("D").isin(hol).astype(dtype)
def gen_dt_features(dt_col, extra_holidays=None):
if isinstance(dt_col, pd.core.indexes.datetimes.DatetimeIndex):
dt_col = dt_col.to_series()
return pd.DataFrame({
"Weekend": get_holidays(dt_col, extra_holidays=extra_holidays),
"DayOfWeek": dt_col.dt.weekday_name,
"Month": dt_col.dt.month_name()
},
index=dt_col.index)
</code>
исходный DF:
<code>
In [67]: df
Out[67]:
Value
Date
2019-01-01 908.2640
2019-01-02 1814.3060
2019-01-03 2354.2990
2019-01-04 2238.6185
2019-01-05 2440.3580
2019-01-06 2966.7020
2019-01-07 3037.1810
2019-01-08 3018.9515
2019-01-09 3258.6010
2019-01-10 2700.2050
</code>
решение:
<code>
In [68]: df = df.join(gen_dt_features(df.index))
</code>
результат:
<code>
In [69]: df
Out[69]:
Value Weekend DayOfWeek Month
Date
2019-01-01 908.2640 1 Tuesday January
2019-01-02 1814.3060 1 Wednesday January
2019-01-03 2354.2990 1 Thursday January
2019-01-04 2238.6185 1 Friday January
2019-01-05 2440.3580 1 Saturday January
2019-01-06 2966.7020 1 Sunday January
2019-01-07 3037.1810 1 Monday January
2019-01-08 3018.9515 1 Tuesday January
2019-01-09 3258.6010 0 Wednesday January
2019-01-10 2700.2050 0 Thursday January
</code>
UPDATE: с указанием дополнительных выходных:
<code>
In [91]: df = df.join(gen_dt_features(df.index, extra_holidays=['2019-01-10']))
In [92]: df
Out[92]:
Value Weekend DayOfWeek Month
Date
2019-01-01 908.2640 1 Tuesday January
2019-01-02 1814.3060 1 Wednesday January
2019-01-03 2354.2990 1 Thursday January
2019-01-04 2238.6185 1 Friday January
2019-01-05 2440.3580 1 Saturday January
2019-01-06 2966.7020 1 Sunday January
2019-01-07 3037.1810 1 Monday January
2019-01-08 3018.9515 1 Tuesday January
2019-01-09 3258.6010 0 Wednesday January
2019-01-10 2700.2050 1 Thursday January # <-- NOTRE: extra holiday
</code>
|
21,328 | Поменять состояние button в реальном времени
Необходимо поменять состояние кнопки, когда пользователь заполнить полня логина и пароля. Как проверять состояние кнопки? бесконечным циклом?
<code>
auth = Tk()
auth_frame = ttk.Frame(auth, padding='10 10 10 10')
auth_frame.grid(column=0, row=0, sticky='nwes')
auth_frame.columnconfigure(0, minsiz=100)
U_lgn, U_pwd = StringVar(), StringVar()
ttk.Label(auth_frame, text='Login').grid(row=0, column=0, pady=10)
x = ttk.Entry(auth_frame, textvariable=U_lgn)
x.grid(row=0, column=1, sticky='we', pady=10)
ttk.Label(auth_frame, text='Password').grid(row=1, column=0, pady=10)
y = ttk.Entry(auth_frame, textvariable=U_pwd)
y.grid(row=1, column=1, sticky='we', pady=10)
but_con = ttk.Button(auth_frame, text="Connect", state='disabled')
but_con.grid(row=2, sticky="we", pady=10, columnspan=2)
if U_lgn.get() and U_pwd.get(): but_con.config(state='active')
# auth.destroy()
x.focus()
auth.mainloop()
</code>
|
Нужно добавить слежение за состоянием переменных, привязанных к текстовым полям:
<code>
from tkinter import *
from tkinter import ttk
auth = Tk()
auth_frame = ttk.Frame(auth, padding='10 10 10 10')
auth_frame.grid(column=0, row=0, sticky='nwes')
auth_frame.columnconfigure(0, minsiz=100)
var_login, var_password = StringVar(), StringVar()
ttk.Label(auth_frame, text='Login').grid(row=0, column=0, pady=10)
entry_login = ttk.Entry(auth_frame, textvariable=var_login)
entry_login.grid(row=0, column=1, sticky='we', pady=10)
ttk.Label(auth_frame, text='Password').grid(row=1, column=0, pady=10)
entry_password = ttk.Entry(auth_frame, textvariable=var_password)
entry_password.grid(row=1, column=1, sticky='we', pady=10)
but_con = ttk.Button(auth_frame, text="Connect", state='disabled')
but_con.grid(row=2, sticky="we", pady=10, columnspan=2)
def callback(*args):
if var_login.get() and var_password.get():
# Если оба поля заполнены, делаем кнопку активной
but_con.config(state='active')
else:
# Если одно из полей не заполнено
# (были заполнены, а потом пользователь очистил одно из них)
# - делаем кнопку неактивной
but_con.config(state='disabled')
# Добавляем слежение за состоянием переменных, при записи в них будет вызываться функция callback
var_login.trace_add("write", callback)
var_password.trace_add("write", callback)
entry_login.focus()
auth.mainloop()
</code>
Альтернативный вариант - делаем периодическую проверку состояния полей (будет видна небольшая задержка перед изменением состояния кнопки, даже если уменьшить интервал проверки):
<code>
...
def timer_func(*args):
if var_login.get() and var_password.get():
but_con.config(state='active')
else:
but_con.config(state='disabled')
# Планируем следующий запуск функции через 100 миллисекунд
auth.after(100, timer_func)
timer_func()
entry_login.focus()
auth.mainloop()
</code>
Использовать просто бесконечный цикл в основном потоке в оконных приложениях нельзя: если сделать это до вызова <code>
auth.mainloop()</code> - то окно просто не появится, если в каком-нибудь обработчике событий - окно зависнет.
|
21,329 | Мульти-классификация по большому набору данных не может быть "dasked" и разделена, нормальная не может быть обработана
У меня огромный массив данных (550 МБ), кредитный клуб доступен здесь, и я должен предсказать класс оценок. Рамка массива данных:
<code>
Unnamed: 0 Unnamed: 0.1 loan_amnt funded_amnt funded_amnt_inv term int_rate installment annual_inc issue_d ... addr_state_SD addr_state_TN addr_state_TX addr_state_UT addr_state_VA addr_state_VT addr_state_WA addr_state_WI addr_state_WV addr_state_WY
0 41131 931434 24000 24000 24000.0 0 8.49 757.51 80000.0 2015 ... 0 0 0 0 0 0 1 0 0 0
1 41132 942549 6000 6000 6000.0 0 11.22 197.06 52000.0 2015 ... 0 0 0 0 0 0 0 0 0 0
2 41135 931619 8000 8000 8000.0 0 9.80 257.39 55000.0 2015 ... 0 0 0 0 0 0 0 0 0 0
3 41136 935204 19975 19975 19975.0 1 12.88 453.27 92000.0 2015 ... 0 0 0 0 0 0 0 0 0 0
...
</code>
Значит, это проблема классификации по нескольким классам. Однако, если я попытаюсь импортировать данные с помощью pandas, кажется, что они застыли, если я попробую сделать маску данных, то не смогу использовать функцию <code>
train_test_split</code> по мере получения:
<code>
NotImplementedError: 'DataFrame.iloc' only supports selecting columns. It must be used like 'df.iloc[:, column_indexer]'.
</code>
Итак, как я могу сделать классификацию даже по небольшому объему этого набора данных?
Вот мой код:
<code>
import dask.dataframe as dd
# predicting model
import pandas
from keras.models import Sequential
from keras.layers import Dense
from keras.wrappers.scikit_learn import KerasClassifier
from keras.utils import np_utils
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import KFold
from sklearn.preprocessing import LabelEncoder
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import OneHotEncoder
# define baseline model
def baseline_model():
# create model
model = Sequential()
# input layer
model.add(Dense(100, input_dim=input_dim, activation='relu', kernel_constraint=maxnorm(3)))
model.add(Dropout(0.2))
# hidden layer
model.add(Dense(60, activation='relu', kernel_constraint=maxnorm(3)))
model.add(Dropout(0.2))
# output layer
model.add(Dense(output_dim, activation='softmax'))
# Compile model
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
from dask.distributed import Client
# load dataset
X = result.loc[:, result.columns != 'TARGET']
Y = result['TARGET']
import sklearn.model_selection
from sklearn.model_selection import train_test_split
from sklearn.externals import joblib
from sklearn.externals.joblib import parallel_backend
client = Client()
with joblib.parallel_backend('dask'):
print("Before train test split")
train_X, test_X, train_y, test_y = train_test_split(X,result['TARGET'], test_size = 0.2, random_state = 0)
print("before one hot encoder 1")
train_y = pd.get_dummies(train_y)
print("before one hot encoder 1")
test_y = pd.get_dummies(test_y)
print("Before Keras Classifier")
estimator = KerasClassifier(build_fn=baseline_model, epochs=200, batch_size=5, verbose=1)
kfold = KFold(n_splits=10, shuffle=True)
results = cross_val_score(estimator, X, YDummies, cv=kfold)
print("Baseline: %.2f%% (%.2f%%)" % (results.mean()*100, results.std()*100))
</code>
Ниже приведено полное сообщение об ошибке:
<code>
C:\Users\antoi\AppData\Roaming\Python\Python36\site-packages\sklearn\externals\joblib\__init__.py:15: DeprecationWarning: sklearn.externals.joblib is deprecated in 0.21 and will be removed in 0.23. Please import this functionality directly from joblib, which can be installed with: pip install joblib. If this warning is raised when loading pickled models, you may need to re-serialize those models with scikit-learn 0.21+.
warnings.warn(msg, category=DeprecationWarning)
Before train test split
---------------------------------------------------------------------------
NotImplementedError Traceback (most recent call last)
<ipython-input-8-7bcf8dee84cb> in <module>
6 with joblib.parallel_backend('dask'):
7 print("Before train test split")
----> 8 train_X, test_X, train_y, test_y = train_test_split(X,result['TARGET'], test_size = 0.2, random_state = 0)
9 print("before one hot encoder 1")
10 train_y = pd.get_dummies(train_y)
~\AppData\Roaming\Python\Python36\site-packages\sklearn\model_selection\_split.py in train_test_split(*arrays, **options)
2122
2123 return list(chain.from_iterable((safe_indexing(a, train),
-> 2124 safe_indexing(a, test)) for a in arrays))
2125
2126
~\AppData\Roaming\Python\Python36\site-packages\sklearn\model_selection\_split.py in <genexpr>(.0)
2122
2123 return list(chain.from_iterable((safe_indexing(a, train),
-> 2124 safe_indexing(a, test)) for a in arrays))
2125
2126
~\AppData\Roaming\Python\Python36\site-packages\sklearn\utils\__init__.py in safe_indexing(X, indices)
206 # Pandas Dataframes and Series
207 try:
--> 208 return X.iloc[indices]
209 except ValueError:
210 # Cython typed memoryviews internally used in pandas do not support
~\AppData\Roaming\Python\Python36\site-packages\dask\dataframe\indexing.py in __getitem__(self, key)
52 )
53 if not isinstance(key, tuple):
---> 54 raise NotImplementedError(msg)
55
56 if len(key) > 2:
NotImplementedError: 'DataFrame.iloc' only supports selecting columns. It must be used like 'df.iloc[:, column_indexer]'.
</code>
Единственная идея, которая у меня есть сейчас, это сделать это кусочками:
<code>
for chunk in pd.read_csv(<filepath>, chunksize=<your_chunksize_here>)
do_processing()
train_algorithm()
</code>
|
Полный датасет занимает чуть больше 1 GiB:
<code>
In [6]: df = pd.read_csv(r"D:\download\processed_data.zip", index_col=0)
In [7]: df.memory_usage().sum() / 1024**3
Out[7]: 1.0226929560303688
</code>
В вашем коде вы создаёте две дополнительные копии исходных данных:
<code>
# копия 1
X = result.loc[:, result.columns != 'TARGET']
Y = result['TARGET']
# копия 2
train_X, test_X, train_y, test_y = train_test_split(X,result['TARGET'], test_size = 0.2, random_state = 0)
</code>
Первая копия - трата памяти впустую. Вместо этого можно воспользоваться оригинальным датасетом:
<code>
# DataFrame.pop(column_name) - вернет данные столбца `column_name`
# и __удалит__ этот столбец из DataFrame
Y = result.pop('TARGET')
train_X, test_X, train_y, test_y = train_test_split(result, Y, test_size = 0.2, random_state = 0)
# удаляем оригинальные данные
del result
del Y
</code>
PS я бы в вашем случае сначала сделал всю пред-подготовку данных (<code>
encodings</code>) и уже после этого разбивал данные на обучающую и тестовую выборки. Но это тема для отдельного вопроса...
|
21,330 | Сокращенная запись for if
<code>
a = [int(i) for i in input().split()]
b = sum(a)/len(a)
k = 0
for i in a:
k += i <= b
print(k)
</code>
Как можно сократить конструкцию for чтобы получилось нечто:
<code>
k += for i in a i <= b
</code>
|
Это делается так
<code>
k = sum(i <= b for i in a)
</code>
Но похоже хочется изучить синтаксис вложения if в строчный for
<code>
k = sum(1 for i in a if i <= b)
</code>
Можно и через map,reduce
<code>
functools.reduce(lambda k,x: k+x, map(lambda i: i<=b , a)
</code>
|
21,331 | Отцентрировать Text Input (kivy)
мой python
<code>
from kivy.app import App
from kivy.uix.boxlayout import BoxLayout
class MainWindow(BoxLayout):
# We create a dictionary of all our possible methods to call, along with keys
def command_dict(self):
return {
}
def process_command(self):
# comand_key save comand
command_key = self.ids.fetch_key_and_process_command.text
print(command_key)
# We then use that key in the command built in 'get_method' because it is a dict
# then we store it into a variable for later use
called_command = self.command_dict().get(command_key, 'default')
try:
# The variable is a method, so by adding we can call it by simple adding your typical () to the end of it.
called_command()
except TypeError:
# However we use an exception clause to catch in case people enter a key that doesn't exist
self.ids.fetch_key_and_process_command.text = 'you input: ' + command_key
class MainApp(App):
def build(self):
return MainWindow()
if __name__ == '__main__':
MainApp().run()
</code>
Мой kivy
<code>
<MainWindow>:
TextInput:
id: fetch_key_and_process_command
multiline: False
size: 400, 150
size_hint: None, None
on_text_validate: root.process_command()
</code>
Проблема в том, что я не могу отцентровать <code>
TextInput</code>
|
<code>
from kivy.uix.floatlayout import FloatLayout
from kivy.lang import Builder
from kivy.app import App
Builder.load_string('''
<MainWindow>:
TextInput:
id: fetch_key_and_process_command
multiline: False
size: 400, 150
size_hint: None, None
pos_hint: {"center_x": .5, "center_y": .5}
''')
class MainWindow(FloatLayout):
pass
class MainApp(App):
def build(self):
return MainWindow()
MainApp().run()
</code>
<code>
from kivy.uix.anchorlayout import AnchorLayout
from kivy.lang import Builder
from kivy.app import App
Builder.load_string('''
<MainWindow>:
TextInput:
id: fetch_key_and_process_command
multiline: False
size: 400, 150
size_hint: None, None
''')
class MainWindow(AnchorLayout):
pass
class MainApp(App):
def build(self):
return MainWindow()
MainApp().run()
</code>
<code>
from kivy.uix.boxlayout import BoxLayout
from kivy.lang import Builder
from kivy.app import App
Builder.load_string('''
<MainWindow>:
Widget:
TextInput:
id: fetch_key_and_process_command
multiline: False
size: 400, 150
size_hint: None, None
pos_hint: {"center_x": .5, "center_y": .5}
Widget:
''')
class MainWindow(BoxLayout):
pass
class MainApp(App):
def build(self):
return MainWindow()
MainApp().run()
</code>
|
21,333 | Получение значений списка содержащегося в словаре
Как получить все значения списка по ключу <code>
A</code>, содержащегося в ключе <code>
SOME</code>?
<code>
{
"SOME": [
{
"A": ["some text", "some text"],
"B": ["some text", "some text"]
}
]
}
</code>
|
Используйте модуль dpath для поиска ключей и значений в словарях любой глубины / вложенности:
<code>
import dpath.util as dp # pip install dpath
In [24]: dp.search(data, "/SOME/**/A")
Out[24]: {'SOME': [{'A': ['some text', 'some text']}]}
In [25]: dp.values(data, "/SOME/**/A")
Out[25]: [['some text', 'some text']]
</code>
|
21,334 | Oшибка в Keras - variable 'photoshop'
Непонятная ошибка всплывает при работе с листингом из книги:
<code>
local variable 'photoshop' referenced before assignment
</code>
При обучении модели с генераторами спустя несколько итераций внутри эпохи появляется такая ошибка. На Стеке есть рекомендация сделать даунгрейд Pillow, но мне не помогло.
|
Задача решилась не даунгрейдом, а апгрейдом до версии Pillow 6.1.0
|
21,335 | Объединение нескольких списков
Есть вывод данных, в списках:
<code>
['1', '00:80:f0:49:13:96']
['1', '08:00:23:48:28:05']
['1', '08:00:23:49:08:a1']
['1', 'PcName']
['1', 'bc:c3:42:13:db:2a']
['2', 'PcName']
['3', 'c8:60:00:6d:07:41']
['4', '00:17:c8:59:9e:e9']
['5', '00:17:c8:27:62:34']
['6', 'None']
['7', '08:00:23:3f:c1:0a']
['7', 'PcName']
['9', '00:12:13:02:f6:13']
['9', '02:00:00:88:06:ee']
['10', '00:12:12:03:33:6e']
['12', '50:e5:49:ec:2b:20']
['13', '08:00:23:49:07:dc']
['17', '00:17:c8:22:a6:41']
['17', 'PcName']
</code>
Первый элемент в некоторых списках повторяется.
Как его преобразовать к виду, что бы если первый элемент списка уже встречался, то второй элемент добавлялся в уже имеющийся список с таким первым элементом
<code>
['1', '00:80:f0:49:13:96', '08:00:23:48:28:05', '08:00:23:49:08:a1', 'PcName', 'bc:c3:42:13:db:2a']
['2', 'PcName']
['3', 'c8:60:00:6d:07:41']
['4', '00:17:c8:59:9e:e9']
['5', '00:17:c8:27:62:34']
['7', '08:00:23:3f:c1:0a', 'PcName']
['9', '00:12:13:02:f6:13', '02:00:00:88:06:ee']
['10', '00:12:12:03:33:6e']
['12', '50:e5:49:ec:2b:20']
['13', '08:00:23:49:07:dc']
['17', '00:17:c8:22:a6:41', 'PcName']
</code>
|
Пример через <code>
defaultdict</code>.
Данные:
<code>
items = [
['1', '00:80:f0:49:13:96'],
['1', '08:00:23:48:28:05'],
['1', '08:00:23:49:08:a1'],
['1', 'PcName'],
['1', 'bc:c3:42:13:db:2a'],
['2', 'PcName'],
['3', 'c8:60:00:6d:07:41'],
['4', '00:17:c8:59:9e:e9'],
['5', '00:17:c8:27:62:34'],
['6', 'None'],
['7', '08:00:23:3f:c1:0a'],
['7', 'PcName'],
['9', '00:12:13:02:f6:13'],
['9', '02:00:00:88:06:ee'],
['10', '00:12:12:03:33:6e'],
['12', '50:e5:49:ec:2b:20'],
['13', '08:00:23:49:07:dc'],
['17', '00:17:c8:22:a6:41'],
['17', 'PcName']
]
</code>
Код:
<code>
from collections import defaultdict
d = defaultdict(list)
for key, value in items:
d[key].append(value)
new_items = []
for k, v in d.items():
item = [k] + v
print(item)
new_items.append(item)
</code>
Результат:
<code>
['1', '00:80:f0:49:13:96', '08:00:23:48:28:05', '08:00:23:49:08:a1', 'PcName', 'bc:c3:42:13:db:2a']
['2', 'PcName']
['3', 'c8:60:00:6d:07:41']
['4', '00:17:c8:59:9e:e9']
['5', '00:17:c8:27:62:34']
['6', 'None']
['7', '08:00:23:3f:c1:0a', 'PcName']
['9', '00:12:13:02:f6:13', '02:00:00:88:06:ee']
['10', '00:12:12:03:33:6e']
['12', '50:e5:49:ec:2b:20']
['13', '08:00:23:49:07:dc']
['17', '00:17:c8:22:a6:41', 'PcName']
</code>
|
21,336 | Ошибка в начале цикла
Ошибка на 4 строке
<code>
Traceback (most recent call last):
File "D:\Python\morse.py", line 4, in <module>
for i in text:
TypeError: 'builtin_function_or_method' object is not iterable
</code>
Код:
<code>
var = str(input('Для зашифровки введите 1, для дешифровки введите 2: '))
if var=='1':
text=str(input('Введите текст: ')).lower
for i in text:
if i =='a':
endText.append('.-')
elif i =='б':
endText.append('-...')
elif i =='в':
endText.append('.--')
elif i =='г':
endText.append('--.')
elif i =='д':
endText.append('-..')
elif i =='е':
endText.append('.')
elif i =='ж':
endText.append('...-')
elif i =='з':
endText.append('--..')
elif i =='и':
endText.append('..')
elif i =='й':
endText.append('.---')
elif i =='к':
endText.append('-.-')
elif i =='л':
endText.append('.-..')
elif i =='м':
endText.append('--')
elif i =='н':
endText.append('-.')
elif i =='о':
endText.append('---')
elif i =='п':
endText.append('.--.')
elif i =='р':
endText.append('.-.')
elif i =='с':
endText.append('...')
elif i =='т':
endText.append('-')
elif i =='у':
endText.append('..-')
elif i =='ф':
endText.append('..-.')
elif i =='х':
endText.append('....')
elif i =='ц':
endText.append('-.-.')
elif i =='ч':
endText.append('---.')
elif i =='ш':
endText.append('----')
elif i =='щ':
endText.append('--.-')
elif i =='ъ':
endText.append('.--.-.')
elif i =='ы':
endText.append('-.--')
elif i =='ь':
endText.append('-..-')
elif i =='э':
endText.append('...-...')
elif i =='ю':
endText.append('..--')
elif i =='я':
endText.append('.-.-')
elif i =='1':
endText.append('.----')
elif i =='2':
endText.append('..---')
elif i =='3':
endText.append('...--')
elif i =='4':
endText.append('....-')
elif i =='5':
endText.append('.....')
elif i =='6':
endText.append('-....')
elif i =='7':
endText.append('--...')
elif i =='8':
endText.append('---..')
elif i =='9':
endText.append('----.')
elif i =='0':
endText.append('-----')
print(endText)
elif var == '2':
print('asas')
</code>
|
У вас <code>
text</code> это "указатель на метод". Вы скобки забыли добавить.
<code>
text=str(input('Введите текст: ')).lower()
</code>
|
21,341 | Как изменить порядок букв в словах? [закрыт]
Закрыт. Этот вопрос не по теме. Ответы на него в данный момент не принимаются.
Учебные задания допустимы в качестве вопросов только при условии, что вы пытались решить их самостоятельно перед тем, как задать вопрос. Пожалуйста, отредактируйте вопрос и укажите, что именно вызвало у вас трудности при решении задачи. Например, приведите код, который вы написали, пытаясь решить задачу
Закрыт 4 года назад.
Улучшить вопрос
Дано 2 слова через пробел:
<code>
буханка хлеба
</code>
На выходе мы должны получить:
<code>
хуханка блеба
</code>
т.е как поменять местами первые буквы?
|
Через регулярные выражения, используя захват групп:
<code>
import re
text = 'буханка хлеба'
new_text = re.sub('(.)(.+?) (.)(.+?)', r'\3\2 \1\4', text)
print(new_text) # хуханка блеба
</code>
|
21,342 | Вычисление по всему DataFrame
Нужно пересчитать заданный DataFrame в другой валюте:
<code>
rate = {'RUB': 69.183071}
</code>
df1:
<code>
id val1 val2 val3
a 100 200 300
b 500 700 100
c 1000 1500 2000
</code>
Нужно получить df2 в другой валюте по rate, грубо говоря значения в DataFrame разделить на rate:
df2:
<code>
id val1 val2 val3
a 1.44 2.89 4.33
b 7.22 10.11 1.44
c 14.45 21.68 28.91
</code>
Пытался сделать через <code>
apply lambda</code>, но почему-то все применимо только к столбцу и выдает мне <code>
Series</code>. Через <code>
groupby</code> что-то тоже не получается.
|
<code>
In [73]: (df2.set_index("id") / rate["RUB"]).reset_index()
Out[73]:
id val1 val2 val3
0 a 1.445440 2.890881 4.336321
1 b 7.227202 10.118082 1.445440
2 c 14.454403 21.681605 28.908806
</code>
или:
<code>
In [74]: df2.set_index("id").div(rate["RUB"]).reset_index()
Out[74]:
id val1 val2 val3
0 a 1.445440 2.890881 4.336321
1 b 7.227202 10.118082 1.445440
2 c 14.454403 21.681605 28.908806
</code>
|
21,344 | Создать новый DataFrame
Есть два DataFrame
df1['a'],df1['b'],df1['c'],df1['d']
df2['a'],df2['b'],df2['c'],df2['d']
Как создать новый столбец с данным
df1['new]
в котором будут браться значения
df1['a']/df2['a']
df1['b']/df2['b']
df1['c']/df2['c']
df1['d']/df2['d']
и выбираться максимальное значение из них?
|
Как-то так:
<code>
cols = ["a", "b", "c", "d"]
df1["new"] = (df1[cols] / df2[cols]).max(axis=1)
</code>
|
21,345 | Отсортировать DataFrame по значениям столбца
Есть DataFrame, полученный из <code>
pivot</code>. В столбце <code>
ST</code> значения являются цифрами, но принадлежат к типам <code>
int</code>, <code>
float</code> и <code>
str</code>:
<code>
Club ST
0 SSV Jahn Regensburg 78
1 1. FC Heidenheim 1846 71
2 1. FC Kaiserslautern 79
3 1. FC Köln 0
...
</code>
Необходимо узнать, к каким клубам принадлежат игроки с максимальным значением <code>
ST</code>, т.е. отсортировать по убыванию значений столбца <code>
ST</code>.
При выводе возникает ошибка разных типов данных, а как применить метод <code>
max</code> к значениям столбца не получается:
<code>
with pd.option_context('display.max_rows', None, 'display.max_columns', None):
print(b.sort_values(ascending=False))
</code>
приводит к <code>
TypeError: '>' not supported between instances of 'str' and 'int'</code>.
Попытка фильтрации DataFrame <code>
b2[int(b2.ST) > 90]</code> приводит к <code>
TypeError: cannot convert the series to <class 'int'></code>.
|
Сначала преобразуйте столбец к числовому типу данных:
<code>
df["ST"] = pd.to_numeric(df["ST"], errors="coerce")
df_sorted = df.sort_values("ST", ascending=False)
</code>
|
21,347 | Нормализация данных
Задача состоит в нормализации(0-1) стакана приказов в биржевой торговле.
В стакане я могу видеть только 25 наилучших ценовых предложений, т.е. 25 приказов вида ASK и 25 приказов вида BID. Если я правильно понимаю то для нормализации нужно максимальное число в стакане(это будет 1), а минимальное(это будет 0), остальные числа это разброс между макс и мин значениями. Таким образом получается, что 1 всегда будет первый приказ в списке ASK, а 0 последний приказ в списке BID.
Подскажите, пожалуйста, как можно нормализовать быстро меняющиеся данные такого рода? Нужно ли создавать отдельную БД для нормализации? И если да, то как?(Приказы быстро отменяются/появляются и непонятно какие данные надо записывать)
|
Описанная вами нормализация называется <code>
Min-Max Scaling</code> и вычисляется по формуле:
<code>
z[i] = (x[i] - min(x)) / (max(x) - min(x))
</code>
Соответственно самым быстрым способом скалирования быстроизменяющихся данных будет хранение трёх дополнительных значений (переменных):
min_value
max_value
diff_max_min (max - min)
Расчёт скалированного значения:
<code>
z[i] = (x[i] - min_value) / diff_max_min
</code>
Далее по мере поступления новых значений обновлять эти три переменные при необходимости (если новое значение больше текущего максимума или меньше текущего минимума).
PS Другие способы нормализации данных
|
21,351 | Как описать функцию в конце файла, чтобы интерпретатор не ругался?
Описываю эту тестовую функцию в конце файла:
<code>
def test():
print('Test')
</code>
Интерпретатор ругается, что функция неопределена так как он еще с ней не сталкивался
<code>
NameError: name 'test' is not defined
</code>
Можно ли как-то указать интерпретатору на нужную функцию?
|
Если очень хочется, можно добавить функцию <code>
main</code>, а из нее уже вызывать функцию <code>
test</code>:
<code>
def main():
test()
def test():
print('Test')
main()
</code>
|
21,353 | Лишние символы в начале XML-файла
Хочу распарсить XML-файл. После скачивания вижу в начале файла какие-то лишние символы. При чем это происходит только с локального компьютера (на Ubuntu). Если этот же скрипт закинуть на сервер (тоже на Ubuntu), то все ок.
Что это такое и что с этим делать?
<code>
xml = requests.get(url).text.encode('utf-8')
print(xml[:10])
</code>
Результат такой:
<code>
b'\xc3\xaf\xc2\xbb\xc2\xbf<?xm'
</code>
Без encode эти символы выглядят как <code>
</code>
|
<code>
</code> в начале файла обычно является BOM сигнатурой.
В этом случае следует воспользоваться кодировкой <code>
utf-8-sig</code> (как указано в вашем ответе):
<code>
r = requests.get(url)
if not r.ok:
r.raise_for_status()
xml = r.content.decode('utf-8-sig')
</code>
<code>
.content</code> в отличие от <code>
.text</code> вернет байт-строку, которую можно декодировать, используя нужную кодировку.
|
21,354 | Как подсчитать очки в турнире на основе pandas.DataFrame с результатами игр
Есть df в который добавляются результаты игр команд:
<code>
df = pd.DataFrame(data={'h_title': ('Sparta', 'Boor', 'Sachs', 'Boor', 'T-Rax'),
'h_goals': (0, 2, 5, 1, 2),
'a_title': ('Boor', 'Sachs', 'Sparta', 'T-Rax', 'Sparta'),
'a_goals': (4, 2, 1, 2, 2)})
</code>
Подскажите как создать функцию, которая будет определять результат по количеству голов и обновлять данные словаря:
<code>
team_dict = {i : 0 for i in ds['h_title']}
</code>
Команда победитель получит +3 очка в value, и по 1-му очку получают обе при ничьей.
Те вывод team_dict на основе df в текущем состоянии получится:
{'Sparta': 1, 'Boor': 4, 'Sachs': 4, 'T-Rax': 4}
К сожалению моих знаний пока не хватает, чтобы решить эту несложную задачу.
|
Попробуйте так:
<code>
def score(df):
h_vals = (df.eval("h_goals > a_goals") * 3 + df.eval("h_goals == a_goals") * 1).to_numpy()
h = pd.Series(h_vals, index=df["h_title"]).sum(level=0)
a_vals = (df.eval("h_goals < a_goals") * 3 + df.eval("h_goals == a_goals") * 1).to_numpy()
a = pd.Series(a_vals, index=df["a_title"]).sum(level=0)
return a+h
</code>
<code>
In [114]: score(df)
Out[114]:
a_title
Boor 4
Sachs 4
Sparta 1
T-Rax 4
dtype: int32
</code>
<code>
In [115]: score(df).to_dict()
Out[115]: {'Boor': 4, 'Sachs': 4, 'Sparta': 1, 'T-Rax': 4}
</code>
|
21,355 | Какие варианты разворота строки?
Хочу написать функцию, не используя срезы, не используя метод reverce и функцию reverced, не создавая пустой массив при этом. Знаю можно использовать стандартный алгоритм замены символов с предварительным портированием. Какие еще могут быть варианты?
<code>
def reversed_string(s):
chars = list(s)
for i in range(len(s) // 2):
tmp = chars[i]
chars[i] = chars[len(s) - i - 1]
chars[len(s) - i - 1] = tmp
return ''.join(chars)
data = reversed_string('stroka')
print(data)
</code>
|
<code>
def reversed_str(origin_str):
return ''.join(origin_str[index] for index in range(len(origin_str) - 1, -1, -1))
print(reversed_str('1234567')) # '7654321'
</code>
|
21,356 | Как правильно вводить значения для двух списков с клавиатуры?
Вот формат ввода:
<code>
n
a[0] b[0]
a[1] b[1]
... ...
a[n] b[n]
</code>
Вот пример ввода:
<code>
3
1 100
2 200
3 300
</code>
Как лучше и короче всего осуществить такой ввод данных с клавиатуры, чтобы поместить целые числа из первого столбца в список "a", а целые числа из второго столбца в список "b"?
Т. е. на выходе должно получиться:
<code>
a = [1, 2, 3]
b = [100, 200, 300]
</code>
|
Используйте:
input() для получения ввода (как строка)
<code>
int</code> для конвертации строки в целое число
<code>
range</code> для вызова указанного количества итераций
<code>
str.split</code> для разбиения строки на список по пробелам
Пример:
<code>
n = int(input())
items_a = []
items_b = []
for _ in range(n):
a, b = map(int, input().split())
items_a.append(a)
items_b.append(b)
print(items_a)
print(items_b)
</code>
Для введенных значений:
<code>
3
1 100
2 200
3 300
</code>
Результат:
<code>
[1, 2, 3]
[100, 200, 300]
</code>
|
21,358 | Поиск и удаление строки с unicodeescape в mssql на python
В SQL таблице есть столбец <code>
sc_path</code>, в котором содержится запись <code>
C:\Users\elebedev\Desktop\Python</code> Мне нужно удалить все строки в таблице содержащие эту запись.
<code>
from sqlalchemy import create_engine
path=r'C:\Users\elebedev\Desktop\Python'
con_log = create_engine('mssql+pymssql://log:pass@s1c/base')
sql_log = "DELETE FROM python_log WHERE CONVERT(NVARCHAR, sc_path) = '{}' ".format(path)
with con_log.begin() as conn:
conn.execute(sql_log)
</code>
Код выполняется, но он не видит эти строки. Как мне кажется, что это из за <code>
unicodeescape</code> символа, но это не точно.
Подскажите, как быть?
|
Вы используете <code>
raw string</code> - соответственно Python сам "заэкранирует" обратные слеши:
<code>
In [57]: path=r'C:\Users\elebedev\Desktop\Python'
In [58]: path
Out[58]: 'C:\\Users\\elebedev\\Desktop\\Python'
</code>
Если вас интересуют строки, начинающиеся с данной подстроки, то запрос нужно изменить:
<code>
sql_log = "DELETE FROM python_log WHERE CONVERT(NVARCHAR, sc_path) like CONVERT(NVARCHAR, %s)"
parms = (f"{path}%", )
# NOTE: ^ ^
con_log.execute(sql_log, parms)
</code>
|
21,359 | Помогите пофиксить код
Код получает на вход массив и должна реализовывать 2 функции по нахождению:
Суммы положительных элементов стоящих на чётных местах
Произведение отрицательных элементов стоящих на нечётных местах
<code>
vvod=int(input('размер массива '))
for i in range(0,vvod):
vvod=int(input('индекс '+str(i)+' число: '))
array.append(vvod)
print('получившийся массив:' + str(array))
n=1
sume=0
proiz=1
log=False
for i in array:
if n%2==0 and i>0:
sume+=i
n+=1
n=1
for i in array:
if n%2!=0:
if i<0:
proiz=proiz*i
log=True
n+=1
if log==False:
proiz=0
print('Суммы положительных элементов стоящих на чётных местах '+str(sume))
print('Произведение отрицательных элементов стоящих на нечётных местах '+str(proiz))
</code>
|
Намудрили с алгоритмом подсчета, можно намного проще сделать. Пример:
<code>
array = [4, 2, 2, -3, -2, 0, 6, 5, 6, -1, 6, 2, 6, -3, -3, -2, 0, 3, 5, 5]
total_sum = 0
total_prod = 1
for i, x in enumerate(array):
# Четный индекс, положительное число
if i % 2 == 0 and x > 0:
total_sum += x
# Нечетный индекс, отрицательное число
if i % 2 == 1 and x < 0:
total_prod *= x
print(total_sum) # 35
print(total_prod) # 18
</code>
|
21,360 | Перегруппировать словари по одинаковому ключу
Прошу помочь.
Есть словарь:
<code>
{'feauture': 'Громкость звука', 'value': '0'},
{'feauture': 'Потребл. ток', 'value': '0.0002'},
{'feauture': 'Потребл. ток', 'value': '0.0003'},
{'feauture': 'Потребл. ток', 'value': '0.0004'},
{'feauture': 'Потребл. ток', 'value': '0.009'},
{'feauture': 'Потребл. ток', 'value': '0.014'},
{'feauture': 'Потребл. ток', 'value': '0.048'},
{'feauture': 'Потребл. ток', 'value': '0.06'},
{'feauture': 'Потребл. ток', 'value': '0.3'},
{'feauture': 'Вторичный ток 3', 'value': '0.33'},
{'feauture': 'Потребл. ток', 'value': '0.4'},
{'feauture': 'Вторичный ток 2', 'value': '0.41'},
{'feauture': 'Вторичный ток 2', 'value': '0.62'},
{'feauture': 'Вторичный ток 1', 'value': '0.625'},
{'feauture': 'Вторичный ток 2', 'value': '0.66'},
{'feauture': 'Макс. выход. ток', 'value': '0.660'},
{'feauture': 'Макс. выход. ток', 'value': '0.83'},
{'feauture': 'Макс. выход. ток', 'value': '1'},
{'feauture': 'Модульная ширина (общ. кол-во модульных расстояний)', 'value': '10'},
{'feauture': 'Макс. дальность действия', 'value': '100'}
</code>
Хочу привести к такому виду:
<code>
{'feauture': 'Громкость звука', ['0']},
{'feauture': 'Потребл. ток', ['0.0002', '0.0003', '0.0004', '0.009'.... ]},
{'feauture': 'Вторичный ток 3', ['0.33']},
{'feauture': 'Потребл. ток', ['0.4']},
{'feauture': 'Вторичный ток 2', ['0.41', '0.62', '0.66']}},
{'feauture': 'Вторичный ток 1', ['0.625']},
{'feauture': 'Макс. выход. ток', ['0.660', '0.83', '1']},
</code>
Необходимо сгруппировать по свойству товара и во вложенном словаре получить все значения этого свойства без повторений.
|
без внешних библиотек
<code>
data = [
{'feauture': 'Громкость звука', 'value': '0'},
{'feauture': 'Потребл. ток', 'value': '0.0002'},
{'feauture': 'Потребл. ток', 'value': '0.0003'},
# ...
]
</code>
<code>
from itertools import groupby
from operator import itemgetter
key = itemgetter('feauture')
out = [{'feauture': k, 'value': [x['value'] for x in g]}
for k, g in groupby(sorted(data, key=key), key=key)]
</code>
с помощью Pandas
<code>
import pandas as pd
df = pd.DataFrame(data)
out = df.groupby('feauture', as_index=False).agg(list).to_dict('records')
</code>
|
21,361 | Проверка числа на целость
Нужно, чтобы программа проверяла является ли число точным кубом. Я написал так:
<code>
import math
n=int(input())
if (pow(n,1/3)).is_integer():
print("yes")
else:
print("no")
</code>
Но когда ввожу число 8 - все верно пишет "yes". Но если ввести 125, 216 и другие точные кубы, то почему-то выдает -"no". В чем ошибка?
Пробовал вместо pow(n,1/3) использовать n**(1/3) - та же проблема.
|
python, как и большинство других языков, не отличит число <code>
1/3</code> от числа достаточно близкого к нему
<code>
>>> 1/3 == 0.33333333333333331234512345
True
</code>
Точность вычислений с плавающей точкой ограничена, поэтому все сравнения дробных чисел нужно производить с учетом погрешности, например так.
<code>
if round(pow(n, 1/3), 6).is_integer(): # сравнение с точностью до 0.000001
</code>
Правда, стоит сказать, что от всех проблем это не убережет: если числа достаточно большие, потеря точности проявится значительно сильнее.
<code>
>>> round((123123123**3) ** (1/3), 6)
123123123.0
>>> round((1231231231**3) ** (1/3), 6)
1231231230.999999
</code>
<code>
>>> 100000000000000000.0 == 99999999999999999.0
True
</code>
Upd:
Целочисленный алгоритм нахождения кубического корня (с отбрасыванием дробной части)
<code>
def intcuberoot(n):
if n < 0:
return -intcuberoot(-n)
elif n < 2:
return n
else:
x = intcuberoot(n >> 3) << 1
return x if (x + 1) ** 3 > n else x + 1
def iscube(n):
return intcuberoot(n) ** 3 == n
</code>
У него тоже есть свои ограничения - он не особо оптимальный да и упрется в потолок рекурсии на огромных числах, но явная ошибка лучше чем неточный результат.
<code>
>>> iscube(555**300)
True
</code>
Upd2
Итеративный алгоритм (без ограничений на размер числа)
<code>
def intcuberoot2(n):
if n < 0:
return -intcuberoot2(-n)
x = 0
for bit in range((n.bit_length() + 2) // 3, -1, -1):
if (x | 1 << bit) ** 3 <= n:
x |= 1 << bit
return x
</code>
|
21,362 | Ошибка при запуске: No such file or directory: ''
Не появляется окно, сразу ошибка
<code>
import tkinter as tk
import hashlib
def show_text():
label_text.set('Hash, "' + f + '"')
root = tk.Tk()
road = tk.StringVar()
road1 = tk.StringVar()
entry = tk.Entry(root, width=40, textvariable=road)
entry.pack()
entry = tk.Entry(root, width=40, textvariable=road1)
entry.pack()
button = tk.Button(root, text="Click Me", command=show_text)
button.pack()
fl = open(str(road.get()))
f = hashlib.sha256(fl)
label_text = tk.StringVar()
label = tk.Label(root, textvariable=label_text)
label.pack()
root.mainloop()
</code>
Ошибка:
<code>
Traceback (most recent call last):
File "D:\Python\Test.py", line 16, in <module>
fl = open(str(road.get()))
FileNotFoundError: [Errno 2] No such file or directory: ''
</code>
|
Весь код не находящийся внутри функций или классов выше <code>
root.mainloop()</code> выполняется сразу после запуска программы. Получается что вы только создаете окно, текстовое поле и сразу запрашиваете из текстового поля его содержимое. Пользователь физически не успеет ничего ввести.
Нужно перенести открытие и обработку файла в обработчик кнопки, чтобы открытие файла происходило только после нажатия на нее:
<code>
import tkinter as tk
import hashlib
def show_text():
fl = open(str(road.get()))
f = hashlib.sha256(fl)
label_text.set('Hash, "' + f + '"')
root = tk.Tk()
road = tk.StringVar()
road1 = tk.StringVar()
entry = tk.Entry(root, width=40, textvariable=road)
entry.pack()
entry = tk.Entry(root, width=40, textvariable=road1)
entry.pack()
button = tk.Button(root, text="Click Me", command=show_text)
button.pack()
label_text = tk.StringVar()
label = tk.Label(root, textvariable=label_text)
label.pack()
root.mainloop()
</code>
|
21,364 | Python win32 узнать все атрибуты файла
Всем привет. Пытаюсь разобраться с библиотекой на питон win32. Хочу узнать весь список атрибутов файла. Но при использовании этой функции и других - выводится только последний добавленный атрибут.
Как с помощью win32 для питона узнать все атрибуты?
пишу код:
<code>
def attributes(fileName):
win32file.SetFileAttributes(fileName, win32file.FILE_ATTRIBUTE_READONLY)
win32file.SetFileAttributes(fileName, win32file.FILE_ATTRIBUTE_SYSTEM)
att = win32file.GetFileAttributes(fileName)
print(f"Current attributes: {att}")
</code>
результат:
4
если заменить на
<code>
att = win32file.GetFileAttributesEx(fileName)
</code>
, то результат будет такой:
Current attributes: (4, pywintypes.datetime(2019, 9, 9, 13, 30, 32,
221000, tzinfo=TimeZoneInfo('GMT Standard Time', True)),
pywintypes.datetime(2019, 9, 9, 16, 19, 25, 397000,
tzinfo=TimeZoneInfo('GMT Standard Time', True)),
pywintypes.datetime(2019, 9, 9, 16, 19, 19, 138000,
tzinfo=TimeZoneInfo('GMT Standard Time', True)), 42)
|
В вашем коде вы сначала делаете файл только "только для чтения", потом только системным. Т.е. вторым вызовом "перезатираете" то что сделали первым вызовом. <code>
GetFileAttributes</code> вам показывает правильный результат - файл системный, но не только для чтения.
Функция <code>
SetFileAttributes</code> вторым параметром принимает атрибуты как целое число, в котором каждый бит отвечает за определенный атрибут (битовые "флаги"). Чтобы сделать файл и системным, и только для чтения, атрибуты нужно объединить с помощью битового логического "или":
<code>
win32file.SetFileAttributes(fileName, win32file.FILE_ATTRIBUTE_READONLY | win32file.FILE_ATTRIBUTE_SYSTEM)
</code>
|
21,365 | Как объявить пустой двумерный массив?
Как можно объявить двумерный массив размерностью x, y.
Так не работает:
<code>
arr = [][]
arr = [x][y]
</code>
Мне нужен именно пустой массив, т.к. дальше я буду вносить туда значения.
Нашел вариант с матрицей zeros, но его использовать не хотелось бы.
|
Можно использовать модуль Numpy - numpy.empty():
<code>
import numpy as np
arr = np.empty((x,y), dtype="float32")
</code>
<code>
In [47]: arr = np.empty((x,y), dtype="object")
In [48]: arr
Out[48]:
array([[None, None, None],
[None, None, None],
[None, None, None],
[None, None, None],
[None, None, None]], dtype=object)
In [49]: arr[1,1] = "XXXXX"
In [50]: arr
Out[50]:
array([[None, None, None],
[None, 'XXXXX', None],
[None, None, None],
[None, None, None],
[None, None, None]], dtype=object)
</code>
|
21,366 | Как лаконично и красиво поместить число в диапазон?
Следующий фрагмент кода бросается в глаза своей "топорностью", поэтому хочу его сделать более красивым.
Делаю простой конвертер изображения из rgb в hex, поэтому значение должно быть на интервале [0;255]
<code>
if number < 0:
number = 0
if number > 255:
number = 255
</code>
Можно ли средствами Python уменьшить код?
|
Попробуйте так:
<code>
def clip(val, min_=0, max_=255):
return max(min_, min(max_, val))
</code>
тесты:
<code>
In [12]: clip(100)
Out[12]: 100
In [13]: clip(1000)
Out[13]: 255
In [14]: clip(-1000)
Out[14]: 0
</code>
по совету @Bogdan, добавлю вариант с использованием тернарного оператора:
<code>
def clip(val, min_=0, max_=255):
return min_ if val < min_ else max_ if val > max_ else val
</code>
для тех, кто использует Numpy - в Numpy существует готовая функция np.clip():
Пример:
<code>
import numpy as np
In [34]: a = np.arange(10)
In [35]: a
Out[35]: array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])
In [36]: clipped = np.clip(a, 3, 8)
In [37]: clipped
Out[37]: array([3, 3, 3, 3, 4, 5, 6, 7, 8, 8])
</code>
|
21,369 | Расчет расстояния по нескольким координатам python
Имеется два массива с широтой и долготой.
<code>
lat = np.array([])
lon = np.array([])
</code>
Необходимо рассчитать расстояние между каждой точкой и сложить их.
Само расстояние вычисляется с помощью geopy.
<code>
dist = distance.geodesic(mark1, mark2, ellipsoid='WGS-84').m
</code>
Обновлено:
strawdog, спасибо за ответ!
Но всё же получается, что он считает разницу числом из первого массива и второго.
Поэтому переделал, вот рабочий вариант:
<code>
sum_distance = 0
for i in range(len(lat)):
mark1 = (lat[i-1], lon[i-1])
mark2 = (lat[i], lon[i])
if i > 0: # Для того, чтобы исключить суммирование с последней координаты
sum_distance += distance.geodesic(mark1, mark2, ellipsoid='WGS-84').km
else:
sum_distance = 0
</code>
В результате вывод:
0
0,4
0,8
...
13,2
|
Вероятно, так:
<code>
from geopy.distance import geodesic
import numpy as np
lat = np.array([22.5726, 28.7041, 6.9270])
lon = np.array([88.3639, 77.1025, 79.8612])
dist = 0
for i in range(len(lat)):
dist += geodesic(lat[i], lon[i], ellipsoid='WGS-84').m
print(dist)
</code>
20810835.3369049
|
21,371 | Python Django Дата комментария к статье
У меня сделана модель комментария, html-форма добавления комментария к статье.
При добавлении комментария не отображается правильно дата и время его публикации, вместо нужной даты, просто пишется None. Поле даты коммента:
<code>
comment_date = models.DateTimeField('время', default = timezone.now, null = True)
</code>
Я знаю, что это происходит из-за null = True, но без него я получаю ошибку при добавлении комментария. Параметр default не работает, ранее я пробовал различные вариации timezone.now, но к успеху это не привело. Я думал, что дело стоит в миграциях, но нет, я делаю все миграции верно и это не помогает.
Прикладываю полный код:
models.py
<code>
class Comment(models.Model):
article = models.ForeignKey(Article, on_delete = models.CASCADE) # connecting 'Comment model' with 'Article model' by ForeignKey
author_name = models.CharField('имя автора', max_length = 50)
comment_text = models.CharField('текст комментария', max_length = 10000)
comment_date = models.DateTimeField('время', default = timezone.now, null = True)
def __str__(self):
return self.author_name
class Meta:
verbose_name = 'Комментарий'
verbose_name_plural = 'Комментарии'
</code>
Далее views.py:
<code>
def detail(request, article_id):
try:
a = Article.objects.get(id = article_id)
except:
raise Http404('Статья не найдена!')
latest_comments_list = a.comment_set.order_by('-id')[:10]
return render(request, 'articles/detail.html', {'article': a, 'latest_comments_list': latest_comments_list})
</code>
def leave_comment(request, article_id):
try:
a = Article.objects.get(id = article_id)
except:
raise Http404('Статья не найдена!')
<code>
a.comment_set.create(author_name = request.POST.get('name'), comment_text = request.POST.get('text'), comment_date = request.POST.get('date'))
return HttpResponseRedirect(reverse('articles:detail', args = (a.id,)))
</code>
urls.py:
<code>
urlpatterns = [
path('', views.index, name = 'index'),
path('<int:article_id>/', views.detail, name = 'detail'),
path('<int:article_id>/leave_comment/', views.leave_comment, name = 'leave_comment')
</code>
]
И html-код:
<code>
{% extends 'base.html' %} <!-->detail.html<-->
{% block title %}{{article.article_title}}{% endblock %}
{% block content %}
<h2>{{article.article_title}}</h2>
<p>{{article.article_text}}</p>
<em>{{article.pub_date}}</em>
{% if article.was_published_recently %}
Новая статья!
{% endif %}
<hr>
{% if latest_comments_list %}
{% for c in latest_comments_list %}
<p>
<strong>{{c.author_name}}</strong>
<p>{{c.comment_text}}</p>
<strong>{{c.comment_date}}</strong>
</p>
{% endfor %}
{% else %}
Комментарии не найдены, станьте первым!
{% endif %}
<hr>
<form action="{% url 'articles:leave_comment' article.id %}" method="POST">
{% csrf_token %}
<input type="text" required placeholder="Ваше имя" name="name"><br>
<textarea name="text" required="" placeholder="Текст комментария" cols="30" rows="10" width="100px" height="50px"></textarea><br>
<strong name="date"></strong>
<button type="submit">Оставить комментарий</button>
</form>
{% endblock %}</code>
|
Я разобрался с проблемой, она заключалась далеко не в миграциях, а в методе создания модели. Мне кстати помог auto_add_now ! =)
Поясню: Проблема заключалась в методе создания самой модели. Я использовал <code>
a.comment_set.create(author_name = request.POST.get('name'), comment_text = request.POST.get('text'), comment_date = request.POST.get('date'))</code>
как оказалось, это не лучшая практика, поэтому стоит использовать более гуманный метод создания модели:
<code>
Comment.objects.create(
article=a,
author_name=request.POST.get('name'),
comment_text=request.POST.get('text')
)
</code>
Всем спасибо за помощь, всем благодарен, вопрос закрыт!
|
21,376 | Метод replace python
Программа меняет в тексте слово отель на гостиницу. Но возникает ошибка когда слово отель встречается внутри другого слова, например К-отель-ники, т.е. программа меняет в этом слове фразу. В итоге получается - Кгостиницаники.
Kак исправить?
Код в упрощенном виде выглядит так:
<code>
param = "Отель расположен в городе Котельники."
param = param.replace('отель','гостиница')
</code>
|
Воспользуйтесь регулярными выражениями:
<code>
import re
param = re.sub(r"\bотель\b", "гостиница", param)
param = re.sub(r"\bОтель\b", "Гостиница", param)
</code>
Результат:
<code>
In [20]: print(param)
Гостиница расположен в городе Котельники.
</code>
|
21,377 | Ошибка <Response [200]> python vk_api
Пишу программу на python для выкладывания постов с изображением в группу Vk. Использую библиотеку vk_api и requests.
Собственно вот сама программа:
<code>
import vk_api
import time
import random
import datetime
import requests
token='токен пользователя (доступ к wall и photos)'
group_id=id групы
vk = vk_api.VkApi(token=token)
gWUS=vk.method('photos.getWallUploadServer',{'group_id':group_id})
album_id=gWUS['album_id']
user_id=gWUS['user_id']
upload_url=gWUS['upload_url']
file={'photo1':open('q.png','rb')}
ur=requests.post(upload_url,files=file)
print(ur)
</code>
При запуске выводит
Response [200]
.
Как это можно исправить?
|
Это не ошибка, это успешный результат (см. Список кодов состояния HTTP). Чтобы получить текст ответа, нужно брать поле <code>
text</code>, например:
<code>
print(ur.text)
</code>
|
21,379 | Как передать именованный аргумент sqlite?
Не могу разобраться, как мне передать именованный аргумент (переменную) в базу данных.
Создал базу данных следующим образом:
<code>
import sqlite3
conn = sqlite3.connect("mydatabase.db")
cursor = conn.cursor()
cursor.execute("CREATE TABLE users (id numeric)") #пробовал и текстовое значение
</code>
Пытался вставить переменную так:
<code>
ids = [] #заполненный список с значениями, которые мне нужно вставить
for i in ids:
cursor.execute("INSERT INTO users VALUES (?,)", i) #пробовал через форматирование строки, тоже не вышло
</code>
Что я делаю не так?
|
<code>
cursor.execute(sql, parameters)</code> в качестве параметров ожидает итерируемый объект (обычно список или кортеж):
<code>
ids = [1,2,3]
for i in ids:
cursor.execute("INSERT INTO users VALUES (?)", (i,)) # qmark style
# NOTE: ----------------------------> ^^^ ^^^^
</code>
используем именованные параметры:
<code>
for i in ids:
cursor.execute("INSERT INTO users VALUES (:id)", {"id": i}) # (named style)
</code>
ВНИМАНИЕ: <code>
(<скаляр>)</code> - не является кортежем!
<code>
In [55]: i = 1
In [56]: type( i )
Out[56]: int
In [57]: type( (i) ) # / NOTE!
Out[57]: int # \ (i) - это просто скаляр, а не кортеж
In [58]: type( (i,) )
Out[58]: tuple
</code>
|
21,380 | Ошибка SyntaxError: (unicode error) 'unicodeescape' codec can't decode bytes in position 1-2: truncated \xXX escape на на Python kivy
Пишу калькулятор на python kivy и вылетает такая ошибка:
<code>
[INFO ] [Logger ] Record log in /home/egor/.kivy/logs/kivy_19-09-07_59.txt
[INFO ] [Kivy ] v1.11.1
[INFO ] [Kivy ] Installed at "/usr/local/lib/python3.6/dist-packages/kivy/__init__.py"
[INFO ] [Python ] v3.6.8 (default, Jan 14 2019, 11:02:34)
[GCC 8.0.1 20180414 (experimental) [trunk revision 259383]]
[INFO ] [Python ] Interpreter at "/usr/bin/python3"
[INFO ] [Factory ] 184 symbols loaded
[INFO ] [Image ] Providers: img_tex, img_dds, img_sdl2, img_pil, img_gif (img_ffpyplayer ignored)
[INFO ] [Text ] Provider: sdl2
Traceback (most recent call last):
File "main.py", line 21, in <module>
Main().run()
File "/usr/local/lib/python3.6/dist-packages/kivy/app.py", line 828, in run
self.load_kv(filename=self.kv_file)
File "/usr/local/lib/python3.6/dist-packages/kivy/app.py", line 599, in load_kv
root = Builder.load_file(rfilename)
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/builder.py", line 301, in load_file
return self.load_string(data, **kwargs)
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/builder.py", line 368, in load_string
parser = Parser(content=string, filename=fn)
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/parser.py", line 401, in __init__
self.parse(content)
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/parser.py", line 514, in parse
rule.precompile()
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/parser.py", line 261, in precompile
x.precompile()
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/parser.py", line 261, in precompile
x.precompile()
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/parser.py", line 261, in precompile
x.precompile()
[Previous line repeated 1 more time]
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/parser.py", line 257, in precompile
x.precompile()
File "/usr/local/lib/python3.6/dist-packages/kivy/lang/parser.py", line 179, in precompile
self.co_value = eval(value)
File "<string>", line 1
SyntaxError: (unicode error) 'unicodeescape' codec can't decode bytes in position 1-2: truncated \xXX escape
</code>
main.py:
<code>
from kivy.app import App
from kivy.uix.pagelayout import PageLayout
class Root(PageLayout):
pass
class Main(App):
def build(self):
return Root()
Main().run()
</code>
main.kv:
<code>
<CustomLabel@Label>:
text_size: self.size
#padding_x: 5
<Root>:
id: field
GridLayout:
cols:1
TextInput:
id : CalcPanel
GridLayout:
id : keyboardCalc
cols:5
Button:
text: 'sin'
on_press:
CalcPanel.text += 'sin('
Button:
text: 'cos'
on_press:
CalcPanel.text += 'cos('
Button:
text: 'tan'
on_press:
CalcPanel.text += 'tg('
Button:
text: 'AC'
on_press:
CalcPanel.text ='0'
Button:
id : delete
text: 'del'
Button:
text: 'X^y'
on_press:
CalcPanel.text += ' ** '
Button:
text: 'sqrt'
on_press:
CalcPanel.text += 'sqrt('
Button:
text: '!'
on_press:
CalcPanel.text += 'factorial('
Button:
text: '('
on_press:
CalcPanel.text += '('
Button:
text: ')'
on_press:
CalcPanel.text += ')'
Button:
text: '1\x'
on_press:
CalcPanel.text += '1/('
Button:
text: 'Pi'
on_press:
CalcPanel.text += 'pi'
Button:
text: 'e'
on_press:
CalcPanel.text += 'e'
Button:
text: '%'
on_press:
CalcPanel.text += '%'
Button:
text: '/'
on_press:
CalcPanel.text += '/'
Button:
text: '0'
on_press:
CalcPanel.text += '0'
Button:
text: '7'
on_press:
CalcPanel.text += '7'
Button:
text: '8'
on_press:
CalcPanel.text += '8'
Button:
text: '9'
on_press:
CalcPanel.text += '9'
Button:
text: '*'
on_press:
CalcPanel.text += '*'
Button:
text: '.'
on_press:
CalcPanel.text += '.'
Button:
text: '4'
on_press:
CalcPanel.text += '4'
Button:
text: '5'
on_press:
CalcPanel.text += '5'
Button:
text: '6'
on_press:
CalcPanel.text += '6'
Button:
text: '-'
on_press:
CalcPanel.text += '-'
Button:
text: ''
Button:
text: '1'
on_press:
CalcPanel.text += '1'
Button:
text: '2'
on_press:
CalcPanel.text += '2'
Button:
text: '3'
on_press:
CalcPanel.text += '3'
Button:
text: '+'
on_press:
CalcPanel.text += '+'
Button:
id:button
</code>
при этом если удалить виджет keyboardCalc (который с кучей кнопок) то ошибка не вылетает. Что я делаю не так?
|
Проблема в строке: <code>
'1\x'</code>
Обратный слэш внутри строк в Python имеет особое значение, см. например тут: Работа со строками в Python: литералы, раздел Экранированные последовательности - служебные символы.
В данной строке Python его распознает как часть последовательности типа <code>
'\xDE'</code> (где DE - шестнадцатеричный код символа), о чем и написано в ошибке: "truncated \xXX escape" - примерно переводится как "обрезанная экранированная последовательность \xXX".
Проблема решается или экранированием слеша <code>
'1\\x'</code>, либо использованием "сырых" строк (строки с <code>
r</code> перед первой кавычкой) - <code>
r'1\x'</code> (про сырые строки см. по ссылке выше, раздел "Сырые" строки - подавляют экранирование).
Или же заменить обратный слэш на прямой: похоже, у вас предполагается операция деления единицы на какое-то число.
|
21,381 | Как вывести только нужные параметры через subprocess Popen
Если использовать этот код, то выводятся все процессы на компьютере, но мне надо не всё знать об этих процессах, а только id и сколько памяти они занимают. Я никак найти не смог как это сделать не используя библиотеку psutil.
<code>
import os
from subprocess import Popen, PIPE, check_output
print(*[line.decode('cp866', 'ignore')
for line in Popen('tasklist', stdout=PIPE).stdout().readlines()])
</code>
|
Используем только встроенные модули:
<code>
import io
import csv
from subprocess import check_output
fh = io.StringIO(check_output(["tasklist", "/fo", "csv"]).decode('cp866', 'ignore'))
reader = csv.DictReader(fh, delimiter=",")
for row in reader:
print(row["PID"], row["Mem Usage"])
</code>
|
21,382 | Узнать функцию из которой был вызван __getitem__
<code>
class DictStruct(dict):
'''...'''
# Автоматически создаёт объекты класса Dict
# Если они есть в пути, Например:
# При struct['dict1']['dict2'] = ...
# добавит dict1 даже если его нету
#
# Нужно чтоб при присваивании дополнение
# недостающих блоков работали с созданием Dict-ов,
# но при выводе возвращало ошибку если ключ отсутствует
def __getitem__(self, key):
if key not in self.__dict__.keys():
return self.__missing__(key)
return self.__dict__[key]
def __setitem__(self, key, value):
pass
def __missing__(self, key):
#Если нету нужного ключа
self.__dict__[key] = type(self)()
return self.__dict__[key]
'''...'''
if __name__=='__main__':
struct = DictStruct()
struct['userlist']['user']['name'] = 'Username' # +
print(struct['userlist']['user']['age']) # - // Должно вернуть ошибку
</code>
Как узнать откуда был вызван метод класса и на при оделённых функциях делать дополнительные проверки
|
1. <code>
__getitem__</code> и <code>
__setitem__</code>
В данном случае <code>
__getitem__</code> и <code>
__setitem__</code> не подойдут. Независимо от того, присваиваете вы значение в словарь последнего уровня или извлекаете, <code>
__getitem__</code> всё равно будет вызываться по пути - для получения значений у словарей верхних уровней (1-го, 2-го и т.д.), через которые мы находим самый вложенный словарь, в котором собираемся менять элемент.
То есть ваша конструкция для записи нового элемента в словарь:
<code>
struct['userlist']['user']['name'] = 'Username'
</code>
работает следующим образом:
<code>
struct.__getitem__('userlist').__getitem__('user').__setitem__('name','Username')
</code>
<code>
struct.__getitem__('userlist')</code> - вызываем метод <code>
__getitem__</code> у объекта <code>
struct</code> и передаём ему <code>
'userlist'</code>. В нашем случае метод должен вернуть словарь, назовём его <code>
2_level_dict</code>.
<code>
2_level_dict.__getitem__('user')</code> - у полученного в предыдущем шаге словаря <code>
2_level_dict</code> таким же способом получаем следующий словарь - <code>
3_level_dict</code>.
<code>
3_level_dict.__setitem__('name','Username')</code> - в конце записываем новое значение в словарь <code>
3_level_dict</code>.
в результате получаем желаемый многоуровневый словарь: <code>
{'userlist': {'user': {'name': 'Username'}}}</code>.
Итого: несмотря на то, что вы хотели записать значение, метод <code>
__getitem__</code> вызывался два раза. Он вызывается всякий раз, когда происходит запрос элемента в словаре, а без запроса здесь не обойтись - нужно же добраться до самого вложенного словаря.
Переходим ко второй конструкции:
<code>
print(struct['userlist']['user']['age'])
</code>
"под капотом" она представляет собой следующее:
<code>
struct.__getitem__('userlist').__getitem__('user').__getitem__('age')
</code>
На данный момент <code>
__getitem__</code> вместо того, чтобы выдать ошибку, не найдя элемент <code>
'userlist'</code> в первом словаре, молча создаст новый словарь и присвоит его ключу <code>
'userlist'</code>. Потом второй словарь - <code>
'user'</code>. И т.д.
Чтобы вторая конструкция выдавала ошибку при отсутствии какого-либо элемента, нужно убирать дефолтное создание нового словаря <code>
DictStruct</code> из <code>
__getitem__</code>, а мы не можем, так как тогда перестанет работать первая.
Замечание: слово <code>
struct</code> лучше не использовать - оно является ключевым в языке C и используется там очень часто. На работу программы написанной на Python это никак не влияет, но людям знакомым с С не удобно читать этот код. Мне во всяком случае.
2. Получение имени вызывающего объекта:
Для определения объекта из которого функция была вызвана, можно использовать модуль inspect:
<code>
import inspect
def foo():
# возьми текущий фрейм объект (frame object)
current_frame = inspect.currentframe()
# получи фрейм объект, который его вызвал
caller_frame = current_frame.f_back
# возьми у вызвавшего фрейма исполняемый в нём объект типа "код" (code object)
code_obj = caller_frame.f_code
# и получи его имя
code_obj_name = code_obj.co_name
print("Имя вызывающего объекта: ", code_obj_name)
def a():
foo()
def b():
foo()
a()
b()
foo()
</code>
Output
<code>
Имя вызывающего объекта: a
Имя вызывающего объекта: b
Имя вызывающего объекта: <module>
</code>
Сильно расписывать не буду, тут слишком многое надо объяснять, чтобы стало понятно. Что такое фрейм, что такое объект типа "код"...
|
21,385 | Python: как вывести число типа float с определенным количеством знаков после запятой
Есть вот такая функция:
<code>
def vol(rad):
print(4/3*3.141592*rad**3, "cm^3")
</code>
вывод будет:
<code>
vol(5)
523.5986666666666 cm^3
</code>
Вопрос: как вывести ответ определенным количеством знаков после запятой, напирмер 523.598 или 523.59 по возможности сохранив компактность кода
|
Такой вариант устроит?
<code>
rad = 5
print(4/3*3.141592*rad**3, "cm^3")
#523.5986666666666 cm^3
print("{0:.4f} cm^3".format(4/3*3.141592*rad**3))
#523.5987 cm^3
</code>
Либо через f-strings, которые побыстрее будут:
<code>
res = 4/3*3.141592*rad**3
print(f'{res:.4f} cm^3')
#523.5987 cm^3
</code>
|
21,386 | Нужно перенести в каталог с изменением структуры каталога
Есть лежат два каталога:
<code>
/var/data1/</code> и
<code>
/var/data2/</code>
Каталог data1 имеет структуру:
<code>
<version>/<name_service>/<build_number>/*_<os>_<architectura>.(zip|7z)
</code>
пример:
<code>
3.18.100/alfa/32/alfa_linux_x86_64.zip
3.18.100/zero/32/zero-ctrl_linux_i686.7z
</code>
Нужно перенести все файлы из <code>
data1</code> в каталог <code>
data2</code> с изменением структуры каталога, так что бы первым уровнем стал имя директории с названием дистрибутива и добавить разделение каталогов по архитектурам
пример:
<code>
alfa/3.18.100/32/linux_x86_64/alfa.zip
zero/3.18.100/32/linux_i686/zero-ctrl.7z
</code>
|
Получился вот такой код, немного пояснил конечно.
Один момент остался, файлы переезжают а старая структура папок остается, ее потом вручную можно дропнуть.
Закидывайте код в файл, потом, запускайте в папке на уровне с 3.18.100. Ответственности не несу. Делайте обязательно бекапы
<code>
#python3.7
import os
from pathlib import Path
root_path = os.getcwd()
# Функция изменения пути
def rebuild_path(path):
# Распаковка пути, на директории и название файла
path, file = os.path.split(path)
# Распаковка названия файла на имя и расширение
filename, file_extension = os.path.splitext(file)
# Получаем список директорий
path_list = path.split('/')
# Собираем директории назад в другом порядке
new_path = '%s/%s/%s' % (path_list[1], path_list[0], path_list[2])
# Разбиваем имя файла на две части слева от _ и справа от _, правая не нужна
new_filename, _ = filename.split('_', 1)
# Собираем все назад
return '%s/%s%s' % (new_path, new_filename, file_extension)
# Получаем рекурсивно список файлов, наших целей
for filename in list(Path(".").rglob("*.*")):
# Нам нужны файлы с 3мя директориями
if str(filename).count('/') != 3: continue
# Получили новый путь
new_filename_path = rebuild_path(filename)
# Получили путь директорий файла
mkdir_path, _ = os.path.split(new_filename_path)
try:
# Рекурсивное создание
os.makedirs(os.path.join(root_path,mkdir_path))
# Перемещение
os.rename(str(filename), new_filename_path)
except OSError:
print("Creation of the directory %s failed" % mkdir_path)
else:
print("Successfully created the directory %s " % mkdir_path)
</code>
|
21,387 | Как найти ключевые слова в тексте одного столбца DataFrame?
у меня есть файл CSV я его прочитал, импортировал библиотеки
мне необходимо найти ключевые слова в тексте одного столбца:
вот эти критерии, отдельно:
<code>
/city/directory/<цифры или буквы>.html
/good/<цифры>/owner_info
/bulletin/<цифры>
</code>
и пользователь у которого совпадали эти 3 критерии совместно
мой код
<code>
import pandas as pd
import numpy as np
import re
exp = pd.read_csv(r'C:\Users\4X\Desktop\pandas\study\...csv')
re.findall('(?:/good/)|(?:/owner_info)', '/good/<цифры>/owner_info?')
exp.query('url == @card_filte')
</code>
здесь все отрабатывает
а вот со вторым и третьим не работает
<code>
contacs1 = re.findall(r'(?:/good/)|(?:/owner_info)', '/good/<цифры>/owner_info?')
exp.query('url == @contacs1_filte')
contacs2 = re.findall(r'(?:/bulletin/)', '/bulletin/<цифры>')
exp.query('url == @contacs1_filte')
</code>
|
Для того чтобы искать в столбце используя регулярные выражения можно воспользоваться pandas.Series.str.contains():
<code>
mask = df["column_name"].str.contains(r"<reg_exp>")
res = df.loc[mask]
</code>
PS если в вопросе будет приведен пример данных и ожидаемый результат, то я дополню вопрос примером, с использованием ваших данных...
|
21,388 | VK CallBack API долгая обработка запроса
Проблема: есть веб приложение на <code>
Flask</code>, на которое приходят запросы и он должен на них ответить. Ответ не зависит от запроса, а обработка самого запроса может занимать долгое время.
Вопрос: как вернуть ответ "сразу", а обработку запроса выполнить "на фоне"?
Как это реализовано сейчас:
<code>
from flask import Flask, request
import time
import json
from multiprocessing import Process
app = Flask(__name__)
def event_handler(event):
time.sleep(300) # Имитация долгой обработки запроса
@app.route("/callback_server", methods=["POST"])
def vk_callback():
event = json.loads(request.data)
if "type" not in event:
return "Nope"
if event["type"] == "confirmation" and event["group_id"] == group_id:
return confirmation_token
if event["secret"] != secret:
return "Auth failed"
proc = Process(target=event_handler, args=(event,))
proc.daemon = True
proc.start()
return "ok"
</code>
Т.е. сейчас у меня обработка запроса выполняется в отдельном процессе, но я не уверен, что это правильно, т.к. плодить процесс при каждом запросе (а быть их может очень много) это не очень хорошая идея. Если же делать через потоки, то из-за GIL нет гарантии, что ответ вернётся "сразу".
|
Если проблема в том, что один пользователь при запросе должен дожидаться конца обработки запроса другого пользователя, то тут следует использовать какой-нибудь WSGI (например, gunicorn. Хостинг pythonanywhere, к примеру, использует uWSGI).
Если проблема в том, что один пользователь долго ждёт ответа, то возвращать ему ответ до того, как сервер обработал этот запрос, не очень правильно. Контрпример:
Пусть сущность E создаётся несколько секунд
Пользователь отправил запрос на создание какой-либо сущности E;
Пользователь сразу же получил ответ, что сущность создана;
Следующим запросом пользователь хочет прочитать созданную сущность E, а сервер ещё не успел её создать.
Как это применимо к VK Callback API: Callback API имеет механизм повторных отправок уведомлений в случае, если сервер в ответ не вернул <code>
ok</code>. Проблема кроется в том, что на фоне этот запрос может и не обработаться (завершиться с ошибкой), но сервер вернёт <code>
ok</code>, что предовратит повторную отправку уведомлений, которая происходит при неудаче. Таким образом, Ваш "фоновый процесс" запрос не обработает, но сервер ответит что обработал.
Если же это не является проблемой и всё ещё остаётся необходимость обрабатывать запросы "в фоне", то лучше обрабатывать их в процессах, а не потоках, т.к., судя по описанию, обработка запроса здесь является CPU-bound операцией. Только вместо того, чтобы плодить процесс при каждом запросе, лучше завести некий пул процессов и отправлять задачу им. Таким образом, всегда будет крутиться фиксированное количество процессов, которые будут выполнять задачи из очереди.
|
21,390 | telegra bot на aiogram как использовать состояния в callback_query_handler?
Использую aiogram для управления ботом
машина состояний:
<code>
from aiogram.utils.helper import Helper, HelperMode, ListItem
class StateMach(Helper):
mode =HelperMode.snake_case
STATE_VIP= ListItem()
STATE_START= ListItem()
</code>
Код обработчиков:
<code>
@dp.message_handler(state= '*', commands=['vip'])
async def proc_vip_com(msg: types.Message):
keyboard=InlineKeyboardMarkup()
viplist = getvip()
state = dp.current_state(user=msg.from_user.id)
await state.set_state(StateMach.all()[0])
for i in viplist:
keyboard.add(types.InlineKeyboardButton(text=i[2],callback_data=i[0]))
await bot.send_message(msg.from_user.id, text="VIP раздел", reply_markup=keyboard)
@dp.callback_query_handler(lambda c: c.data, state = StateMach.STATE_VIP)
async def poc_callback_but(call:types.CallbackQuery):
await bot.answer_callback_query(call.id)
await bot.send_message(call.from_user.id, text=call.data)
</code>
Почему не работает <code>
callback_query_handler</code>, то есть не запускатся функция <code>
proc_callback_but</code> и как это исправить?
|
во-первых:
<code>
fsm aiogram use StatesGroup
</code>
пример:
<code>
from aiogram.dispatcher.filters.state import StatesGroup, State
class States(StatesGroup):
start: State = State()
end: State = State()
contact: State = State()
geo: State = State()
get_mail: State = State()
mail_ver: State = State()
save_json: State = State()
search_json: State = State()
send_paste: State = State()
</code>
во-вторых callback можно сделать через:
<code>
posts_cb: CallbackData = CallbackData('post', 'id', 'action')` <br>
</code>
вот еще:
<code>
InlineKeyboardButton(text=text,
callback_data=self.posts_cb.new(id=hash(call_back[val]),
action=call_back[val]), )
</code>
и потом:
<code>
@dp.callback_query_handler(posts_cb.filter(action=["jsonbox"]))
</code>
и еще у aiogram есть документация
вот пример бота
чат aiogram
|
21,391 | Не могу понять в чем ошибка. print не показывакт big и small number
Мне нужно заполнить 3 переменные через input. Вывести самое большое и самое маленькое.
Никак не могу понять, что делаю не так.
<code>
try:
num_1 = int(input('1 number'))
num_2 = int(input('2 number'))
num_3 = int(input('3 number'))
if num_1 > num_2 and num_3:
num_1 = big_num
if num_1 < num_2 and num_3:
num_1 = small_num
if num_2 > num_1 and num_3:
num_2 = big_num
if num_2 < num_1 and num_3:
num_2 = small_num
if num_3 > num_1 and num_2:
num_3 = big_num
if num_3 < num_1 and num_2:
num_3 = small_num
print(big_num, small_num)
else:
None
else:
None
else:
None
else:
None
else:
None
else:
None
except ValueError:
print('Только числа:')
</code>
|
Вы делаете что-то невероятно сложное.
Предлагаю воспользоваться функциями <code>
min</code> и <code>
max</code>.
Пример:
<code>
num_1 = int(input('1 number: '))
num_2 = int(input('2 number: '))
num_3 = int(input('3 number: '))
nums = [num_1, num_2, num_3]
print('Max:', max(nums))
print('Min:', min(nums))
</code>
Или ещё короче:
<code>
nums = [int(input(f'{i+1} number: ')) for i in range(3)]
print('Max:', max(nums))
print('Min:', min(nums))
</code>
|
21,392 | Можно ли оптимизировать данный код? [закрыт]
Закрыт. Этот вопрос необходимо уточнить или дополнить подробностями. Ответы на него в данный момент не принимаются.
Хотите улучшить этот вопрос? Добавьте больше подробностей и уточните проблему, отредактировав это сообщение.
Закрыт 4 года назад.
Улучшить вопрос
Задача: Входные данные содержат два целых числа a и b, по одному в строке (−10^100 ⩽ a, b ⩽ 10^100). Вывести сумму чисел a и b.
Программа работает, но выглядит громоздко.
Можно ли как-то уменьшить или ускорить работу программы?
<code>
def addition(a, b:str): #сложение
A = []
B = []
for i in a:
A.append(int(i))
for i in b:
B.append(int(i))
if len(A)>len(B):
B = [0] * (len(A) - len(B)) + B
else:
A = [0] * (len(B) - len(A)) + A
C = [0] * (len(A) + 1)
for i in range(len(A), 0, -1):
s = A[i-1] + B[i-1] + C[i]
a = s // 10
b = s % 10
C[i] = b
C[i-1] = a
return C
def subtraction(a, b:str): #вычитание
A = []
B = []
for i in a:
A.append(int(i))
for i in b:
B.append(int(i))
B = [0] * (len(A) - len(B)) + B
C = [0] * len(A)
for i in range(len(A) - 1, -1, -1):
if A[i] < B[i]:
k = i - 1
while A[k] == 0:
A[k] = 9
k -= 1
A[k] -= 1
A[i] += 10
C[i] = A[i] - B[i]
return C
def deliting(C:list): #удаление лишних нулей в начале числа
while C[0] == 0:
C.pop(0)
for i in range(len(C)):
print(C[i], end='')
def comparison(a, b:str): #сравнение
if len(a) > len(b):
return (a, b, 1)
elif len(a) < len(b):
return (b, a, 2)
else:
for i in range(len(a)):
if a[i] > b[i]:
return (a, b, 1)
elif a[i] < b[i]:
return (b, a, 2)
a = input()
b = input()
if len(a) < 10 and len(b) < 10:
print(int(a)+int(b))
elif a[0] != '-' and b[0] != '-':
C = addition(a, b)
deliting(C)
elif a[0] == '-' and b[0] != '-':
a = a[1::]
a, b, id = comparison(a, b)
C = subtraction(a, b)
if id == 1: # a>b
print('-', end='')
deliting(C)
else:
deliting(C)
elif a[0] != '-' and b[0] == '-':
b = b[1::]
a, b, id = comparison(a, b)
C = subtraction(a, b)
if id == 2: # a<b
print('-', end='')
deliting(C)
else:
deliting(C)
else: #a[0] == '-' and b[0] == '-'
a = a[1::]
b = b[1::]
addition(a,b)
print('-', end='')
deliting(C)
</code>
|
Навскидку, без вникания в аглоритм
1
<code>
A = []
for i in a:
A.append(int(i))
</code>
можно заменить на:
<code>
A = list(map(int, a))
</code>
2
<code>
if len(A) > len(B):
B = [0] * (len(A) - len(B)) + B
else:
A = [0] * (len(B) - len(A)) + A
C = [0] * (len(A) + 1)
for i in range(len(A), 0, -1):
</code>
можно заменить на однократное вычисление len:
<code>
la = len(A)
lb = len(B)
if la > lb:
B = [0] * (la - lb) + B
...
</code>
3
<code>
for i in range(len(a)):
if a[i] > b[i]:
return (a, b, 1)
elif a[i] < b[i]:
return (b, a, 2)
</code>
не использовать индексы
<code>
for a1, b1 in zip(a, b):
if a1 > b1:
return (a, b, 1)
elif a1 == b1:
pass # '==' по идее быстрее '<', т.е. этой добавление этого elif возможно ускорит
else:
return (b, a, 2)
</code>
|
21,393 | Как использовать обученную нейронную сеть?
Я сделала нейронную сеть с помощью библиотеки keras и обучила на cifar-10.
Теперь, как мне на неё подать одно изображение из папки и получить ответ, а не прогонять сеть по тестовой выборке?
<code>
from keras.models import model_from_json
# Загрузить данные об архитектуре сети
json_file = open("neural_test.json", "r")
loaded_model_json = json_file.read()
json_file.close()
# Создать модель на основе загруженных данных
loaded_model = model_from_json(loaded_model_json)
# Загрузить веса в модель
loaded_model.load_weights("neural_test.h5")
#Загрузить данные
(X_train, y_train), (X_test, y_test) = cifar10.load_data()
#нормализовать данные об интенсивности пикселей картинки
X_train = X_train.astype('float32')
X_test = X_test.astype('float32')
X_train /= 255
X_test /= 255
#преобразовать метки класса в категории
Y_train = np_utils.to_categorical(y_train, 10)
Y_test = np_utils.to_categorical(y_test, 10)
# Компиляция модели
loaded_model.compile(loss="categorical_crossentropy", optimizer="sgd", metrics=["accuracy"])
# Проверка модели на тестовых данных
scores = loaded_model.evaluate(X_test, Y_test, verbose=0)
print("Точность сети на тестовых данных: %.2f%%" % (scores[1]*100))
</code>
Сейчас, как видно, сеть может выдать только свою точность
|
Для этого нужно подать на вход модели тензор размерности <code>
(N, 32, 32, 3)</code>, где <code>
N</code> число картинок, которые вы хотите подать на вход сети для предсказания.
<code>
Y_predicted = loaded_model.predict(X_tensor)
</code>
PS даже если вы хотите подать на вход НС единственную картинку, ее надо преобразовать в 4D (четырех-мерный) тензор размерности: <code>
(1, 32, 32, 3)</code>
|
21,394 | update.message.reply_text('Hi!') Как это работает? [дубликат]
На этот вопрос уже даны ответы здесь:
Группировка функций внутри классов
(2 ответа)
Закрыт 4 года назад.
Наткнулся на эту строку и не могу понять как сделать класс так чтобы получилось слово1.слово2.функция('параметр'). Можно ли сделать цепочку больше? Что означают слово1 и слово2? Это функции какого-то класса? Приведите пожалуйста пример и объясните как это работает.
|
У вас есть экземпляр класса слово1 в котором есть объект - слово2, который является экземпляром другого класса, у которого в свою очередь есть метод функция(). Внутри слова2 так-же может быть объект со своими методами или своими объектами и так далее.
Упрощенный пример
<code>
class Message:
def __init__(self, mess):
self.message = mess
def append_text_to_message(self, text):
return self.message + text
class Updater():
def __init__(self, var):
self.var = var
self.message = Message(self.var)
update = Updater('Message ')
x = update.message.append_text_to_message('text')
>>> x
'Message text'
</code>
|
21,395 | Использование функции в качестве значения словаря в Enum классе
Имеется данный код, но при запуске выдает ошибку:
TypeError: 'CLASS' object is not subscriptable.
Как я могу исправить это?
<code>
from enum import Enum
def some_func():
return 1
class CLASS(Enum):
OBJECT = {"key" : 1, "value" : some_func}
print(CLASS.OBJECT['value']())
</code>
|
Члены класса-перечисления являются экземплярами этого класса
<code>
>>> isinstance(CLASS.OBJECT, CLASS)
True
</code>
Чтобы получить соответствующее им значение, нужно обратиться к полю <code>
value</code>
<code>
>>> print(CLASS.OBJECT.value['value']())
1
</code>
|
21,396 | Как сделать кнопку неактивной в tkinter?
Допустим мне нужно сделать эту кнопку неактивной:
<code>
tkinter.Button(win, text='Кнопка', font='Arial 18').place(x=80, y=230, width=100, height=35)
</code>
|
<code>
import tkinter as tk
root = tk.Tk()
button = tk.Button(root, text='Button')
button.pack()
button['state'] = 'disabled'
# или через метод config: button.config(state='disabled')
root.mainloop()
</code>
Для активации нужно установить значение <code>
'normal'</code>:
<code>
button['state'] = 'normal'
# или через метод config: button.config(state='normal')
</code>
|
21,398 | Как сделать выборку только тех объектов, у которых есть связанные объекты
Есть 2 модели со связью ForeignKey
<code>
class Parent(models.Model):
name = models.CharField(max_length=30)
class Child(models.Model):
name = models.CharField(max_length=30)
parent = models.ForeignKey(Parent, related_name='child', on_delete=models.CASCADE)
</code>
Как сделать выборку только тех родителей, у которых есть хотя бы один ребенок?
<code>
qs = Parent.objects.filter(child='как это сделать?')
</code>
|
Нашел
<code>
qs = Parent.objects.filter(child__isnull=False).distinct()
</code>
|
21,402 | Арифметические операции в Python справа налево, а не слева направо?
Простенький пример в Python вызвал у меня недоумение:
<code>
d = 15.961599999999999
d ** 1.5
>>>63.76973829534582
d ** 0.5 ** 3
>>>1.4137888521577402
0.5 ** 3
>>>0.125
d ** 0.125
>>>1.4137888521577402
</code>
Вопрос: почему Python вначале выполняет возведение <code>
0.5 ** 3</code>, а уже потом <code>
d ** (0.5 ** 3)</code>. Разве не должны арифметические операции выполняться слева направо? <code>
(d ** 0.5) ** 3</code>
|
из документации (Python: table of operator precedence):
Operators in the same box group left to right (except for
exponentiation, which groups from right to left).
|
21,403 | PYTHON ModuleNotFoundError: No module named 'Image' хотя модуль установлен
Хочу импортировать компонент image, установил и импортировал:
<code>
import image
text = "Hello, PIL!!!"
color = (0, 0, 120)
img = Image.new('RGB', (100, 50), color)
imgDrawer = ImageDraw.Draw(img)
imgDrawer.text((10, 20), text)
img.save("pil-basic-example.png")
</code>
обшарил весь google и решение не нашел.
P.S. у меня кастомный путь установки: A:\Python\
|
Попробуйте вместо
<code>
import image
</code>
написать
<code>
from PIL import Image
from PIL import ImageDraw
</code>
|
21,404 | Selenium. Как выбрать рандомный элемент в select
Как выбрать рандомный элемент в select в питоне с помощью Selenium.
Или как получить все элементы ?
|
После того, как вы сделали:
<code>
browser.get('example.com')
</code>
делаете:
<code>
elements = browser.find_elements_by_xpath('//*')
random_element = elements[random.randint(0, len(elements)-1)]
</code>
Здесь в коде:
<code>
'//*'</code> - буквально значит - "Все элементы"
<code>
len(elements)-1</code> - вернёт число равное, количеству найденных элементов (это все элементы из xPath адреса выше) минус один, так как индексация начинается с 0, а не с 1.
<code>
random.randint(0, len(elements)-1)</code> - вернёт случайное Целое число из последовательности от 0 до "количества найденных элементов минус 1"
<code>
elements[random.randint(0, len(elements)-1)]</code> - обращение к элементу в списке по случайному индексу
|
21,405 | Как правильнее подбирать параметры модели (RandomizedSearchCV,.GridSearchCV) или же вручную
Столкнулся с задачей подбора параметров для модели lightgbm, соответсвенно возникает вопрос, каким способом лучше всего их подбирать? Использовал метод RandomizedSearchCV, в течение 10 часов подбирались параметры, а толку от этого нет, точность такая же как и при ручном вводе параметров наугад. +/- смысл параметров понятен, какие отвечают за переобучение, какие за точность и скорость обучения, но вот не совсем понятно, если подбирать вручную то по одному или по парам, или еще варианты?
Ниже превожу пример как я реализовал подбор параметров:
<code>
SEED = 4
NFOLDS = 2
kf = KFold(n_splits= NFOLDS, shuffle=False)
parameters = {
'num_leaves': np.arange(100,500,100),
'min_child_weight': np.arange(0.01,1,0.01),
'feature_fraction': np.arange(0.1,0.4,0.01),
'bagging_fraction':np.arange(0.3,0.5,0.01),
'min_data_in_leaf': np.arange(100,1500,10),
'objective': ['binary'],
'max_depth': [-1],
'learning_rate':np.arange(0.001,0.02,0.001),
"boosting_type": ['gbdt'],
"bagging_seed": np.arange(10,42,5),
"metric": ['auc'],
"verbosity": [1],
'reg_alpha': np.arange(0.3,1,0.2),
'reg_lambda': np.arange(0.37,0.39,0.001),
'random_state': [425],
'n_estimators': [500],
}
model = lightgbm.LGBMClassifier()
RSCV = RandomizedSearchCV(model,parameters,scoring='roc_auc',cv=kf.split(train),n_iter=30,verbose=50)
RSCV.fit(train,label)
</code>
|
Если подбор параметров не дает никакого профита, может стоит попробовать другую модель или поработать с фичами (признаками). А если ты хочешь вручную подбирать как-то параметры, то можешь попробовать принцип ортогонализации (Orthogonalization). У Andrew NG на Coursera можешь посмотреть видео на эту тему. Но смысл в том, что ты изменяешь значения одного параметра , а все остальные параметры фиксируешь, и смотришь как меняется качество твоей модели.
|
21,406 | Почему элементы переменной не замещаются?
Пытаюсь понять след. код (буду комментировать, чтобы было видно путь моего мышления, чтобы могли меня понять):
<code>
word = "moloko" #слово которое нужно угадать
so_far = "x" * len(word) по одному x на букву, которую надо угадать
# пока слово не угадано
while so_far != word:
Просим пользователя ввести букву
guess = input("")
если буква есть в слове, которое надо угадать
if guess in word:
new = "" #создаем пустую строку для добавления элементов
for i in range(len(word)):#итерация выполняется 6 раз(длина слова)
if guess==word[i]: #если буква есть угадываемом слове
new = new + guess #добавляем в переменную букву
print(new)
else:#иначе
new = new + so_far[i] #добавляем x
print(new)
# print(so_far[i])
so_far = new
</code>
На выходе, допустим если ввести первой буквой "o", будет xoxoxo, и если затем "м", будет moxoxo. Так вот вопрос, разве переменная new, куда записывается буквы и x, при вводе другой буквы, которая есть в слове, допустим "м", не должна ли полностью меняться на mxxxx? Объясните пжл, я видимо не до конца понимаю этот код!(((( Я пол дня и уже вечер не могу понять, вернее я понял, но не до конца понимаю, как происходит итерация в данном коде
|
Вот в этой строке:
<code>
new = new + so_far[i] #добавляем x
</code>
Ваш комментарий верен только для самого первого угадывания, когда у нас действительно в <code>
so_far</code> лежат одни иксы.
Однако уже после первого угадывания, последняя строчка:
<code>
so_far = new
</code>
записывает в <code>
so_far</code> текущий <code>
new</code>. Поэтому после первого угадывания в <code>
so_far</code> лежат уже не шесть иксов, а <code>
'xoxoxo'</code>.
|
21,409 | Ускорить процес обработки данных
подскажите как можно ускорить процесс обработки данных.
Есть 2 столбца, если значение 2 столбца совпадает с нужным мне названием, я вытаскиваю значение из первого столбца этой же строки + проверка на одинаковые значение.
Когда в базе около 2000 строк, работает достаточно быстро, но когда их около 100 000, обработка занимает около 10сек. Есть какой-то способ уменьшить время обработки?
<code>
for index,row in mdlReg.iterrows():
if row['Zonetype'] == 'Aisle':
a = row['zonename']
if a not in self.sektor:
self.sektor.append(a)
if row['Zonetype'] == 'Floornum':
a = str(row['zonename'])
if a not in self.floor:
self.floor.append(a)
if row["Zonetype"] == "Sector":
a = str(row['zonename'])
if a not in self.spanN:
self.spanN.append(a)
if row["Zonetype"] == "Zonename":
a = str(row["zonename"])
if a not in self.placevalue:
self.placevalue.append(a)
</code>
|
Отфильтровать по логической маске и взять уникальные значения?
<code>
self.sektor = mdlReg[mdlReg['Zonetype'] == 'Aisle']['zonename'].unique().tolist()
self.floor = mdlReg[mdlReg['Zonetype'] == 'Floornum']['zonename'].unique().tolist()
self.spanN = mdlReg[mdlReg['Zonetype'] == 'Sector']['zonename'].unique().tolist()
self.placevalue = mdlReg[mdlReg['Zonetype'] == 'Zonename']['zonename'].unique().tolist()
</code>
|
21,410 | В каком виде в оперативной памяти хранятся генераторы?
В каком виде в оперативной памяти храниться генератор при итерации по нему?
Например:
<code>
res = (num for num in range(10**100000)
for el in res:
print(el)
</code>
Понятно, что сам генератор храниться как объект в оперативной памяти и занимает некоторое определенное место. Но что происходит при непосредственной итерации по нему? Какую память начинает занимать сам генератор <code>
res</code> после 1-ой, 2-ой и так далее итераций?
|
<code>
res = (num for num in range(10**100000)
</code>
приблизительно соответствует следующему коду
<code>
def f():
for num in range(10**100000)
yield num
res = f()
</code>
Здесь <code>
f</code> – это сопрограмма, специальная функция, которая приостанавливает выполнение после каждого <code>
yield</code>, давая возможность вызывающей стороне забрать сгенерированное значение, а также передать какое-нибудь значение внутрь функции.
Сопрограмма возобновит выполнение с того места, где остановилась, когда вызывающая сторона попросит следующее значение. Если значений не осталось (сопрограмма завершилась), она выбросит исключение <code>
StopIteration</code>, которое воспринимается как сигнал к завершению цикла.
<code>
def f():
for i in range(3):
x = yield i * i
print('получено', x)
</code>
<code>
>>> coro = f()
>>> coro.send(None)
0
>>> coro.send(11)
получено 11
1
>>> coro.send(True)
получено True
4
>>> coro.send('test')
получено test
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
StopIteration
</code>
Другими словами, генераторное выражение хранится в виде вызванной, но не завершенной функции, и занимает примерно столько памяти, сколько требуется на хранение самого функционального объекта и всех локальных переменных вызванной функции.
С <code>
range</code> дела обстоят немного иначе. Это объект, который хранит три значения – <code>
начало</code>, <code>
конец</code> и <code>
шаг</code> и на их основе позволяет вычислить любое значение из диапазона по формуле
ri = начало + i ∙ шаг
или
ri = конец + i ∙ шаг
если индекс отрицательный.
А при взятии среза создается новый объект <code>
range</code>
<code>
>>> r = range(0, 1000000, 1000)
>>> r[0]
0
>>> r[-1]
999000
>>> r[1:10]
range(1000, 10000, 1000)
>>> r[::-1]
range(999000, -1000, -1000)
</code>
Когда такой объект передается в <code>
for</code>, создается итератор, который дополнительно хранит еще и индекс текущего элемента.
<code>
>>> r = range(3)
>>> it = iter(r)
>>> it
<range_iterator object at 0x7f5cb3a91ba0>
>>> next(it)
0
>>> next(it)
1
>>> next(it)
2
>>> next(it)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
StopIteration
</code>
Т.е. <code>
range</code>, так же как и генераторное выражение не нуждается в том, чтобы хранить все значения в памяти, он просто высчитывает очередное значение при каждом обращении
|
21,411 | Удаление пары ключ-значение в словаре с использованием .lower()
Нужно удалить из словаря пару ключ-значение независимо от того, каким регистром вводится ключ.
Словарь содержит:
<code>
'Bob' : '123123',
'Henry' : '9239829',
'Sandy' : '98238989'
</code>
Если вводить ключ регистром, отличным от указанного в ключе, выдает ошибку KeyError, то есть, например, если ввести bob вместо Bob, случится ошибка.
Как сделать так, чтобы ключ удалялся независимо от используемого регистра, чтобы при вводе 'bob' удалялся ключ 'Bob'?
Пробовал сделать так:
<code>
delete = input()
del ab[delete.lower()]
</code>
и так:
<code>
delete = input().lower()
del ab[delete]
</code>
Что, по-моему, одно и то же, не работает.
UPD получилось удалить ключ с помощью
<code>
delete = input()
for name in list(ab):
if name.lower() == delete:
del ab[name]
</code>
|
<code>
dic = {'Bob' : '123123',
'Henry' : '9239829',
'Sandy' : '98238989' }
key = input()
dic.pop(key if key[0].isupper() else key[0].capitalize() + key[1:])
</code>
Как-то так.
|
21,413 | Как пропустить часть кода в Python?
Я еще только начинаю изучать Python и никак не могу понять как пропустить часть кода. Допустим у меня есть вот это:
<code>
print ('Начало')
for j in 'hellow world':
if j == 'w':
break
print(j*2, end = '')
l = [12, 34, 54, 67]
print ('\n',l)
print('\n',l, sep='')
print('123')
print(*'123')
print(*'123', sep=', ')
l = [1, 4, 45, 56, 78]
i = 0
while i < 4:
print (l[i])
i += 1
print ('Конец')
</code>
Я хочу, чтобы у меня выводилось только Начало и Конец. Как это сделать? Подскажите пожалуйста
|
Можно, например, воспользоваться условным оператором <code>
if</code> и ввести дополнительную переменную, которая будет будет показывать нужно ли вывести всё или пропустить часть кода.
<code>
print ('Начало')
print_all = False # флаг, показывающий нужно ли выводить всё
if print_all:
for j in 'hellow world':
if j == 'w':
break
print(j*2, end = '')
l = [12, 34, 54, 67]
print ('\n',l)
print('\n',l, sep='')
print('123')
print(*'123')
print(*'123', sep=', ')
l = [1, 4, 45, 56, 78]
i = 0
while i < 4:
print (l[i])
i += 1
print ('Конец')
</code>
|
21,414 | Как оформить в одну строку вывод текста со значениями % format в python
У меня в 2 сроки получется код
<code>
print("Пропусков стало:")
'{:.1%}'.format(new.isnull().sum().sum() / df.size)
</code>
Сейчас выводится например
<code>
Пропусков стало:
0.2 %
</code>
А как сделать, чтобы выводилось в одну строку(например)
<code>
Пропусков стало: 0.2 %
</code>
|
Надо просто не разделять один аргумент на два:
<code>
print("Пропусков стало: {:.1%}".format(new.isnull().sum().sum() / df.size))
</code>
|
21,415 | Как удалить столбцы, у которых кол-во пропущенных значений больше 2 согласно прилагаемого алгоритма
Алгоритм удаления по заданию следующий:
найдите все такие столбцы (метод <code>
.isna()</code> + подвыборка с условием)
определите их названия (поймите как выцепить названия и сохраните их в массив, т.е. по цепочке примените методы <code>
.index</code>, <code>
.tolist()</code> или <code>
.values</code>)
"дропните их" (используйте метод <code>
.drop</code> (имена столбцов))
результат сохраните в новой табличке (например, <code>
data_1</code>), исходную менять не нужно
Сделала по-другому:
<code>
cols_to_delete = df2.columns[df2.isna().sum() > 2]
df2.drop(cols_to_delete, axis = 1, inplace = True)
</code>
Что мне непонятно: как сделать задание по вышеуказанному алгоритму #1 - #4.
<code>
df = pd.DataFrame({
'col1': [23, 54, pd.np.nan, 87],
'col2': [45, 39, 45, 32],
'col3': [pd.np.nan, pd.np.nan, 76, pd.np.nan,]
})
</code>
|
Исходный DF:
<code>
In [92]: df
Out[92]:
col1 col2 col3
0 23.0 45 NaN
1 54.0 39 NaN
2 NaN 45 76.0
3 87.0 32 NaN
</code>
Решение 1:
<code>
In [93]: thresh = 2
In [94]: new = df.loc[:, df.isna().sum().le(thresh)]
</code>
Решение 2:
<code>
In [96]: new = df.drop(columns=df.columns[df.isna().sum() > thresh])
</code>
Результат:
<code>
In [95]: new
Out[95]:
col1 col2
0 23.0 45
1 54.0 39
2 NaN 45
3 87.0 32
</code>
|
21,416 | requests.exceptions.TooManyRedirects: Exceeded 30 redirects
Я парсю этот портал.Заголовок,дату и контент новости.И при парсинге использую python 3.7 библиотеку <code>
BS4</code>
И вот при парсинге этого портала у меня выходит такая ошибка:
<code>
Traceback (most recent call last):
File "C:/Users/Администратор/PycharmProjects/Task/parser.py", line 124, in <module>
call_all_func(resources)
File "C:/Users/Администратор/PycharmProjects/Task/parser.py", line 104, in call_all_func
item_page = get_html(resource_link)
File "C:/Users/Администратор/PycharmProjects/Task/parser.py", line 14, in get_html
r = requests.get(url)
File "C:\Users\Администратор\AppData\Local\Programs\Python\Python37-32\lib\site-packages\requests\api.py", line 75, in get
return request('get', url, params=params, **kwargs)
File "C:\Users\Администратор\AppData\Local\Programs\Python\Python37-32\lib\site-packages\requests\api.py", line 60, in request
return session.request(method=method, url=url, **kwargs)
File "C:\Users\Администратор\AppData\Local\Programs\Python\Python37-32\lib\site-packages\requests\sessions.py", line 533, in request
resp = self.send(prep, **send_kwargs)
File "C:\Users\Администратор\AppData\Local\Programs\Python\Python37-32\lib\site-packages\requests\sessions.py", line 668, in send
history = [resp for resp in gen] if allow_redirects else []
File "C:\Users\Администратор\AppData\Local\Programs\Python\Python37-32\lib\site-packages\requests\sessions.py", line 668, in <listcomp>
history = [resp for resp in gen] if allow_redirects else []
File "C:\Users\Администратор\AppData\Local\Programs\Python\Python37-32\lib\site-packages\requests\sessions.py", line 165, in resolve_redirects
raise TooManyRedirects('Exceeded %s redirects.' % self.max_redirects, response=resp)
requests.exceptions.TooManyRedirects: Exceeded 30 redirects.
Process finished with exit code 1
</code>
Вот строчка кода <code>
request</code> запроса
<code>
def get_html(url):
r = requests.get(url)
return r.text
</code>
Пробовал делать так
<code>
def get_html(url):
r = requests.get(url,allow_redirects=True)
return r.text
</code>
Но это мне не помогло.
Я из ошибки понял только то,что превышено 30 перенаправлений.Как устранить эту ошибку ?
|
Нашел в чем была причина:Циклические редиректы. То есть странница ссылается на саму себя, и requests при попытке дойти до итоговой страницы превышает лимит запросов. Решение проблемы - игнорировать ошибку. Перехватывать ее.
<code>
# < Получаем html код.
def get_html(url):
try:
r = requests.get(url)
return r.text
except requests.exceptions.TooManyRedirects:
pass
</code>
|
21,417 | Обращение по индексам в Pandas с инверсией (исключить индексы из выборки)
Не смог найти в документации:
Есть список индексов которые мне НЕ нужно выводить.
Как вывести с помощью <code>
.loc</code> или как-то иначе индексы вне этого списка?
|
Есть подозрение, что вы не очень хорошо искали.
<code>
import pandas as pd
df = pd.DataFrame({'col1': [1, 2, 3, 4, 5, 6, 7, 8, 9], 'col2': [3, 4, 5, 6, 7, 8, 9, 10, 11]})
print(df)
col1 col2
0 1 3
1 2 4
2 3 5
3 4 6
4 5 7
5 6 8
6 7 9
7 8 10
8 9 11
</code>
Выводим "срез":
<code>
print(df.loc[1:5])
col1 col2
1 2 4
2 3 5
3 4 6
4 5 7
5 6 8
</code>
Выводим без одного элемента (не самый элегантный способ:
<code>
print(df.loc[df.index != 1])
col1 col2
0 1 3
2 3 5
3 4 6
4 5 7
5 6 8
6 7 9
7 8 10
8 9 11
</code>
Выводим без элементов из списка:
<code>
print(df.loc[~df.index.isin([1,3,5])])
col1 col2
0 1 3
2 3 5
4 5 7
6 7 9
7 8 10
8 9 11
</code>
|
21,420 | Ошибка при распаковке данных из БД
Есть БД с данными о пользователях. Данные принимаю через цикл <code>
for</code>:
<code>
import sqlite3
Connect = sqlite3.connect('TheTruckerDB.db')
Cursor = Connect.cursor()
user_id = event.object.from_id
vk = session_api
SQLCheck = """SELECT uid, fname, lname, car, money, lvl FROM Players WHERE uid = ?"""
Cursor.execute(SQLCheck, (str(user_id),))
for u_id, f_name, c, m, l in Cursor.fetchall():
mess = '🙎♂ Ваш профиль:\n\n🆔:\t{u_id}\nИмя:\t{f_name}\nУровень:\t{l}\nТранспорт:\t{c}\nДенежный баланс:\t{m}\n\nДата регистрации:'
send_message(vk, peer_id, message=mess)
</code>
При запросе, чтобы вывести данные через <code>
send_message</code>. Но возникает ошибка:
<code>
for u_id, f_name, c, m, l in Cursor.fetchall():
ValueError: too many values to unpack (expected 5)
</code>
Подскажите, что не так.
|
Ваш запрос выбирает из базы шесть полей для строки (uid, fname, lname, car, money, lvl).
А вот здесь:
<code>
for u_id, f_name, c, m, l in Cursor.fetchall():
</code>
Вы пытаетесь эти шесть значений распихать в пять переменных.
Соответственно, либо уберите из SELECT лишнее поле, либо добавьте в for ещё одну переменную.
|
21,421 | Формат генератора списка в параметре функции
Почему в параметре метода <code>
join</code> можно упускать квадратные скобки при генерации списка?
<code>
my_str = ' '.join(i for i in ['rat','milk','pit','bull','dog'] if len(i)>3)
</code>
Но
<code>
A = i for i in ['rat','milk','pit','bull','dog'] if len(i)>3
</code>
вызовет ошибку.
|
Выражение без квадратных скобок (<code>
[]</code>) и с ними — это два разных выражения.
В Вашем примере Вы не используете квадратные скобки, поэтому следующее выражение:
<code>
i for i in ['rat','milk','pit','bull','dog'] if len(i)>3
</code>
расценивается как генератор (<code>
generator expression</code> или же <code>
genexpr</code>).
Обычно такие выражения обрамляются в круглые скобки (<code>
()</code>), но они иногда могут быть опущены, как в первом Вашем примере.
Если же квадратные скобки использовать:
<code>
[i for i in ['rat','milk','pit','bull','dog'] if len(i)>3]
</code>
то это уже будет списковое включение (<code>
list comprehension</code> или же <code>
listcomp</code>).
Большой разницы между ними нет.
Если в кратце, то генератор возвращает значения по одному и только если его "попросить", а списковое включение сразу возвращает готовый список.
В Вашем примере эта разница неочевидна.
Всё потому, что метод <code>
join</code> поддерживает методы итерирования и сам по одному "просит" элементы из генератора.
Теперь давайте докажем это, проведя дизассемблирование кода. Чтоб уж наверняка :)
Генератор:
<code>
print(dis.dis(r"x = ' '.join(i for i in [1, 2, 3])"))
</code>
stdout (частично):
<code>
4 LOAD_CONST 1 (<code object <genexpr> at ..., file "<dis>", line 1>)
# ^^^^^^^
</code>
Списковое включение:
<code>
print(dis.dis(r"x = ' '.join([i for i in [1, 2, 3]])"))
</code>
stdout (частично):
<code>
4 LOAD_CONST 1 (<code object <listcomp> at ..., file "<dis>", line 1>)
# ^^^^^^^^
</code>
|
21,422 | Не могу создать массив numpy. Module 'numpy' has no attribute 'array' [закрыт]
Закрыт. Этот вопрос не по теме. Ответы на него в данный момент не принимаются.
Вопрос вызван проблемой, которая больше не воспроизводится, или опечаткой. Хотя похожие вопросы могут быть уместны на этом сайте, решение для этого вопроса вряд ли поможет будущим посетителям. Обычно можно избежать подобных вопросов написанием и исследованием минимальной программы для воспроизведения проблемы до публикации вопроса.
Закрыт 1 год назад.
Улучшить вопрос
Не получается создать и вывести матрицу, пишет, что
module 'numpy' has no attribute 'array'
Вот сам код:
<code>
import numpy as np
a = np.array([1, 2, 3])
print(a)
</code>
|
Я нашел ошибку,как было замечено @SergeyGornostaev,я назвал файл также,как и импортируемый модуль,в результате этого,я как бы импортировал "сам себя",потом после переименовки файла,все стало работать корректно.
|
21,423 | Сортировка строк по возрастанию в файле Python
Есть txt файл вида
<code>
01 -> (56.665744414777,-4.09513935667372) -> 150.29296875
011 -> (56.6661293622529,-4.09704076876584) -> 160.0390625
03 -> (56.6665747421354,-4.09919364584093) -> 159.1015625
04 -> (56.6668895070955,-4.10013813805868) -> 155.78125
07 -> (56.666583500041,-4.09920718895852) -> 155.88671875
11 -> (56.6661261281559,-4.09701937330206) -> 160.25390625
2 -> (56.6661261281559,-4.09701937330206) -> 153.125
20 -> (56.6657530084886,-4.09516268121721) -> 157.9140625
201 -> (56.6657530084886,-4.09516268121721) -> 159.625
22 -> (56.6654648415451,-4.09359632994024) -> 160.3125
287 -> (56.6655907727544,-4.09278733564568) -> 164.28515625
30 -> (56.6654891203157,-4.08947699433228) -> 158.9140625
301 -> (56.6656592305536,-4.08871123027875) -> 165.5390625
5 -> (56.6654648415451,-4.09359632994024) -> 165.25
6 -> (56.6656913596524,-4.08679545454817) -> 160.3515625
9 -> (56.6657085935658,-4.08308369800892) -> 152.18359375
999 -> (56.6658433607951,-4.0803983938441) -> 164.5703125
</code>
Необходимо отсортировать строки по первому номеру в порядке возрастания.
Сам формат файла: № точки -> Координаты -> Высота
Пробовал функции .sort() и sorted, но как-то они у меня не сработали.
На выходе мы должны получить:
<code>
01 -> (56.665744414777,-4.09513935667372) -> 150.29296875
2 -> (56.6661261281559,-4.09701937330206) -> 153.125
03 -> (56.6665747421354,-4.09919364584093) -> 159.1015625
04 -> (56.6668895070955,-4.10013813805868) -> 155.78125
5 -> (56.6654648415451,-4.09359632994024) -> 165.25
6 -> (56.6656913596524,-4.08679545454817) -> 160.3515625
07 -> (56.666583500041,-4.09920718895852) -> 155.88671875
9 -> (56.6657085935658,-4.08308369800892) -> 152.18359375
011 -> (56.6661293622529,-4.09704076876584) -> 160.0390625
11 -> (56.6661261281559,-4.09701937330206) -> 160.25390625
20 -> (56.6657530084886,-4.09516268121721) -> 157.9140625
22 -> (56.6654648415451,-4.09359632994024) -> 160.3125
30 -> (56.6654891203157,-4.08947699433228) -> 158.9140625
201 -> (56.6657530084886,-4.09516268121721) -> 159.625
287 -> (56.6655907727544,-4.09278733564568) -> 164.28515625
301 -> (56.6656592305536,-4.08871123027875) -> 165.5390625
999 -> (56.6658433607951,-4.0803983938441) -> 164.5703125
</code>
|
У функций <code>
sort</code> и <code>
sorted</code> есть параметр key, с помощью которого можно указать функцию, по значению которой нужно выполнять сортировку. В вашем случае можно разбить строку на список по пробелам, взять первый элемент, привести его к целому числу. В виде лямбда-функции будет выглядеть так:
<code>
lambda line: int(line.split(' -> ')[0])
</code>
Полный код:
<code>
with open("file.txt") as file:
lines = file.readlines()
lines.sort(key=lambda line: int(line.split(' -> ')[0]))
print(lines)
</code>
Вообще удобно сначала привести все данные во внутренний формат, а потом уже обрабатывать:
<code>
import ast
from operator import itemgetter
def convert(parts):
# Преобразовываем части строки в кортеж вида
# (11, (54.37299474142492, 26.898398157209158), 160.25390625)
return int(parts[0]), ast.literal_eval(parts[1]), float(parts[2])
with open("file.txt") as file:
# Загружаем данные из файла в список кортежей
data = [convert(line.rstrip().split(' -> ')) for line in file]
# Выводим данные с сортировкой по перевому элементу
print(*sorted(data, key=itemgetter(0)), sep='\n')
</code>
Вывод:
<code>
(1, (54.3796422611922, 26.888606417924166), 150.29296875)
(2, (54.36748347245157, 26.864477936178446), 153.125)
(3, (54.37398288398981, 26.88761961646378), 159.1015625)
(4, (54.378429567441344, 26.889896811917424), 155.78125)
(5, (54.37056927010417, 26.87919421121478), 165.25)
(6, (54.36773962341249, 26.876613423228264), 160.3515625)
(7, (54.36729043722153, 26.872438648715615), 155.88671875)
(9, (54.36747006140649, 26.867277156561613), 152.18359375)
(11, (54.374836245551705, 26.895210184156895), 160.0390625)
(11, (54.37299474142492, 26.898398157209158), 160.25390625)
(20, (54.3712879344821, 26.893919790163636), 157.9140625)
(22, (54.37299474142492, 26.89111126586795), 160.3125)
(30, (54.37568969093263, 26.88519070856273), 158.9140625)
(201, (54.37708209268749, 26.89133900217712), 159.625)
(287, (54.36944726854563, 26.879338715225458), 164.28515625)
(301, (54.37294981442392, 26.87987733632326), 165.5390625)
(999, (54.37465662136674, 26.88276171684265), 164.5703125)
</code>
|
21,424 | сравнить все значения элемента списка
есть такой код:
<code>
def func()
while True:
d = len(resultfromsteam['response']['trade_offers_sent'])
for i in range(d):
tradestate = resultfromsteam["response"]['trade_offers_sent'][i]['trade_offer_state']
time.sleep(1)
if tradestate == 9:
print('123')
else:
func()
</code>
Я хочу, чтобы элемент по очереди проверялся.Если значение ключа с таким-то элементом будет равно 9,print('123')
когда я делаю так,как написано в коде, мне вылетает ошибка,типо слишком много ты вызвал функцию.
|
<code>
for value in resultfromsteam["response"]['trade_offers_sent']:
if value['trade_offer_state'] == 9:
print('123')
continue
</code>
|
21,425 | Выбор подхода для написания системы
Есть ERP система, парус. Крутится на oracle базе.
Система не обладает ни веб интерфейсом ни мобильными приложениями.
Сейчас там разработана система мм пользователь составляет заявку - кидает туда - дальше там всякие бухгалтерско экономические дела по ее оплате. Грубо говоря небольшая система электронного документа оборота.
Отправка заявки на данный момент реализована через макросы в экселе, оракл модули на компьютерах, извращенно короче.
Требуется перенести этот механизм в web.
Что требуется в вебе - авторизация по учетным записям оракл, не большой дашборд мм грубо говоря выборками из всего списка заявок (сколько согласовано, сколько отправелно и так далее), возможность составить заявку там (заполнить 10 полей, приложить файлик, нажать кнопку отправить и данные загружаются в оракл базу), возможность просмотреть заявки, которые ожидают согласования.
Собственно вопрос. Для работы над этим будет нанят человек, может не один, т.к. я не хочу аутсорс да и свой разработчик давно требуется и нужно понимать, как оптимальнее сделать данный процесс.
Питон+джанго или пхп или может есть более подходящие варианты.
|
Питон+джанго или пхп или может есть более подходящие варианты.
Выполнить задачу подобную Вашей, можно на любом стеке web технологий. В первую очередь важно:
Чётко поставить задачу. Тогда результат на выходе будет значительно ближе к ожидаемому;
Чтобы в тех бизнес процессах, которые предстоит автоматизировать не было бардака. Иначе ничего, кроме автоматизированного бардака Вы не получите, а время и деньги потратите.
Что же касается конкретного стека технологий, его выбор лучше доверить исполнителю по результатам предпроектного анализа.
|
21,426 | Особенности работы JupyterNotebook. Вопрос по работе модуля logging в Python. Дублирование вывода
Приветстсвую! Изучаю модуль logging в Python. Я уже привык тестировать нечто новое в JupyterNotebook и этот раз не стал исключением.
Вот код, который я запускаю:
<code>
import logging
import otherMod2
def main():
"""
The main entry point of the application
"""
logger = logging.getLogger("exampleApp")
logger.setLevel(logging.INFO)
# create the logging file handler
fh = logging.FileHandler("new_snake.log")
formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
fh.setFormatter(formatter)
# add handler to logger object
logger.addHandler(fh)
logger.info("Program started")
result = otherMod2.add(7, 8)
logger.info("Done!")
if __name__ == "__main__":
main()
</code>
В otherMod2.py:
<code>
import logging
module_logger = logging.getLogger("example_App.otherMod2")
def add(x, y):
""""""
logger = logging.getLogger("example_App.otherMod2.add")
logger.info("added %s and %s to get %s" % (x, y, x+y))
return x+y
</code>
Вот что, должно печататься в файл "new_snake.log":
<code>
2019-08-31 12:32:52,491 - exampleApp - INFO - Program started
2019-08-31 12:32:52,491 - exampleApp.otherMod2.add - INFO - added 7 and 8 to get 15
2019-08-31 12:32:52,491 - exampleApp - INFO - Done!
</code>
Что интересно, при повторном запуске <code>
main()</code>, происходит дублирование каждой строки. Т.е. запись в файл становится:
<code>
2019-08-31 12:37:26,414 - exampleApp - INFO - Program started
2019-08-31 12:37:26,414 - exampleApp - INFO - Program started
2019-08-31 12:37:26,415 - exampleApp.otherMod2.add - INFO - added 7 and 8 to get 15
2019-08-31 12:37:26,415 - exampleApp.otherMod2.add - INFO - added 7 and 8 to get 15
2019-08-31 12:37:26,415 - exampleApp - INFO - Done!
2019-08-31 12:37:26,415 - exampleApp - INFO - Done!
</code>
При третьем запуске пишется соответственно:
<code>
2019-08-31 12:38:04,835 - exampleApp - INFO - Program started
2019-08-31 12:38:04,835 - exampleApp - INFO - Program started
2019-08-31 12:38:04,835 - exampleApp - INFO - Program started
2019-08-31 12:38:04,835 - exampleApp.otherMod2.add - INFO - added 7 and 8 to get 15
2019-08-31 12:38:04,835 - exampleApp.otherMod2.add - INFO - added 7 and 8 to get 15
2019-08-31 12:38:04,835 - exampleApp.otherMod2.add - INFO - added 7 and 8 to get 15
2019-08-31 12:38:04,836 - exampleApp - INFO - Done!
2019-08-31 12:38:04,836 - exampleApp - INFO - Done!
2019-08-31 12:38:04,836 - exampleApp - INFO - Done!
</code>
Что самое интересное: в случае запуска <code>
main()</code> в PyCharm - всё рааботает нормально. Это именно особенность работы JupyterNotebook. Я думал, что проблема в том, что я несколько раз делаю <code>
import otherMod2</code> по сути, код внутри otherMod2 выполняется каждый раз. Однако при обычном запуске <code>
main()</code> вывод продолжает увеличиваться везде на один. Что это за особенность такая?
|
Потому что, как написано в документации:
All calls to this function with a given name return the same logger
instance. This means that logger instances never need to be passed
between different parts of an application.
Можно попробовать чистить (<code>
logger.handlers.clear()</code>) так:
<code>
import logging
import otherMod2
def main():
"""
The main entry point of the application
"""
logger = logging.getLogger("exampleApp")
if (logger.hasHandlers()):
logger.handlers.clear()
logger.setLevel(logging.INFO)
# create the logging file handler
fh = logging.FileHandler("new_snake.log")
formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s')
fh.setFormatter(formatter)
# add handler to logger object
logger.addHandler(fh)
logger.info("Program started")
result = otherMod2.add(7, 8)
logger.info("Done!")
if __name__ == "__main__":
#logger.addHandler(handler)
main()
</code>
|
21,428 | Почему комментарии добавляются только после перезапуска сервера django?
Через админ панель добавляются без проблем, а через input только при перезагрузке сервера.
Что я делаю не так?
<code>
from django.shortcuts import render
from django.http import Http404, HttpResponseRedirect
from django.http import HttpResponse
from .models import Source
from django.urls import reverse
from django.utils import timezone
source_list = Source.objects.order_by('-source_date')[:22]
def index(request):
return render(request,'source/AllCode.html', {'source_list':
source_list})
def showcode(request, source_id):
try:
s = Source.objects.get( id = source_id )
except:
HttpResponseRedirect('/source')
return render(request, 'source/Code.html', {'source': s})
def addcode(request):
try:
newsource = Source( source_title = request.POST['title'],
source_language = request.POST['language'],\
source_code = request.POST['code'], source_date = timezone.now())
newsource.save()
return HttpResponseRedirect( reverse('source:showcode', args =
(newsource.id, )) )
except:
return render(request, 'source/save.html')
</code>
|
<code>
def index(request):
source_list = Source.objects.order_by('-source_date')[:22]
return render(request,'source/AllCode.html', {'source_list':
source_list})
</code>
|
21,431 | В ответе один ключ используется много раз
Вот response:
<code>
{"response":{"trade_offers_sent":[{"tradeofferid":"3688672517","accountid_other":484947526,"message":"TPA9 ... /trade/2774573977/MhHeod5FnmY/","expiration_time":1568380970,"trade_offer_state":4,}{"tradeofferid":"3688571692","accountid_other":5551133,"message":"UQTM ... /trade/2774290053/KYrUQ0lVCFw/","expiration_time":1568375852,"trade_offer_state":3,}
</code>
в этом респонсе мне надо узнать,допустим tradeofferid во втором обмене.Как это можно сделать?
|
То, что Вы привели в вопросе не является <code>
Json</code>'ом. В вашем ответе используются завершающие запятые, а также не совпадает количество открывающих и закрывающих скобок. Я думаю, Вы опечатались при копировании.
Если предположить, что Вы имели в виду это:
<code>
{
"response": {
"trade_offers_sent": [{
"tradeofferid": "3688672517",
"accountid_other": 484947526,
"message": "TPA9 ... /trade/2774573977/MhHeod5FnmY/",
"expiration_time": 1568380970,
"trade_offer_state": 4
}, {
"tradeofferid": "3688571692",
"accountid_other": 5551133,
"expiration_time": 1568375852,
"trade_offer_state": 3
}]
}
}
</code>
то Вы можете распарсить ответ с помощью модуля <code>
json</code>.
Пример:
<code>
import json
# Я добавил запятые и закрыл скобки, чтобы это стало валидным Json
response = '{"response":{"trade_offers_sent":[{"tradeofferid":"3688672517","accountid_other":484947526,"message":"TPA9 ... /trade/2774573977/MhHeod5FnmY/","expiration_time":1568380970,"trade_offer_state":4},{"tradeofferid":"3688571692","accountid_other":5551133,"expiration_time":1568375852,"trade_offer_state":3}]}}'
d = json.loads(response)
tradeofferid = d['response']['trade_offers_sent'][1]['tradeofferid']
print(tradeofferid)
</code>
stdout:
<code>
3688571692
</code>
|
21,432 | Аннотация параметра функции в Python, если параметр - файл
У меня есть функция, которая создает и возвращает объекты на основе переданного в нее <code>
csv</code> файла, к примеру такая:
<code>
def get_objects_list(csv_file: xxx) -> list:
return list()
</code>
В функцию я передаю объект файла, полученного из менеджера контекста, и не знаю, как мне его аннотировать. Подскажите?
|
Воспользуйтесь typing.IO:
<code>
import typing
def get_objects_list(csv_file: typing.IO) -> list:
return list(...)
</code>
из документации:
Generic type <code>
IO[AnyStr]</code> and its subclasses <code>
TextIO(IO[str])</code> and
<code>
BinaryIO(IO[bytes])</code> represent the types of <code>
I/O</code> streams such as
returned by <code>
open()</code>.
|
21,433 | Как работает imblearn.under_sampling.ClusterCentroids?
Допустим, есть сильно несбалансированная выборка: <code>
X</code> - признаки, <code>
у</code> - целевая переменная (бинарная). Балансируем выборку с помощью метода <code>
ClusterCentroids()</code> (из модуля <code>
imbalanced-learn</code>), получаем новую выборку <code>
X_cc</code>, <code>
y_cc</code>. Берем модель, например <code>
XGBClassifier</code> (для бинарной классификации), и обучаем ее на этой новой выборке. Далее берем выборку <code>
X1</code> (из исходного пространства признаков <code>
X</code>), для которой требуется предсказать целевую переменную с помощью обученного ранее классификатора.
Вопрос:
как классификатор, обученный на кластерах признаков исходного
пространства, может предсказывать целевую переменную по самим
признакам исходного пространства (не кластерам)?
|
Попробую описать суть данного алгоритма и как им пользоваться...
Суть проблемы несбалансированных данных:
Библиотека (модуль) <code>
imblearn</code> / <code>
Imbalanced-Learn</code> предназначена для работы с несбалансированными выборками данных - такими где число образцов / экземпляров, принадлежащих различным классам различаются в разы. В том случае если у нас присутствует только два класса (бинарная классификация), то эти классы принято называть <code>
majority class</code> (класс большинства) и <code>
minority class</code> (класс меньшинства).
Классическим примером является задача выявления мошеннических транзакций. Очень часто в таких выборках доля мошеннических транзакций не превышает 1%. В таком случае даже если в качестве предсказания мы всегда будем маркировать транзакцию как нормальную (не мошенническую), то общая точность предсказания будет >= 99%. Подавляющее большинство алгоритмов классификации плохо справляется с обучением на разбалансированных выборках.
Если коротко, то данную проблему можно решить приблизительно уравняв число экземпляров обоих классов. Делают это обычно следующим способом:
уменьшив число экземпляров класса большинства
увеличив число экземпляров класса меньшинства
комбинация <code>
1.</code> и <code>
2.</code>
Суть алгоритма <code>
imblearn.under_sampling.ClusterCentroids</code>:
Данный алгоритм использует алгоритм кластеризации k-Means для нахождения центроидов (геометрический центр кластера) <code>
N</code> кластеров для класса большинства. Скорее всего, в качестве <code>
N</code> берется число экземпляров класса меньшинства. Таким образом выбрав <code>
N</code> центроидов класса большинства из всех экземпляров класса большинства мы сбалансировали обучающую выборку, оставив в ней по <code>
N</code> экземпляров для каждого класса.
Применение алгоритма <code>
imblearn.under_sampling.ClusterCentroids</code>:
В процессе обучения мы находим оптимальные коэффициенты / веса и для предсказания просто используем найденные коэффициенты / веса, подставив их в функцию алгоритма классификации. (Мы об этом не заботимся - готовые реализации классификаторов делают это за нас.)
Поэтому теоретически нам достаточно сбалансировать только обучающую выборку, обучить модель и дальше можно использовать обученную модель без балансировки.
На практике перед тем как использовать непосредственно классификацию, данные необходимо предварительно подготовить. Обычно подготовка состоит из следующих шагов:
<code>
imputing missing data</code> - заполнение или удаление отсутствующих данных (например: <code>
None</code>, <code>
NaN</code>, пустые строки и т.д.), т.к. большинство алгоритмов классификации или не работают или плохо справляются с отсутствующими данными.
<code>
encoding non-numerical data</code> - преобразование нечисловых данных в числовые.
<code>
data scaling & normalizing</code> - калибровка (скалирование и нормализация) данных
<code>
classification</code> - непосредственно классификация.
Чтобы объединить все шаги подготовки данных и классификации часто используют <code>
pipeline</code>:
<code>
pipeline = Pipeline([
("impute", imputer),
("encode", encoder),
("scale", scaler),
("classify", classifier),
])
</code>
и потом используют объект <code>
pipeline</code> для обучения и классификации:
<code>
pipeline.fit(X_train, y_train)
y_predicted = pipeline.predict(X_test)
</code>
В этом случае, как видно из примера, данные по которым мы делаем предсказание пройдут все шаги предварительной обработки, которые испольовались для обучения.
PS некоторые моменты в ответе могут показаться слишком очевидными автору вопроса. Я постарался подробно ответить на вопрос, чтобы ответ оказался полезным и понятным также тем кто попадет сюда по ссылке поисковика.
|
21,434 | Ошибка при миграции python django
TypeError: init() missing 1 required positional argument: 'on_delete'
Появляется такая ошибка при миграции.
<code>
status = models.ForeignKey(Status)
</code>
Код, который, похоже, вызывает проблемы. Как исправить?
|
Добавить позиционный аргумент <code>
on_delete</code>.
Пример:
<code>
status = models.ForeignKey(Status, on_delete=models.CASCADE)
</code>
Данный аргумент отвечает за то, что произойдёт при удалении связанного объекта.
Значение <code>
CASCADE</code> говорит, что запись, которая ссылается на удалённый объект, тоже должна быть удалена.
|
21,435 | Как можно сделать "трансформацию" из одного текста в другой
Необходимо сделать что бы из текста, допустим <code>
'Hello World'</code> (Вместо этих, может быть любые слова, которые ввел пользователь) переводились в <code>
'Hello world'</code>
Готовый "алфавит" из подобных символов: <code>
ABCDEFGHIJKLMNOPQRSTUVWXYZ</code>
Нижний регистр: <code>
abcdefghijklmnopqrstuvwxyz</code>
Подскажите как можно такое реализовать.
|
<code>
trans = str.maketrans('ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz',
'ABCDEFGHIJKLMNOPQRSTUVWXYZ'
'abcdefghijklmnopqrstuvwxyz')
print('Hello World'.translate(trans))
</code>
|
21,436 | получить цвет заливки ячейки в Excel файле
есть файл, который состоит с милиона строк его нужно пропарсить.
что я собственно и сделал, но есть еще задача по проверке цвета заливки в этой ячейке.
<code>
# -*- coding: utf-8 -*-
from openpyxl import load_workbook
wb_form = load_workbook("1.xlsx", data_only=True)
sheet_form = wb_form["1"]
wb = sheet_form["B2"].value
f = open("1.txt", "w+")
tmp = 0
for iter, row in enumerate(sheet_form.values):
if iter == 0:
continue
for i in row:
if i == None:
continue
print(i)
f.close()
</code>
не могу найти решение.
как в момент итерации проверять цвет ячейки?
|
Пример:
<code>
In [73]: from openpyxl import load_workbook
...:
...: wb = load_workbook(r"C:\Temp\1.xlsx")
...: ws = wb["Sheet1"]
...:
...: for row in ws.iter_rows(min_row=1, max_col=3, max_row=5):
...: for cell in row:
...: print(f"coordinate: {cell.coordinate}\tvalue: {cell.value}\tcolor: {cell.fill.start_color.index}")
...:
coordinate: A1 value: a color: 00000000
coordinate: B1 value: b color: 00000000
coordinate: C1 value: c color: 00000000
coordinate: A2 value: 1 color: 00000000
coordinate: B2 value: 2 color: FFC6EFCE
coordinate: C2 value: 3 color: 00000000
coordinate: A3 value: 4 color: 00000000
coordinate: B3 value: 5 color: FFFFC7CE
coordinate: C3 value: 6 color: 00000000
coordinate: A4 value: 7 color: 00000000
coordinate: B4 value: 8 color: FFFFEB9C
coordinate: C4 value: 9 color: 00000000
coordinate: A5 value: 10 color: 00000000
coordinate: B5 value: 11 color: 5
coordinate: C5 value: 12 color: 00000000
</code>
|
21,437 | Как поместить окно tkinter поверх окон других приложений?
Нужно создать окно, которое находилось бы всегда поверх окон других запущенных приложений. Можно ли это реализовать с помощью tkinter'a ?
|
<code>
try:
from tkinter import*
except:
from Tkinter import*
root=Tk()
root.attributes("-topmost",True)
root.mainloop()
</code>
|
21,438 | Как подключить файл, находящийся в параллельный папке?
У меня такая структура папок(все init с двумя нижними чертами по обоим сторонам):
main.py
scraper
---init.py
---Page
------init.py
------Page.py
---BookPage
------init.py
------BookPage.py
---MainPage
------init.py
------MainPage.py
Вопрос: как мне импортировать Page в BookPage? В интернете предлагают изменить path. Можно ли сделать это по другому?
Вот мой главный init.py
<code>
from .Page import Page
from .MainPage import MainPage
from .BookPage import BookPage
</code>
Вот другие
1
<code>
from .BookPage import BookPage
</code>
2
<code>
from .MainPage import MainPage
</code>
3
<code>
from .Page import Page
</code>
|
Если я Вас правильно понял, попробуйте в файле BookPage.py:
<code>
from ..Page import Page
</code>
Количество точек означает, на сколько "уровней" вверх нужно подняться, где одна точка – нуль (то есть, остаться на том же "уровне", где находится исходный файл)
|
Subsets and Splits
No saved queries yet
Save your SQL queries to embed, download, and access them later. Queries will appear here once saved.