添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
import torchvision . transforms as transforms device = torch . device ( 'cuda:0' if torch . cuda . is_available ( ) else 'cpu' ) num_epochs = 5 num_classes = 10 batch_size = 100 learning_rate = 0.001 train_dataset = torchvision . datasets . MNIST ( root = '../../data' , train = True , transform = transforms . ToTensor ( ) , download = True ) test_dataset = torchvision . datasets . MNIST ( root = '../../data' , train = False , transform = transforms . ToTensor ( ) ) train_loader = torch . utils . data . DataLoader ( dataset = train_dataset , batch_size = batch_size , shuffle = True ) test_loader = torch . utils . data . DataLoader ( dataset = test_dataset , batch_size = batch_size , shuffle = False ) class ConvNet ( nn . Module ) : def __init ( self , num_classes = 10 ) : super ( ConvNet , self ) . __init__ ( ) self . layer1 = nn . Sequential ( nn . Conv2d ( 1 , 16 , kernel_size = 5 , stride = 1 , padding = 2 ) , # shape(100, 16, 28, 28) nn . BatchNorm2d ( 16 ) , # shape(100, 16, 28, 28) nn . ReLU ( ) , # shape(100, 16, 28, 28) nn . MaxPool2d ( kernel_size = 2 , stride = 2 ) # shape(100, 16, 14, 14) self . layer2 = nn . Sequential ( nn . Conv2d ( 16 , 32 , kernel_size = 5 , stride = 1 , padding = 1 ) , # shape(100, 32, 14, 14) nn . BatchNorm2d ( 32 ) , # shape(100, 32, 14, 14) nn . ReLU ( ) , # shape(100, 32, 14, 14) nn . MaxPool2d ( kernel_size = 2 , stride = 2 ) # shape(100, 32, 7, 7) self . fc = nn . Linear ( 7 * 7 * 32 , num_classes ) def forward ( self , x ) : # x.shape (100, 1, 28, 28) out = self . layer1 ( x ) # out.shape (100, 16, 14, 14) out = self . layer2 ( out ) # out.shape (100, 32, 7, 7) out = out . reshape ( out . size ( 0 ) , - 1 ) # out.shape(100, 1586) out = self . fc ( out ) # out.shape (100, 10) return out model = ConvNet ( num_classes ) . to ( device ) criterion = nn . CrossEntropyLoss ( ) optimizer = torch . optim . Adam ( model . parameters ( ) , lr = learning_rate ) total_step = len ( train_loader ) for epoch in range ( num_epochs ) : for i , ( images , labels ) in enumerate ( train_loader ) : images = images . to ( device ) # shape (100, 1, 28, 28) labels = labels . to ( device ) outputs = model ( images ) # shape (100, 10) loss = criterion ( outputs , labels ) optimizer . zero_grad ( ) loss . backward ( ) optimizer . step ( ) if ( i + 1 ) % 100 == 0 : print ( 'Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}' . format ( epoch + 1 , num_epochs , i + 1 , total_step , loss . item ( ) ) ) model . eval ( ) with torch . no_grad ( ) : correct = 0 total = 0 for images , labels in test_loader : images = images . to ( device ) labels = labels . to ( device ) outputs = model ( images ) _ , prediction = torch . max ( outputs . data , 1 ) total += labels . size ( 0 ) correct += ( prediction == labels ) . sum ( ) . item ( ) print ( 'Test Accuracy of the model on the 10000 test image is {}' . format ( correct / total ) ) torch . save ( model . state_dict ( ) , 'model.ckpt' )
TypeError: __init__() takes 1 positional argument but 2 were given

在第30行

	def __init(self, num_classes=10):

__init__函数没有写完整,补全为__init__即可

pytorch-tutorial/tutorials/02-intermediate/convolutional_neural_network/main.py
torch.nn.BatchNorm2d
torch.nn.Conv2d
torch.nn.MaxPool2d

文章目录convolutional_neural_network代码代码报错出错原因参考convolutional_neural_network代码import torchimport torch.nn as nnimport torchvisionimport torchvision.transforms as transformsdevice = torch.device('cu... invalid_msg_locator = (By.CLASS_NAME, "layui-layer-content") WebElementWait(self,20,0.5).until( expected.conditions.visibility_of_element_located( *self.invalid_msg_locator) presence_of_element_located()方法中传入的参数格式是一个元组 把 WebDriverWait(self.driver,20).until(EC.visibility_of_element_located(By.XPATH,'//div[@class ="form-error-info"]'))修改为 WebDriverWai
使用torch_geometric.data.Batch.from_data_list会出现TypeError: inc() takes 3 positional arguments but 4 were given在复现别人代码时程序报错:。 Debug发现是方法出了问题。 源代码推荐PYG版本为1.6,而我的PYG版本为2.0。 根据github确定为版本问题。当PYG>=2.0以后data.__inc__的参数发生变化。一、如果你能找到你代码中的__cat_dim__()(注意不是源文件的__cat_
①__init__() 应传一个参数,但是给赋值了2个,去这些地方看看是不是参数数量上不对 ②__init__()写错了,有可能是写成了__init()或init__()或_init_()或__int__(),总之好好查看一下吧,曾经犯过的低级错误。。
TypeError at /add_atr/ add_atr() takes 0 positional arguments but 1 was given Request Method: GET Request URL: http://127.0.0.1:8000/add_stu/ Django Version: 3.0.3 Exception Type: TypeError Exception Value: add_atr() takes 0 positional arguments but 1 was given Exception Location: E:\env\django9\lib
3.问题定位:      先看报错代码:大概意思是, 传给优化器的learning_rate参数错误。 模型训练是在服务器Linux环境下进行的,之后在本地Windows(另一环境)继续跑代码,所以初步怀疑是keras版本不一致导致的。  Linux下keras版本为: 本地版本: 再结合大佬博客 解
2022-01-12 22:20:24.272950: I tensorflow/core/platform/cpu_feature_guard.cc:142] This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations: AVX AVX2 To en.
异常描述: 执行以下代码 WebDriverWait(self.driver, 10, 0.5).until(EC.presence_of_element_located(By.XPATH, '//span[text()="全选"]')), PyCharm出现异常提示TypeError: __init__() takes 2 positional arguments but 3 were given 原译:init()方法只取2个参数,但实际提供了3个参数。 presence_of_elemen
如下图所示,报错为TypeError: JayChou() missing 1 required keyword-only argument: ‘c’ 翻译过来是:TypeError:JayChou()缺少1个仅限关键字的参数:“c” 报错代码: #coding=utf-8 def JayChou(a, *b, c): print(a) print(b) print(c) JayChou(1, 555, 5768, 55451) 由上代码可知,我在不定长参数b后面加了一个c,出现在b后面应该是加了两个**号的以字典导入的参数。针对c的位置,有3种解决办法解决这个报错
使用pytorch的DDP分布式训练的时候遇到错误: TypeError: _queue_reduction(): incompatible function arguments. The following argument types are supported: 1. (process_group: torch.distributed.ProcessGroup, grads_batch: List[List[at::Tensor]], devices: List[int]) -> Tuple[torch.distributed.Work, at::Tensor] Invoked
Traceback (most recent call last): File "C:/Users/Lenovo/PycharmProjects/untitled3/text6.py", line 49, in printGoodsList(infoList) 序号 价格 商品名称 File "C:/Users/Lenovo/PycharmProjects/untitled3/text6.py", line 34, in printGoodsList print(tplt.format(count, g[0], g[1])) 1 199.00
### 回答1: 这个错误是因为你在调用一个函数时传递了多余的参数。具体来说,你调用了一个名为__init__()的函数,但是它只接受两个位置参数,而你传递了四个参数。你需要检查你的代码并确保你只传递了正确数量的参数。 ### 回答2: 这个错误是指在初始化一个类实例时给出了多于类定义中所需的参数。在这个错误信息的情况下,它指出有4个参数被传递给了初始化方法,但是它只期望接收两个参数。 通常,这个错误发生在面向对象编程中,当你尝试初始化一个类实例并且传递给它的参数的数量不匹配时,就会发生这种错误。你需要确认类定义中初始化方法的参数数量和你正在尝试创建该类实例时传递的参数数量是否相等。 解决这个问题的方法是检查你的代码并调整相应的参数。你需要确认你调用初始化方法时传递的参数数目是否正确,并且你传递的参数是正确的类型。 在某些情况下,这个错误可能发生在父类和子类之间继承时。如果定义了一个子类,并且该子类重写了父类的初始化方法,则可能会遇到这个问题。你需要使用super()调用父类的初始化方法,并将父类所需的参数带入该方法中。 总之,TypeError: __init __() takes 2 positional arguments but 4 were given 错误通常发生在面向对象编程中,在初始化一个类实例时传递了错误数量的参数。要解决这个问题,你需要检查你传递的参数数量和类型是否正确,并相应地进行调整。 ### 回答3: 这个错误是由于我们在调用一个方法时传入了错误的参数个数而导致的。在这个具体的错误信息中,我们知道__init__()这个方法只接受两个参数,但是我们却传了四个参数进去,所以导致这个TypeError类型的错误。 具体来说,__init__()是Python中的一个特殊方法,用于创建一个类的实例对象。在这个方法中我们一般会设置一些初始的属性和方法等。在创建实例对象时,我们需要传入初始化参数,这些参数表示该对象的属性和特性等。 但是如果我们在创建对象时传入的参数与__init__()方法定义的不一样,Python就会抛出TypeError类型的异常。比如说,如果我们在这个对象的类中定义了一个__init__(self, name, age)的方法,那么我们就必须传入两个参数来创建对象,比如对象实例化的时候这样写:obj = MyClass("张三", 20)。 而如果我们在创建对象时传入的参数数量和类型不符合方法定义中的参数,就会产生上述报错信息。因此,在解决这个错误时,我们需要检查方法的定义和调用中传入的参数的数目是否一致,同时还需要检查参数的数据类型是否正确,确保方法调用的时候传入的参数数目和类型与方法定义的参数数目和类型一致即可。