我试图得到每个Reddit帖子的评论。
这就是我用来获得天赋清单的方法:
import praw
import webbrowser
r = praw.Reddit('OAuth testing example by u/_Daimon_ ver 0.1 see '
'https://praw.readthedocs.org/en/latest/'
'pages/oauth.html for source')
r.set_oauth_app_info(client_id='[clie
所以基本上我只是想在Reddit上找到一个关于“权力的游戏”的链接。这是链接:,这里还有很多其他的链接!我所要做的就是抓取一个文件中的所有链接,这已经完成了!现在,我必须逐个抓取每个链接,并打印出csv或json文件中的数据。
我已经尝试了谷歌所有可能的方法,但仍然无法找到解决方案!任何帮助都是有帮助的
import praw
import json
import pandas as pd #Pandas for scraping and saving it as a csv
#This is PRAW.
reddit = praw.Reddit(client_id=''
我正在使用Reddit API Praw进行情感分析。我的代码如下:
#!/usr/bin/env python
# -*- coding: utf-8 -*-
import praw
from IPython import display
from nltk.sentiment.vader import SentimentIntensityAnalyzer as SIA
from pprint import pprint
import pandas as pd
import nltk
import seaborn as sns
import datetime
sns.set(style=
我试图使用Reddit的developer构建一个简单的刮板,它在目标subreddit中抓取帖子和回复,并生成带有信息的JSON。
我得到一个404错误,我不明白。
这是我的密码:
import praw
import json
def scrape(subreddit, limit):
r = praw.Reddit(user_agent='Reddit data organizer 1.0 by /u/reallymemorable', client_id='none of your business', client_secret='n
因此,当我最终开始收到以下消息时,我正在使用普通的Praw来处理我的不一致机器人:
It appears that you are using PRAW in an asynchronous environment.
It is strongly recommended to use Async PRAW: https://asyncpraw.readthedocs.io.
See https://praw.readthedocs.io/en/latest/getting_started/multiple_instances.html#discord-bots-and-asynchronous
我正在尝试写一个redditbot;我决定从一个简单的机器人开始,以确保我做的事情是正确的,然后我得到了一个RequestException。
我的代码(bot.py):
import praw
for s in praw.Reddit('bot1').subreddit("learnpython").hot(limit=5):
print s.title
我的praw.ini文件:
# The URL prefix for OAuth-related requests.
oauth_url=https://oauth.reddit.com
# Th
我正在使用praw Reddit developer扩展从某个subreddit获取标题。我只想在文章的url指向以.tv结尾的时候才使用标题。
如何提取包含顶级域.tv的特定URL并将它们附加到自己的列表中?
import praw
reddit = praw.Reddit(client_id='', client_secret='', user_agent='')
hot_p = reddit.subreddit('music').top('week')
for post in
我目前正在尝试运行一个脚本change_wallpaper_reddit.sh,它调用change_wallpaper_reddit.py。但是,我得到了这个错误:
Traceback (most recent call last):
File "/home/sharan/Daily-Reddit-Wallpaper/change_wallpaper_reddit.py", line 7, in <module>
import praw
ImportError: No module named praw
但是,当我执行pip install praw时:
我在试着刮掉一个订阅者的所有评论。我找到了一个叫做PRAW的图书馆。给出了一个例子
import praw
r = praw.Reddit('Comment parser example by u/_Daimon_')
subreddit = r.get_subreddit("python")
comments = subreddit.get_comments()
然而,这只返回最近的25条评论。如何解析subreddit中的所有注释?在Reddit界面上,有一个next按钮,所以应该可以逐页返回历史记录。