|
|
Другие темы раздела | ||||||||||||||||||||||||||||||||||||
Python Генерация sitemap
https://www.cyberforum.ru/ python-web/ thread2402201.html Есть (уже 800) урлов их нужно объединить в sitemap.xml - проще говоря, нужна генерация sitemap.xml на python3 Карта сайта (sitemap) очень нужный файл на сервере он показывает какие страницы нужно индексировать, а какие нет структура, обычно такая |
Python Request на Python через Selenium Подскажите, пожалуйста, как я могу написать код, через Selenium, а не с requests >>> import requests >>> url = 'http://github.com/' >>> r = requests.get (url, allow_redirects=False) >>> r.status_code 301 >>> url = 'http://github.com/' >>> r = requests.get (url, allow_redirects=False) >>> r.status_code | |||||||||||||||||||||||||||||||||||
Python Автоматизировать сценарий Python
https://www.cyberforum.ru/ python-web/ thread2401971.html Помогите, пожалуйста, с автоматизацией теста Please, automate the next scenario with Python: 1) Go to the website http://the-internet.herokuapp.com/ 2) Find the item in the list of examples: Form Authentication 3) On the Login Page enter username and password to authorize 4) At the end of the test make a screenshot of successful authorization import webbrowser as wb |
Python GDrive download / upload Добрый день! Изучаю google drive api и есть непонятные моменты. Попробовал несколько примеров для загрузки и выгрузки файлов. Все проходит на ура, судя по консоли: Found file: test.txt (1TTh-ItmTTwQjuhD4vl1sCHb8hWmGGb3H) Found file: test.txt (1mqtAZDpL-xZPDr8OV7WuzvYy4ifCr7LK) Found file: test.txt (19fQD7APKOI4leoiuuNP68Utk27dzfoQY) Found file: test.txt (1zJ34BLQ0tGXThnL4En0eniiwQ_AZblke)... https://www.cyberforum.ru/ python-web/ thread2401546.html | |||||||||||||||||||||||||||||||||||
Почему цикл обрывается? Парсер на Selenium Python Парсю страничку селениуом https://www.oddsportal.com/events/ Пытаюсь вытащить ссылки из меню таблицы. Те, которые, видны - вытащил без труда. Но вот дошла до выпадающего списка, столкнулся с непонятной проблемой. Начинаю вытаскивать из него url с помощью наведений и нажатий, но как только получаю ссылку на Futsal, наведение тут же прекращается и соответственно не могу получить оставшиеся... |
Python AttributeError: 'function' object has no attribute 'randint'
https://www.cyberforum.ru/ python-web/ thread2400937.html У меня не работает модуль рандома Хостинг: pythonanywhere.com Скрин: | |||||||||||||||||||||||||||||||||||
Python Доступ к странице онлайн-книги Всем здравствуйте, прошу помочь с одним делом. Ситуация такая: есть книжный сайт, который по специальной подписке даёт доступ к книге через собственный viewer. Доступ именно ко всем страницам книги можно получить только если ты авторизован на сайте с подпиской (подписка имеется), но если авторизоваться, перейти в viewer и затем в браузере вставить url по типу "http://***/page/4" и открыть, то... https://www.cyberforum.ru/ python-web/ thread2400530.html |
Python Web приложение на python и заголовки ответа сервера Добрый день. Написал web приложение на python. Сам формирую заголовки ответа. Почему при запросе страницы в заголовках general фигурирует заголовок remote address с ip адресом и портом моего сервера vds. Почему то при заходе на другие сайты этого заголовка нет. | |||||||||||||||||||||||||||||||||||
Python Как обойти капчу при написании парсера на Selenium?
https://www.cyberforum.ru/ python-web/ thread2400079.html В общем пишу парсер на селениуме. При попытке открыть сайт вылезает капча. Причём сначала нужно указать, что ты не робот (постава галочки), а потом выбрать соотоветствующие картинки. Я знаю, что можно как-то обмануть защиту. Но как это сделать? В интернете есть советы по этому поводу, но как-то всё размыто. from selenium import webdriver def init_driver(): driver =... |
Python Requests и bs4 python 3 Всем привет, начала недавно изучать питон и решил поработать с запросами, такой вопрос возник - использую requests для запроса и bs4 для обработки html страницы. Вообщем делаю запрос и получаю тот блок страницы который мне нужен: r = requests.get(url+'?page='+str(i)) soup = BeautifulSoup(r.text, 'html.parser') ids = soup.find('script',{'id':'jsdata'}) Ответ выглядит вот так: <script... https://www.cyberforum.ru/ python-web/ thread2399582.html | |||||||||||||||||||||||||||||||||||
Как это можно исправить? Python from selenium import webdriver from selenium.webdriver.chrome.options import Options import os import time chrome_options = Options() chrome_options.add_argument("--headless") chrome_options.add_argument("--window-size=1024x768") driver = webdriver.Chrome(chrome_options=chrome_options, executable_path=chrome_driver) |
Python "stale element reference: element is not attached to the page document" при парсинге выпадающего меню с selenium
Вроде, исходя из логики всё учёл, всё верно... Но только первую итерацию нормально пропускает, но как только она заканчивается, валится ошибка stale element reference: element is not attached to the page document. То есть цикл даже не заходит на вторую операцию. В чём может быть ошибка?
def parse(driver):
url =...
https://www.cyberforum.
Наверх
|