C++. Сборник рецептов
Шрифт:
cout << *p << endl;
}
}
split
— это шаблон функции, принимающий три аргумента. Он объявлен вот так. template<typename Seq, typename Coll, typename Pred>
Seq& split(Seq& s, Coll& c, Pred p,
token_compress_mode_type e = token_compress_off);
Seq
, Coll
и Pred
представляют типы результирующей последовательности, входной коллекции и предиката, используемого для определения, является ли очередной объект разделителем.
list<string>
, но вместо него можно было бы использовать и vector<string>
. Аргумент коллекции — это тип входной последовательности. Коллекция — это нестандартная концепция, которая похожа на последовательность, но с несколько меньшими требованиями (за подробностями обратитесь к документации по Boost по адресу www.boost.org). Аргумент предиката — это объект унарной функции или указатель на функцию, которая возвращает bool
, указывающий, является ли ее аргумент разделителем или нет. Она вызывается для каждого элемента последовательности в виде f(*it)
, где it
— это итератор, указывающий на элемент последовательности. is_any_of
— это удобный шаблон функции, поставляющийся в составе String Algorithms, которая облегчает жизнь при использовании нескольких разделителей. Он конструирует объект унарной функции, которая возвращает true
, если переданный ей аргумент является членом набора. Другими словами: bool b = is_any_of("abc")('a'); // b = true
Это облегчает проверку нескольких разделителей, не требуя самостоятельного написания объекта функции.
4.7. Разбиение строки на лексемы
Проблема
Требуется разбить строку на части, используя набор разделителей.
Решение
Для перебора элементов строки и поиска места нахождения следующих лексем и не-лексем используйте методы
find_first_of
и first_first_not_of
. Пример 4.12 представляет простой класс StringTokenizer
, выполняющий эту задачу. Пример 4.12. Разбиение строки на лексемы
#include <string>
#include <iostream>
using namespace std;
// Класс, разбивающий строку на лексемы.
class StringTokenizer {
public:
StringTokenizer(const string& s, const char* delim = NULL) :
str_(s), count(-1), begin_(0), end_(0) {
if (!delim)
delim_ = " \f\n\r\t\v"; //по умолчанию пробельные символы
else
delim_ = delim;
// Указывает на первую лексему
begin_ = str_.find_first_not_of(delim);
end_ = str.find_first_of(delim_, begin_);
}
size_t countTokens {
if (count_ >= 0) // если уже посчитали, то выход
return(count_);
string::size_type n = 0;
string::size_type i = 0;
for (;;) {
//
переход на первую лексему
if ((i = str_.find_first_not_of(delim_, i)) == string::npos)
break;
// переход на следующий разделитель
i = str_.find_first_of(delim_, i+1);
n++;
if (i == string::npos) break;
}
return (count_ = n);
}
bool hasMoreTokens { return(begin_ != end_); }
void nextToken(string& s) {
if (begin_ != string::npos && end_ != string::npos) {
s = str_.substr(begin_, end_-begin_);
begin_ = str_.find_first_not_of(delim_, end_);
end_ = str_.find_first_of(delim_, begin_);
} else if (begin_ != string::npos && end_ == string::npos) {
s = str_.substr(begin_, str_.length-begin_);
begin_ = str_.find_first_not_of(delim_, end_);
}
}
private:
StringTokenizer {}
string delim_;
string str_;
int count_;
int begin_;
int end_;
};
int main {
string s = " razzle dazzle giddyup ";
string tmp;
StringTokenizer st(s);
cout << "Здесь содержится" << st.countTokens << " лексемы.\n";
while (st.hasMoreTokens) {
st.nextToken(tmp);
cout << "token = " << trap << '\n';
}
}
Обсуждение
Разбиение строки с четко определенной структурой, как в примере 4.10, конечно, хорошо, но не все так просто. Предположим, что, вместо того чтобы просто разделить строку на основе единственного разделителя, требуется разбить строку на лексемы. Наиболее частым вариантом этой задачи является разделение на лексемы с игнорированием пробелов. Пример 4.12 дает реализацию класса
StringTokenizer
(аналогичного стандартному классу Java™ с таким же именем) для C++, который принимает символы-разделители, но по умолчанию использует пробелы. Наиболее важные строки в
StringTokenizer
используют методы find_first_of
и find_first_not_of
шаблона класса basic_string
. Их описание и примеры использования даны в рецепте 4.9. Пример 4.12 дает такой вывод. Здесь содержится 3 лексемы.
token = razzle
token = dazzle
token = giddyu
p StringTokenizer
— это более гибкая форма функции split
из примера 4.10. Он поддерживает свое состояние, так что можно просто последовательно переходить с одной лексемы на другую, не разбивая вначале всю строку на части. Также есть возможность подсчитать число лексем.
Поделиться:
Популярные книги
Седьмая жена короля
Любовные романы:
любовно-фантастические романы
5.00
рейтинг книги
Вернуть невесту. Ловушка для попаданки
1. Вернуть невесту
Любовные романы:
любовно-фантастические романы
8.49
рейтинг книги
Истинная поневоле, или Сирота в Академии Драконов
3. Академия Драконов, или Девушки с секретом
Любовные романы:
любовно-фантастические романы
6.37
рейтинг книги
Неудержимый. Книга XVI
16. Неудержимый
Фантастика:
фэнтези
попаданцы
аниме
5.00
рейтинг книги
Попаданка в академии драконов 2
2. Попаданка в академии драконов
Любовные романы:
любовно-фантастические романы
6.95
рейтинг книги
Нечто чудесное
2. Романтическая серия
Любовные романы:
исторические любовные романы
9.43
рейтинг книги
Девочка-лед
Любовные романы:
современные любовные романы
5.00
рейтинг книги
Сотник
4. Помещик
Фантастика:
альтернативная история
5.00
рейтинг книги
Эволюционер из трущоб
1. Эволюционер из трущоб
Фантастика:
попаданцы
аниме
фэнтези
фантастика: прочее
5.00
рейтинг книги
Новые горизонты
5. Гибрид
Фантастика:
попаданцы
технофэнтези
аниме
сказочная фантастика
фэнтези
5.00
рейтинг книги
Возвышение Меркурия
1. Меркурий
Фантастика:
героическая фантастика
попаданцы
аниме
5.00
рейтинг книги
Скандальный развод, или Хозяйка владений "Драконье сердце"
Фантастика:
попаданцы
фэнтези
5.00
рейтинг книги
Курсант: Назад в СССР 7
7. Курсант
Фантастика:
попаданцы
альтернативная история
5.00
рейтинг книги
Шериф
2. Сопряжение
Фантастика:
боевая фантастика
постапокалипсис
рпг
6.25